Chatboty nie są bezstronne i neutralne. Naukowcy udowodnili, że podają nam informacje z naszej "bańki"
- Biorąc pod uwagę, że systemy oparte na sztucznej inteligencji są coraz łatwiejsze do zbudowania, złośliwe podmioty będą miały możliwość wykorzystania AI do tworzenia coraz większych polaryzacji w społeczeństwie –mówi dr Ziang Xiao z Johns Hopkins University.
Chatboty nie są bezstronne
Chatboty podają ograniczone informacje i wzmacniają postawy ideologiczne osób zadających pytania; mogą przez to prowadzić do bardziej spolaryzowanego myślenia w kontrowersyjnych kwestiach - wykazali naukowcy z Johns Hopkins University. Nowe badanie podważa przekonanie, że chatboty są bezstronne i dostarcza wglądu w to, w jaki sposób korzystanie z systemów wyszukiwania konwersacyjnego może zwiększać podziały społeczne w kluczowych kwestiach oraz narażać ludzi na manipulację.
„Kiedy ludzie czytają treść wygenerowaną przez sztuczną inteligencję, myślą, że otrzymują bezstronne, oparte na faktach informacje – mówi główny autor badania dr Ziang Xiao. - Ale nawet jeśli chatbot nie jest zaprojektowany tak, aby był stronniczy, jego odpowiedzi odzwierciedlają uprzedzenia lub skłonności osoby zadającej pytania. Tak naprawdę ludzie otrzymują odpowiedzi, które chcą usłyszeć”.
Pytasz chatbota i radykalizujesz się jeszcze bardziej
Xiao i jego zespół podzielili się swoimi odkryciami podczas konferencji Association of Computing Machinery 2024, która odbyła się w Honolulu. Na potrzeby badania naukowcy porównali sposób, w jaki ludzie wchodzą w interakcję z różnymi systemami wyszukiwania w obliczu kilku kontrowersyjnych kwestii. Zbadali respondentów przed użyciem wyszukiwarek (standardowych i opartych na AI) oraz po ich użyciu.
Poprosili 272 uczestników, aby zapisali swoje przemyślenia na takie tematy, jak opieka zdrowotna, kredyty studenckie czy tzw. miasta-sanktuaria (w USA miasta, w których ograniczona jest współpraca z federalnymi organami egzekwującymi prawo imigracyjne), a następnie wyszukali w internecie więcej informacji na wymienione tematy temat za pomocą chatbota lub tradycyjnej wyszukiwarki. Po zapoznaniu się z wynikami uczestnicy zapisali swoje odpowiedzi ponownie. Badacze poprosili ich także o przeczytanie dwóch przeciwstawnych artykułów na dany temat, po czym pytali, na ile ufają tym informacjom i czy uważają te punkty widzenia za skrajne.
Takie zachowanie więzi nas w "bańce" informacyjnej
Okazało się, że ponieważ chatboty oferowały węższy zakres informacji niż tradycyjne wyszukiwarki internetowe i dostarczały odpowiedzi odzwierciedlające wcześniejsze postawy uczestników, osoby, które z nich korzystały, jeszcze bardziej umacniały się w swoich poglądach i silniej reagowały na informacje, które te poglądy podważały.
- Ludzie mają tendencję do szukania informacji zgodnych z ich punktem widzenia, a takie zachowanie często więzi ich w +bańce+ podobnych osób i opinii – uważa dr Xiao. Jak wyjaśnia, dochodzi wtedy do efektu „komory echa” (echo chamber), czyli zjawiska, w którym użytkownicy mediów powtarzają to, co powiedzieli inni, ponieważ są otoczeni przez jednostronne myśli i poglądy. „Odkryliśmy, że efekt komory echa jest dużo silniejszy w przypadku chatbotów niż w przypadku tradycyjnych wyszukiwarek internetowych” - podkreśla Xiao.
Według naukowca w przypadku kontaktów z chatbotami efekt komory echa wynika - przyjemniej częściowo - ze sposobu, w jaki użytkownicy wchodzą z nimi w interakcję. Zamiast wpisywać słowa kluczowe, jak to robią w przypadku tradycyjnych wyszukiwarek, najczęściej zadają im pełne pytania, np.: „Jakie są korzyści z powszechnej opieki zdrowotnej?” lub „Jakie są koszty powszechnej opieki zdrowotnej?”. Chatbot w takiej sytuacji odpowiada podsumowaniem zawierającym wyłącznie wspomniane w pytaniu korzyści lub koszty.
"Tutaj nasz język może zostać użyty przeciwko nam"
„Dzięki chatbotom ludzie są bardziej ekspresyjni i formułują pytania w bardziej konwersacyjny sposób. Jest to funkcją tego, jak mówimy w życiu – tłumaczy Xiao. - Ale tutaj nasz język może zostać użyty przeciwko nam”.
Autorzy badania chcieli sprawdzić, czy na poglądy użytkowników wpłynie to, czy chatbot będzie zgadzał się z ich poglądami, czy też je kwestionował. Najpierw zaprojektowali więc takiego, który na podstawie określonych wskazówek identyfikował poglądy ludzi i zgadzał się z nimi. W tym przypadku efekt komory echa okazał się jeszcze silniejszy. Następnie przeszkolili innego chatbota, aby udzielał odpowiedzi, które nie zgadzały się z uczestnikami. Tym razem pierwotne opinie ludzi się nie zmieniły: ani nie pogłębiły, ani nie osłabły. W kolejnym kroku zaprogramowano chatbota tak, aby łączyłby swoje odpowiedzi z informacjami źródłowymi, co miało zachęcić użytkowników do sprawdzenia faktów. Jednak tylko ułamek uczestników badania zdecydował się skorzystać z tej opcji.
„Biorąc pod uwagę, że systemy oparte na sztucznej inteligencji są coraz łatwiejsze do zbudowania, złośliwe podmioty będą miały możliwość wykorzystania AI do tworzenia coraz większych polaryzacji w społeczeństwie” – podsumowuje dr Xiao.
PAP / mł
Skomentuj artykuł