ChatGPT zdał słynny test Turinga. To dowód na jego zdolność do naśladowania ludzi

ChatGPT zdał słynny test Turinga. To dowód na jego zdolność do naśladowania ludzi
Chat GPT. Fot. Depositphotos
Live Science / pk

Naukowcy opublikowali wyniki badania, w którym GPT-4.5 zdał test Turinga, uzyskując 73 proc. skuteczności w przekonywaniu ludzi, że rozmawiają z inną osobą. Badanie wykazało, że GPT-4.5 był w stanie sprawić, że ludzie nie potrafili się zorientować, czy rozmawiają z maszyną, co stanowi istotny dowód na zdolność LLM (dużych modeli językowych) do naśladowania ludzi.

Chociaż GPT-4.5 okazał się najlepszym modelem w teście, Llama-3.1 firmy Meta również osiągnął imponujący wynik, oszukując uczestników w 56 proc. przypadków - informuje portal Live Science.

DEON.PL POLECA



Czym jest test Turinga?

Podstawową ideą testu Turinga jest sprawdzenie, czy maszyna potrafi naśladować ludzi (nie chodzi tu o wykazywanie zdolności myślenia). W oryginalnej wersji testu Turing zaproponował, by "przesłuchujący" zadawał pytania dwóm niewidocznym podmiotom - człowiekowi i komputerowi. By komputer zdał test, musiał udawać człowieka i naśladować ludzkie odpowiedzi. Jeśli przesłuchujący nie potrafiłby rozróżnić, który z uczestników był człowiekiem, komputer mógłby zostać uznany za zdolny do naśladowania ludzkiego zachowania - informuje portal Live Science.

Dotychczas LLM-y radziły sobie dobrze w testach jeden na jeden, jednak nie potrafiły przekonująco przejść bardziej złożonej wersji testu, w który angażowany był drugi człowiek.

Badanie przeprowadzone przez naukowców z Uniwersytetu Kalifornijskiego w San Diego obejmowało 284 badanych. Uczestnicy wzięli udział w trzyosobowym teście Turinga, który polegał na pięciominutowej wymianie pytań i odpowiedzi z dwoma podmiotami - człowiekiem i LLM-em - z których oba starały się przekonać badanych, że są ludźmi.

Jak informuje Live Science, w badaniu LLM-om podano prostą instrukcję, by wzięły udział w teście Turinga i przekonały uczestników, że są ludźmi. Dodatkowo, niektórym modelom przypisano rolę młodej, introwertycznej osoby, znającej kulturę internetową i używającej slangu, co miało na celu zwiększenie ich wiarygodności.

Uczestnicy testu wskazywali, że decyzje o tym, czy rozmawiają z człowiekiem, czy AI, podejmowali na podstawie stylu językowego, płynności rozmowy oraz czynników społeczno-emocjonalnych, a nie na podstawie rozumowania i wiedzy. To pokazuje, jak ważne są emocjonalne i społeczne aspekty interakcji z AI.

Zagrożenia związane z rozwojem sztucznej inteligencji

Choć badanie stanowi istotny kamień milowy w rozwoju LLM-ów, wskazuje też na potencjalne zagrożenia związane z ich rozwojem. Wygranie testu Turinga przez GPT-4.5 nie świadczy o posiadaniu przez maszynę ludzkiej inteligencji, ale pokazuje jej zdolność do naśladowania ludzi. Taki postęp może prowadzić do bardziej zaawansowanych agentów AI, zdolnych do lepszej komunikacji w języku naturalnym. Jednakże, jak zauważyli naukowcy, nieświadomość interakcji z AI może prowadzić do manipulacji i inżynierii społecznej, co stanowi poważne ryzyko w obliczu rosnącej potęgi sztucznej inteligencji - ostrzega Live Science.

Źródło: Live Science / pk

Tworzymy DEON.pl dla Ciebie
Tu możesz nas wesprzeć.
Kazimierz Tischner, Michał Lewandowski

Kapłan, filozof, kaznodzieja. Chłopak z charakterem

Jaki był Józiu, czyli słynny ks. prof. Józef Tischner, od narodzin do momentu odejścia 25 lat temu?

Kazimierz Tischner rysuje wzruszający portret najstarszego brata, Filozofa z Łopusznej – człowieka...

Skomentuj artykuł

ChatGPT zdał słynny test Turinga. To dowód na jego zdolność do naśladowania ludzi
Wystąpił problem podczas pobierania komentarzy.
Nikt jeszcze nie skomentował tego wpisu.