ChatGPT zdał słynny test Turinga. To dowód na jego zdolność do naśladowania ludzi

Naukowcy opublikowali wyniki badania, w którym GPT-4.5 zdał test Turinga, uzyskując 73 proc. skuteczności w przekonywaniu ludzi, że rozmawiają z inną osobą. Badanie wykazało, że GPT-4.5 był w stanie sprawić, że ludzie nie potrafili się zorientować, czy rozmawiają z maszyną, co stanowi istotny dowód na zdolność LLM (dużych modeli językowych) do naśladowania ludzi.
Chociaż GPT-4.5 okazał się najlepszym modelem w teście, Llama-3.1 firmy Meta również osiągnął imponujący wynik, oszukując uczestników w 56 proc. przypadków - informuje portal Live Science.
Czym jest test Turinga?
Podstawową ideą testu Turinga jest sprawdzenie, czy maszyna potrafi naśladować ludzi (nie chodzi tu o wykazywanie zdolności myślenia). W oryginalnej wersji testu Turing zaproponował, by "przesłuchujący" zadawał pytania dwóm niewidocznym podmiotom - człowiekowi i komputerowi. By komputer zdał test, musiał udawać człowieka i naśladować ludzkie odpowiedzi. Jeśli przesłuchujący nie potrafiłby rozróżnić, który z uczestników był człowiekiem, komputer mógłby zostać uznany za zdolny do naśladowania ludzkiego zachowania - informuje portal Live Science.
Dotychczas LLM-y radziły sobie dobrze w testach jeden na jeden, jednak nie potrafiły przekonująco przejść bardziej złożonej wersji testu, w który angażowany był drugi człowiek.
Badanie przeprowadzone przez naukowców z Uniwersytetu Kalifornijskiego w San Diego obejmowało 284 badanych. Uczestnicy wzięli udział w trzyosobowym teście Turinga, który polegał na pięciominutowej wymianie pytań i odpowiedzi z dwoma podmiotami - człowiekiem i LLM-em - z których oba starały się przekonać badanych, że są ludźmi.
Jak informuje Live Science, w badaniu LLM-om podano prostą instrukcję, by wzięły udział w teście Turinga i przekonały uczestników, że są ludźmi. Dodatkowo, niektórym modelom przypisano rolę młodej, introwertycznej osoby, znającej kulturę internetową i używającej slangu, co miało na celu zwiększenie ich wiarygodności.
Uczestnicy testu wskazywali, że decyzje o tym, czy rozmawiają z człowiekiem, czy AI, podejmowali na podstawie stylu językowego, płynności rozmowy oraz czynników społeczno-emocjonalnych, a nie na podstawie rozumowania i wiedzy. To pokazuje, jak ważne są emocjonalne i społeczne aspekty interakcji z AI.
Zagrożenia związane z rozwojem sztucznej inteligencji
Choć badanie stanowi istotny kamień milowy w rozwoju LLM-ów, wskazuje też na potencjalne zagrożenia związane z ich rozwojem. Wygranie testu Turinga przez GPT-4.5 nie świadczy o posiadaniu przez maszynę ludzkiej inteligencji, ale pokazuje jej zdolność do naśladowania ludzi. Taki postęp może prowadzić do bardziej zaawansowanych agentów AI, zdolnych do lepszej komunikacji w języku naturalnym. Jednakże, jak zauważyli naukowcy, nieświadomość interakcji z AI może prowadzić do manipulacji i inżynierii społecznej, co stanowi poważne ryzyko w obliczu rosnącej potęgi sztucznej inteligencji - ostrzega Live Science.
Źródło: Live Science / pk
Skomentuj artykuł