Nowy ChatGPT zaskakuje. "To już nie student, to doktor"
Nowa wersja ChataGPT – model GPT-5 – oficjalnie zadebiutowała. Według Sama Altmana z OpenAI to „najinteligentniejszy i najbardziej przydatny” model w historii firmy. GPT-5 ma być nie tylko szybszy i bardziej precyzyjny, ale także osiągać poziom wiedzy eksperckiej w wielu dziedzinach. Nie brak jednak głosów ostrzegających przed etycznymi i społecznymi konsekwencjami tej technologicznej ewolucji.
OpenAI zaprezentowało nową generację swojego flagowego narzędzia – GPT-5. Sam Altman, dyrektor generalny firmy, opisuje model jako „mądrzejszy, szybszy i bardziej użyteczny niż kiedykolwiek wcześniej”. Według niego nowa wersja ChatGPT przewyższa poprzednie – rozmowy z GPT-3 porównuje do konwersacji z licealistą, z GPT-4 – ze studentem, natomiast GPT-5 ma już prezentować poziom eksperta z doktoratem.
GPT-5 ma wyróżniać się znacznie lepszym rozumieniem kontekstu, umiejętnością logicznego wnioskowania i mniejszą skłonnością do tzw. „halucynacji”, czyli generowania fałszywych odpowiedzi. OpenAI kieruje nowy model szczególnie do programistów, sugerując, że może on pełnić rolę kompetentnego asystenta przy tworzeniu oprogramowania od podstaw.
Wprowadzono także cztery nowe „osobowości” czatu – Cynik, Robot, Słuchacz i Nerd – które mają nadawać interakcjom bardziej zróżnicowany ton i charakter.
Krytyka i wątpliwości
Choć premiera GPT-5 wzbudziła duże zainteresowanie, nie brakuje krytycznych głosów. Prof. Carissa Véliz z Uniwersytetu Oksfordzkiego zauważyła, że niektóre z deklaracji OpenAI mogą mieć bardziej marketingowy niż rzeczywisty wymiar. Inni eksperci podkreślają, że rozwój AI postępuje znacznie szybciej niż zdolność społeczeństw do stworzenia odpowiednich regulacji, co rodzi obawy o przejrzystość, bezpieczeństwo i etykę.
Dziennikarz BBC Marc Cieslak, który miał okazję przetestować GPT-5, przyznał, że mimo dużego postępu w zakresie rozumowania i struktury odpowiedzi, interfejs oraz ogólne wrażenia użytkownika nie różnią się diametralnie od poprzednich wersji. – To raczej ewolucja niż rewolucja – podsumował.
Kwestia praw autorskich i autentyczności
Wzrost możliwości modeli językowych budzi również pytania o legalność danych wykorzystywanych do ich trenowania. Grant Farhall z Getty Images zwraca uwagę na konieczność ochrony twórców i zapewnienia im rekompensaty za wykorzystanie ich pracy. – Autentyczność ma znaczenie – ale nie jest za darmo – mówi.
Zdrowsze relacje z AI?
OpenAI zapowiada także zmiany w podejściu do relacji między użytkownikiem a chatbotem. Firma przyznaje, że AI może wydawać się wyjątkowo empatyczna i responsywna, zwłaszcza dla osób w trudnych emocjonalnie momentach. Dlatego ChatGPT ma unikać udzielania bezpośrednich odpowiedzi w delikatnych sprawach osobistych, np. „czy powinnam zerwać z partnerem?”, zamiast tego zachęcając do refleksji i rozważania różnych perspektyw.
Sam Altman przyznaje, że społeczeństwo będzie musiało wypracować nowe granice i normy w kontaktach z AI – zwłaszcza że relacje z chatbotami mogą mieć charakter paraspołeczny. Jednak, jak podkreśla, potencjalne korzyści z tak rozwiniętej sztucznej inteligencji są ogromne.


Skomentuj artykuł