Ks. prof. Józef Kloch o samobójstwie, do którego namówiła AI: Chatbot może sprowadzić człowieka na manowce
- Korzystanie ze sztucznej inteligencji musi być odpowiedzialne. Nie ma innego wyjścia, inaczej zwróci się to przeciwko ludzkości - zaznaczył ks. prof. Józef Kloch, kierownik Katedry Internetu i Komunikacji Cyfrowej w Instytucie Edukacji Medialnej i Dziennikarstwa UKSW w Warszawie.
Anna Rasińska (KAI): W listopadzie ubiegłego roku sztuczna inteligencja wkroczyła w życie milionów ludzi dzięki kalifornijskiemu laboratorium badawczemu OpenAI i jego oprogramowaniu ChatGPT. Technologia polega na udostępnieniu platformy sztucznej inteligencji umożliwiającej generowanie przez komputer odpowiedzi na zapytanie użytkownika. Czy obserwując prędkość rozwoju prac nad sztuczną inteligencją czuje Ksiądz Profesor obawę?
Ks. prof. Józef Kloch: Nie czuję obawy, ponieważ sztuczna inteligencja ma swoje ograniczenia.
Jak w ogóle można zdefiniować sztuczną inteligencję (ang. Artificial Intelligence, w skrócie AI)?
- Amerykański filozof John Searle rozróżnił dwa typy AI - strong (mocna) oraz weak (słaba). Pierwsza (sAI) polegałaby na zduplikowaniu, powieleniu w 100 proc. możliwości ludzkiego mózgu przez komputery wyposażone w odpowiednie oprogramowanie i Searle nie widzi możliwości zbudowania maszyny, w której zachodziłyby identyczne procesy, jak w ludzkim umyśle. Druga wersja (wAI) to symulowanie przez komputery zdolności ludzkiego rozumu w pewnych zakresach. I ChatGPT, dziś już w czwartej wersji, jest bardzo dobrym przykładem takiej właśnie symulacji pracy mózgu człowieka - rozumie pytania zadawane języku naturalnym i odpowiada na nie, rozwiązując bardzo skomplikowane zadania. Za ich wykonywaniem stoi bot oparty na bazie dużych modeli językowych; całość oprogramowania jest niezwykle skomplikowana - składa się z 7 miliardów (sic!) linii algorytmów przystosowanych do ciągłego poszerzania bazy wiedzy dzięki procesowi maszynowego uczenia się.
Wielu ekspertów twierdzi, że sama sztuczna inteligencja nam nie zagraża, natomiast może zostać wykorzystana przez nieodpowiedzialnych ludzi. Okazuje się jednak, że rozmowa z systemem komputerowym może doprowadzić do tragedii. Ostatnio chatbot amerykańskiej firmy nakłonił trzydziestokilkuletniego Belga, ojca dwójki dzieci, do samobójstwa.
- Zatem, jak widać, chatbot może sprowadzić człowieka na manowce. Trzeba mieć świadomość tego, że dialog prowadzi się z systemem komputerowym, a nie z człowiekiem. Konwersacja toczy się głosowo lub przy pomocy klawiatury, ale z botem tj. programem komputerowym. Toby Walsh, jeden z czołowych uczonych w zakresie AI, zaproponował wprowadzenie oznaczenia, które nazwał "czerwoną flagą Turinga" (Turing's Red Flag). Stanowiłaby ona ostrzeżenie - nie rozmawiasz z człowiekiem, tylko z maszyną. Jestem przekonany, że losy wspomnianego Belga potoczyłyby się inaczej gdyby miał świadomość, że rozmawia z systemem komputerowym, a nie z człowiekiem.
Systemy sztucznej inteligencji powinny być tak konstruowane, żeby zostały zachowane pewne zasady etyczne. To jest szalenie ważne. Bot nie może doprowadzić kogoś do samobójstwa.
W mediach pojawił się apel podpisany między innymi przez Elona Muska i Steve'a Wozniaka, aby badania nad najbardziej zaawansowanymi systemami sztucznej inteligencji zostały wstrzymane na sześć miesięcy ze względów bezpieczeństwa. Apel rozpoczyna się ostrzeżeniem o "inteligencji współzawodniczącej z ludźmi" i zagrożeniach, jakie AI może stwarzać dla społeczeństwa. Czy na tym etapie możliwe jest wstrzymanie prac nad sztuczną inteligencją?
- Ciekaw jestem, dlaczego akurat na sześć miesięcy miałyby zostać zahamowane badania nad AI? Czy apel nie jest przypadkiem próbą zdobycia czasu potrzebnego do nadrobienia własnych badań? Bo zespół Elona Muska podjął zadanie zbudowania innego bota, który miałby mieć jeszcze większe możliwości niż ChatGPT. Jestem zdania, że obecnie wstrzymanie badań nad sztuczną inteligencją nie jest możliwe. Ważne jest natomiast to, żeby były to badania odpowiedzialne. Stosunkowo niedawno pojawił się nowy termin "responsible artificial intelligence (rAI)". W języku polskim oddaje się to określenie jako „odpowiedzialna sztuczna inteligencja” lub nawet „etyczna AI”. Generalnie chodzi o to, by algorytmy programów opartych na sztucznej inteligencji wzbogacone zostały o pewne zasady.
Jak mogłyby brzmieć takie zasady?
- Niektóre podstawowe zasady etyki dotyczące sztucznej inteligencji zostały już nakreślone na progu lat 20. obecnego stulecia. Podam przykład reguł z… Watykanu. Są one pokłosiem - i tu kolejne zaskoczenie - spotkania w 2019 roku Ojca Świętego Franciszka z Bradem Smithem, prezesem Microsoftu. Firma ta z Papieską Akademią Życia ustanowiły nagrodę w dziedzinie dokonań co do etyki sztucznej inteligencji. W kolejnym roku w lutym, po obradach Akademii, został opublikowany dokument "Rome Call for AI Ethics" (Rzymski apel o etykę AI) W jego tworzenie zaangażowali się m.in. uczeni zajmujący się badaniami nad sztuczną inteligencją. Dokument podpisali jako pierwsi przedstawiciele gigantów technologicznych, firm Microsoft oraz IBM oraz Papieskiej Akademii Życia, która jest inicjatorem przedsięwzięcia.
Dokument zawiera m.in. sześć zasad co do AI - jawność, inkluzywność, odpowiedzialność, bezstronność, niezawodność oraz bezpieczeństwo i prywatność.
Czy póki co te zasady są przestrzegane?
- Aby to ocenić trzeba byłoby mieć dostęp do wszystkich prac co do AI, jakie dziś się toczą. Nie jest to oczywiście możliwe, m.in. dlatego, że firmy konkurują ze sobą. Otrzymały one natomiast konkretne wskazówki, w jaki sposób powinny być prowadzone badania nad sztuczną inteligencją i podpisały się pod nimi m.in. Microsoft i IBM.
Na początku roku 2023 Microsoft ogłosił wieloletnią inwestycję w wysokości 10 mld dolarów w laboratorium OpenAI. W lutym rozpoczęło się wbudowywanie technologii AI o tym samym podłożu co ChatGPT do przeglądarki Edge i wyszukiwarki Bing oraz do pakietu Microsoft 365. Jakie są owoce tych działań dla zwykłego użytkownika wymienionych produktów Microsoftu? Obecnie zwykły edytor tekstu oferuje nam bardzo szybkie, zadowalające tłumaczenia tekstów z jednego na drugi język. Podobnie jest z przekładami treści w Edge i Bing. Dostęp do tych funkcjonalności jest powszechny – tu widać realizację drugiej zasady apelu rzymskiego.
Ostatnio wszyscy mogliśmy podziwiać papieża Franciszka w nowoczesnej kurtce znanego projektanta. Sfabrykowane zdjęcie obiegło świat, wiele osób nawet nie wiedziało czy jest prawdziwe. Oczywiście w przypadku tak błahej sprawy, nie stanowi to większego problemu, natomiast w tym samym czasie pojawiło się zdjęcie Emmanuela Macrona wśród protestujących na francuskich ulicach i Donalda Trumpa szarpiącego się z policją podczas próby zatrzymania. Zdjęcia te, choć wyglądają realistycznie, wprowadzają w błąd. Czy wkrótce przyjdzie nam żyć w świecie, w którym będziemy musieli kwestionować każdą rzecz zobaczoną czy przeczytaną w internecie?
- Zdjęcia to niemal betka wobec tzw. deepfakes, czyli klipów opracowywanych przez osoby posługujące się zaawansowanymi programami z wykorzystaniem AI, umożliwiającymi m.in. stworzenie nagrań wideo z wybraną osobą i z dowolną co do treści wypowiedzią. Można sobie wyobrazić sfabrykowane nagrania z np. współczesnym, znanym terrorystą informującym o wystrzeleniu w kierunku Kijowa, Warszawy, Londynu i Waszyngtonu rakiet hipersonicznych z ładunkiem nuklearnym. Tego typu deepfakes są prawdziwymi i wielkimi zagrożeniami.
Aż strach pomyśleć, jaka panika mogłoby zapanować, gdyby taki materiał został użyty w kontekście obecnej wojny na Ukrainie.
- Wykorzystanie oprogramowania w taki sposób byłby problemem na skalę globalną. Że tego typu deepfake’owe zagrożenie jest traktowane poważnie niech świadczy biuletyn "Congressional Research Service", wydawany przez Kongres USA. Na wykładzie, który prowadzę na UKSW, studentka - pochodząca z Ukrainy - słusznie zauważyła, że notatka została opublikowana 17 kwietnia 2023 roku. Opisywała m.in. fałszywy klip, w którym prezydent Zełenski miałby nakłaniać ukraińskich żołnierzy do poddania się rosyjskiemu wojsku. Problem deepfake’ów jest aktualny i monitorowany na bieżąco przez służby amerykańskie. Natomiast "Apel rzymski" jasno podkreśla - korzystanie ze sztucznej inteligencji musi być odpowiedzialne. Nie ma innego wyjścia, inaczej zwróci się to przeciwko ludzkości.
W oświadczeniu pt. "Transhumanizm a sztuczna inteligencja" Rada Społeczna przy Arcybiskupie Metropolicie Poznańskim zwraca uwagę, że rewolucja technologiczna, która dokonuje się na naszych oczach wymaga "pogłębionej refleksji filozoficznej, także nad zachowaniem sensu istnienia człowieka w zmieniającym się świecie". Jak Ksiądz Profesor ocenia tę publikację? Czym w ogóle jest transhumanizm?
- Transhumanizm, jak definiuje go poznański dokument, jest "pewną filozofią, a w gruncie rzeczy ideologią, w ramach której próbuje się przedstawić nową wizję świata i człowieka, które - zgodnie z materialistyczną koncepcją - mogą być permanentnie ulepszane". Nurt ten roztacza przyszłościową wizję człowieka, który "miałby osiągnąć wszechmoc i, w konsekwencji, nieśmiertelność". Pragnę podkreślić, że z tego typu poglądy wkroczyły już do polskich środowisk uniwersyteckich, dlatego opublikowane we wrześniu 2022 roku oświadczenie Rady jest bardzo aktualne. Dziś pojawiają się dywagacje, czy - przykładowo - człowiek z wszczepionym chipem, jest nadal człowiekiem. Współcześnie żyją osoby w USA utożsamiające się już z robotami i używające pseudonimów, jak Max More, a właściwie Max T. O’Connor. Co ciekawe idee transhumanizmu korzeniami sięgają lat 30. XX wieku i wywodzą się ze Związku Radzieckiego, choć samo określenie ukute zostało w 1957 roku przez Juliana Huxleya.
Rada Społeczna zaznaczyła, że transhumanizm może być uznany poniekąd za ideologię, ponieważ to właśnie ci, którzy nad tym pracują, próbują przedstawić nową wizję świata i człowieka. Zgodzi się Ksiądz Profesor tym twierdzeniem?
- Naturalnie, że tak. Chodzi właśnie o szerzenie ideologii materialistycznej "nieśmiertelności" człowieka. W tym zakresie ten dokument bardzo mocno zwraca uwagę na transhumanizm.
W Niedzielę Palmową abp Stanisław Gądecki powiedział, że jeśli rozwój sztucznej inteligencji ma służyć dobru ludzkości, to jego podstawowym kryterium musi być godność osoby ludzkiej. Zauważył, że "niekontrolowane podejście do rozwoju sztucznej inteligencji grozi zalewem dezinformacji, masową automatyzacją pracy, a nawet zastąpieniem ludzi przez maszyny i »utratą kontroli nad cywilizacją«". Jak Ksiądz Profesor odniesie się do tych słów?
- Jak już wspomniałem, nie obawiam się, że zastąpi nas sztuczna inteligencja, natomiast obawiam się złych zastosowań sztucznej inteligencji i już na obecnym etapie jej rozwoju potrafię takie wskazać.
W Chinach, gdzie zwalczany jest każdy przejaw religijności, żyje liczna grupa Ujgurów. To lud wywodzący się z Turcji, wyznający islam, społeczność głęboko religijna i z tego powodu zwalczana przez chińskie służby. W prowincji Xinjiang, gdzie zamieszkują Ujgurowie założono 18 tys. kamer rozpoznających twarze, śledzących ludzkie zachowania... Inwigilowanie tej społeczności jest bardzo daleko posunięte. Są oni wręcz osaczeni przez policyjny system. Około milion osób z tej 13-milionowej grupy etnicznej przebywa w "obozach reedukacyjnych". Ten system śledzenia, nazwany "Czujne oczy" ("Sharp Eyes"), jest przykładem złego wykorzystania sztucznej inteligencji, skierowanej przeciw człowiekowi. Mówi o tym raport "Wolność religijna na świecie" z 2021 roku opublikowany przez Fundację Papieską "Pomoc Kościołowi w Potrzebie".
W tym miejscu nie sposób nie przypomnieć o dronach atakujących w Ukrainie obiekty cywilne. W tym wypadku tak stosowana AI wykorzystana jest jako ofensywna broń.
Nawet rozrywkowe aplikacje jak TikTok, które korzystają z algorytmów opartych o technologię sztucznej inteligencji, stanowią narzędzie podczas wojny. Niejednokrotnie w mediach mogliśmy usłyszeć o zbrodniarzach wojennych zlokalizowanych dzięki ich przechwałkom w mediach społecznościowych.
- Tropienie przestępców i określanie, kto i gdzie się znajdował i czego dokonał jest elementem, który pozwala postawić w stan oskarżenia sprawców i zbrodniarzy wojennych. I bardzo dobrze.
Etyka i moralność to, jak się okazuje, cechy złączone z badaniami i wykorzystywaniem sztucznej inteligencji. Na ile jest to problem poruszany w polskiej nauce?
- Dobrym przykładem jest zbliżająca się konferencja naukowa "Sztuczna inteligencja: upodmiotowienie maszyn - uprzedmiotowienie człowieka". Organizuje ją w Krakowie Instytut Dziennikarstwa, Mediów i Komunikacji Społecznej na Wydziale Nauk Społecznych Uniwersytetu Papieskiego Jana Pawła II (17-18 maja 2023). Na 48 referatów co czwarty dotyczy zagadnień etycznych w odniesieniu do sztucznej inteligencji.
Ks. prof. ucz. dr. hab Józef Kloch - pionier zastosowań informatyki, a następnie internetu w misji Kościoła w Polsce, rzecznik Konferencji Episkopatu Polski w latach 2003-2015. Doktoryzował się w na Wydziale Filozoficznym Papieskiej Akademii Teologicznej w Krakowie na podstawie dysertacji na temat filozofii sztucznej inteligencji „Świadomość komputerów? Argument <<chińskiego pokoju="">> w krytyce mocnej sztucznej inteligencji według Johna Searle’a” (promotor: bp prof. Józef Życiński). Stypendysta The Catholic University of America w Waszyngtonie. Doktor habilitowany w zakresie teologii środków społecznego przekazu. Wykładowca w Instytucie Edukacji Medialnej i Dziennikarstwa (UKSW w Warszawie) od 2010 roku. Kierownik katedry Internetu i Komunikacji Cyfrowej. Autor m.in. „Kościół w Polsce wobec Web 2.0” (2013) i artykułów The Different Forms of Spirituality on the Internet (2015, współautor: M. Przybysz), Profesjonalne zarządzanie informacją w Kościele polskim (2016), Sztuczna inteligencja a umysł (2017).</chińskiego>
Źródło: KAI / pk
Skomentuj artykuł