Ekspertka: AI jest niesprawiedliwa i powiela nierówności tak samo, jak my
Często słyszymy, że sztuczna inteligencja jest obiektywna i sprawiedliwa. Ale ponieważ algorytmy karmione są danymi skrzywionymi przez nieobiektywną rzeczywistość – i ona będzie te uprzedzenia powielać. Dopóki społeczeństwo będzie niesprawiedliwe, nieinkluzywne i przesiąknięte stereotypami – dopóty AI, która ma odzwierciedlać rzeczywistość, będzie pogłębiała nierówności – zauważa badaczka z ALK dr Anna Górska.
Dr Górska z Akademii Leona Koźmińskiego specjalizuje się w zagadnieniach dotyczących płci i różnorodności w organizacjach i na uczelniach. Razem z prof. Dariuszem Jemielniakiem przeprowadziła niedawno badanie, które wykazało, że wszystkie popularne generatory AI powielają uprzedzenia dotyczące płci w kontekście różnych zawodów i miejsc pracy.
Teraz, w rozmowie z Nauką w Polsce, naukowczyni opowiada, że płeć jest zaledwie jednym z wielu obszarów, w których AI powiela uprzedzenia i nierówności. Równie widoczne są stereotypy dotyczące koloru skóry, pochodzenia, wieku czy kultury. „Dość banalnym przykładem, ale wyjaśniającym bardzo dużo, jest np. to, w jaki sposób generatory obrazu przedstawiają pannę młodą – mówi dr Górska. „Kiedy poprosimy jeden z nich, aby wygenerował nam jej obraz, najprawdopodobniej zobaczymy kobietę w białej, długiej sukni ślubnej, czyli model wpisujący się całkowicie w kulturę zachodnią. Tymczasem przecież w wielu krajach i kulturach, takich jak Indie, Chiny czy Pakistan, tradycyjna suknia ślubna wcale nie jest biała, ale bogato zdobiona, czerwona. Odwrotnie działa to tak samo: kiedy pokażemy generatorowi czerwoną, indyjską suknię ślubną, on odpowie, że jest to przebranie albo kostium”. „To pokazuje, jak mocno anglosaskocentryczne są dostępne generatory. To, co jest związane z kulturą Zachodu, jest normą, a wszystko inne już nie” – zaznacza.
Jej kolejne badanie, również przeprowadzone we współpracy z prof. Jemielniakiem, polegało na proszeniu generatorów obrazów AI o pokazanie przedstawiciela czterech najbardziej prestiżowych zawodów: prawnika, lekarza, naukowca i inżyniera. Jak wyjaśnia dr Górska, prompty były formułowane w języku angielskim, dlatego nazwy tych profesji nie miały zabarwienia płciowego. Jak się okazało – poza tym, że w przeważającej (blisko 80 proc.) większości przypadków osoby na wygenerowanych obrazach były mężczyznami, to dodatkowo były białe (70 proc.). „Doskonale wiemy, że na świecie osoby białe wcale nie stanowią większości – mówi badaczka z ALK. „Ale domyślny obraz człowieka według sztucznej inteligencji jest właśnie taki: biały mężczyzna z Europy lub USA. Dzieje się tak dlatego, że AI jest tworzona przez białych mężczyzn z tych właśnie obszarów”.
Biały mężczyzna u władzy jest głęboko zakorzeniony w naszej kulturze, świadomości, w mediach. „I takie dane trafiają też do sztucznej inteligencji. Ona ma odzwierciedlać naszą rzeczywistość, a że rzeczywistość jest taka, jaka jest – AI powiela nierówności, którymi jest ‘karmiona’” – mówi dr Anna Górska. Stereotypowe działanie AI dobrze widać także na przykładzie dużych firm korzystających z jej algorytmów do zatrudniania pracowników. Jak opowiada badaczka, rekruterzy jednej z korporacji wykorzystywali je do analizy CV kandydatów. Algorytmy automatycznie uznawały imiona brzmiące europejsko jako bardziej przyjazne, a afroamerykańskie jako nieprzyjazne.
Inny algorytm, który miał ułatwić pracę rekruterom, automatycznie faworyzował osoby białe i proponował im stanowiska biurowe, niezależnie od tego, do jakiej pracy aplikowali. Za to osoby pochodzenia latynoskiego kierował do pracy na magazynie, także nie biorąc pod uwagę ich kompetencji ani funkcji, o jaką się ubiegali. „Takie przekłady można długo mnożyć” – stwierdza dr. Górska. „Jako ludzie uważamy, że takie algorytmy są neutralne, obiektywne i podejmują decyzję wyłącznie na podstawie rzeczowych przesłanek” – tłumaczy. „A wcale tak nie jest. Jeżeli w danej firmie wśród pracowników już wcześniej były wyraźne podziały, to automatycznie sztuczna inteligencja kolejne osoby będzie przydzielała tam, gdzie najlepiej pasują. A gdzie według niej pasują? Tam, gdzie w tej chwili dana grupa (np. biali czy czarni, mężczyźni czy kobiety) dominuje. Czyli będzie powielać już funkcjonujące w tych organizacjach nierówności”.
Zdaniem naukowczyni nie są to przypadki odosobnione, ale bardzo powszechne zjawisko. „Niepokojące jest to, że rekruterzy nie zdają sobie z tego sprawy i myślą, że narzędzia oparte na AI są obiektywne. A nie są w takim samym stopniu co ludzie” – mówi. Nasza rzeczywistość nie jest sprawiedliwa. Nie ma w niej równości płci, koloru skóry, pochodzenia. Wiele badań pokazuje, że kobiety i osoby niebiałoskóre nie awansują tak często, jak biali mężczyźni. Niestety prężnie rozwijająca się w ostatnich latach sztuczna inteligencja jeszcze mocniej pogłębia wszystkie te podziały. Jest bowiem zaprogramowana tak, aby spełniać oczekiwania użytkownika. „To musi zostać zmienione. Trzeba lepiej programować sztuczną inteligencję i wprowadzić odpowiednie regulacje” – uważa ekspertka.
Jednak i to - w jej opinii - należy robić bardzo rozsądnie, czego uczy przykład googlowskiego modelu AI o nazwie Gemini. „W pewnym momencie w ogóle przestał on generować obrazy białych osób” – opowiada dr Górska. „Po prostu nie był w stanie tego robić, sugerując, że wszystkie takie treści są rasistowskie. Jest to przesada w drugą stronę i na to także trzeba bardzo uważać. Ale jakieś odgórne regulacje są konieczne. Takie, które zabezpieczą przed powielaniem szkodliwych schematów. Musimy nauczyć się programować sztuczną inteligencję w bardziej świadomy sposób; tak, żeby była mądrzejsza niż my”.
Czy takie działanie są już podejmowane? Jak mówi dr Górska są; nawet wspomniane Gemini jest tego przykładem. „Proszę sobie przypomnieć, jak wielkie problemy z nierównością miała wyszukiwarka Google jeszcze kilka lat temu; była wręcz dyskryminująca. Kiedy np. wpisywało się w nią angielski termin CEO, oznaczający prezesa, nie było szansy zobaczyć w wynikach obrazu innego niż biały mężczyzna w średnim wieku. Hasło ‘Michelle Obama’ dawało w wynikach zdjęcia goryli. Firma wyciągnęła z tego wnioski, dlatego starała się ulepszyć swój model, aby zapobiegać takim sytuacjom. Akurat to, o czym mówiłam przed chwilą, skończyło się to dość niefortunnie, ale widać, że chęci były” – opowiada. „Ważne są szybkie działania, ale wypośrodkowane i rozsądne” – podsumowuje.
Na razie to, czy firmy zajmujące się sztuczną inteligencją biorą pod uwagę tego typu kwestie, zależy wyłącznie od nich samych. Brakuje odgórnych regulacji, które mówiłyby o tym, że AI należy programować w sposób zapewniający jej inkluzywność i sprawiedliwość. „Miejmy nadzieję, że pierwszym krokiem w dobrą stronę będzie wprowadzony kilka dni temu w Europie ‘AI Act’. Zdecydowanie nadszedł już czas, aby pilniej monitorować tę branżę. Niestety jest to wyjątkowo skomplikowane, ponieważ technologia AI tak szybko się zmienia, że trudno będzie nadążyć z regulacjami, które byłyby aktualne” – mówi badaczka.
Skomentuj artykuł