Badania przeprowadzone przez zespół z Akademii Leona Koźmińskiego w Warszawie ujawniają, że sztuczna inteligencja (AI) nie jest pozbawiona ludzkich uprzedzeń, a wręcz powiela błędne stereotypy związane z płcią. Czy technologia, która miała być obiektywna, staje się źródłem podtrzymywania nierówności płciowych?
Stereotypy płciowe w sztucznej inteligencji
Sztuczna inteligencja, będąca wytworem człowieka, odzwierciedla również nasze własne błędy i uprzedzenia. Choć teoretycznie AI powinna działać obiektywnie i bezstronnie, prace polskich badaczy z Akademii Leona Koźmińskiego dowodzą, że staje się ona odbiciem utrwalanych przez społeczeństwo stereotypów. Analizując obrazy generowane przez popularne generatory w odpowiedzi na zadania związane z czterema zawodami: lekarzem, inżynierem, naukowcem oraz prawnikiem, stwierdzono zaskakującą nierówność płciową.
Na podstawie badań zidentyfikowano, że większość z wygenerowanych obrazów (76%) przedstawia mężczyzn, podczas gdy tylko 8% prezentuje kobiety. To jasno wskazuje na problem nieobiektywności AI w kontekście płci. Co więcej, stereotypy te nie są ograniczone jedynie do obrazów. Dotyczą także innych dziedzin, w których sztuczna inteligencja znajduje zastosowanie.
Skąd biorą się te stereotypy?
Pierwszym i głównym źródłem stereotypów w AI są dane, na podstawie których jest ona trenowana. Dane te często odzwierciedlają nierówności i uprzedzenia występujące w społeczeństwie. Prof. Dariusz Jemielniak z Akademii Leona Koźmińskiego podkreśla, jak ważny jest staranny dobór danych wykorzystywanych do szkolenia sztucznej inteligencji, aby uniknąć utrwalania błędnych wzorców.
Odpowiedź tkwi również w procesie projektowania i szkolenia AI. Bez odpowiedniego nadzoru i korekty, sztuczna inteligencja może nie tylko naśladować, ale i pogłębiać istniejące stereotypy. Naukowcy zwracają uwagę na konieczność przeprowadzania tzw. prac naprawczych już na etapie projektowania systemów AI, co może pomóc w równomiernym rozdzielaniu zadań pomiędzy płcie i uniknięciu pogłębiania nierówności płciowych.
Jak można rozwiązać ten problem?
Rozwiązywanie problemu uprzedzeń i stereotypów w sztucznej inteligencji wymaga wspólnych działań naukowców, twórców AI oraz osób odpowiedzialnych za szkolenie modeli. Przede wszystkim, kluczowe jest uświadamianie o problemie i edukacja na temat równości płci w kontekście technologii. Ponadto, zaleca się stosowanie bardziej zróżnicowanych i zbalansowanych zbiorów danych podczas szkolenia AI.
Innym ważnym krokiem jest wprowadzenie audytów równości płci dla modeli sztucznej inteligencji. Dzięki temu można ocenić, czy dane narzędzie AI utrwala stereotypy płciowe i podjąć niezbędne kroki naprawcze. Implementacja tych rozwiązań może przyczynić się do zmniejszenia nierówności płci i budowania bardziej sprawiedliwego społeczeństwa z pomocą technologii.