Sztuczna inteligencja i cyfrowy efekt świętego Mateusza [felieton Marii Libury]
Chat GPT uświadomił opinii publicznej, że sztuczna inteligencja (AI, z j. ang. – artificial inteligence) już dawno przestała być konceptem z powieści fantastyki naukowej, a jej zastosowania niosą ze sobą niejednoznaczne konsekwencje.
Uczniów ucieszyła perspektywa asystenta wykonującego w kilka sekund zadania domowe, natomiast wielu pracowników umysłowych zaczęło się zastanawiać, czy przypadkiem ich praca nie zostanie zautomatyzowana szybciej niż kasjerów w dyskontach.
Specjaliści z różnych dziedzin szybko wyszukali błędy w generowanych chatem wypowiedziach, zadając mu podchwytliwe pytania. Ich satysfakcję musiała jednak hamować tląca się z tyłu głowy świadomość, że prawdopodobnie swoim zapałem odwalają darmową robotę na rzecz inwestorów w sztucznych narratorów, jako darmowi, super-kompetentni testerzy.
Strach copywriterów i innych dostawców treści o krótkim terminie ważności przed utratą nimbu kreatywności okazał się medialny, o dziwo bardziej niż znane i nie mniej groźne konsekwencje stosowania narzędzi sztucznej inteligencji.
AI już decyduje o tym, jakie treści użytkownicy widzą w mediach społecznościowych. W USA banki od dawna wykorzystują systemy AI do określenia, kto kwalifikuje się do otrzymania kredytu hipotecznego lub studenckiego, a wynajmujący używają AI do sprawdzania potencjalnych lokatorów. Co więcej, w niektórych państwach ustala, kto otrzyma określone świadczenia społeczne.
Narzędzia wspomagające podejmowanie decyzji od dłuższego czasu kuszą automatyzacją trudnych procesów i decyzji w obszarze opieki społecznej, ochrony zdrowia, a nawet sądownictwa.
AI decyduje o tym, komu pomóc, a kogo ukarać lub odrzucić, poprzez prognozy dotyczące tego, kto powinien trafić do aresztu tymczasowego, zostać przyjęty na studia lub zatrudniony.
Automatyzacja ma być remedium na nierówne traktowanie ludzi przez ludzi, podyktowane uprzedzeniami (otwarcie deklarowanymi lub podświadomymi) lub brakiem wiedzy na temat specyficznych problemów grup zagrożonych wykluczeniem.
Teoretycznie algorytmy można zaprojektować tak, by podejmowały decyzje wolne od stereotypów właściwych dla ludzkiego procesu decyzyjnego. Dotychczasowe doświadczenia praktyczne wskazują jednak, że w rzeczywistości dzieje się wręcz przeciwnie: narzędzia te, wprowadzane do polityk społecznych bez odpowiedniego przygotowania, pogłębiają istniejące nierówności oraz wytwarzają nowe, często początkowo trudne do identyfikacji, obszary wykluczenia i dyskryminacji. Skąd bierze się duży potencjał stronniczości AI, a także jej potencjał do generowania zupełnie nowych uprzedzeń?
Dyskryminacja cyfrowa może być wynikiem sposobu, w jaki dany algorytm został zaprojektowany, ale również trenowania ich przy użyciu stronniczych danych. Podstawowym problemem jest jakość danych wejściowych. Niekompletność danych, ich selektywność i niedostateczna jakość nieuchronnie prowadzą do niezadowalających wyników pracy algorytmów. Grupy szczególnie narażone na wykluczenie są często znacznie niedoreprezentowane w bazach danych. Na przykład, algorytmy wdrażane w celu wykrywania chorób układu krążenia mogą osiągać gorsze wyniki w przypadku kobiet, ponieważ większość medycznych danych treningowych dotyczy mężczyzn. Algorytmy trenowane do wykrywania raka skóry mogą podawać znacznie mniej precyzyjne wyniki w przypadku osób o ciemnej karnacji, gdyż trenowane były głównie na obrazach przedstawiających zmiany u białych pacjentów.
Ponieważ coraz więcej zadań jest przekazywanych systemom autonomicznym, dyskryminacja cyfrowa staje się ogromnym problemem. Bardzo często powiela ona zastane wzorce dyskryminacji w świecie rzeczywistym, dziedzicząc uprzedzenia zawarte w zbiorach wcześniejszych decyzji lub po prostu odzwierciedlając powszechne w społeczeństwie stereotypy.
W skrajnych przypadkach zastosowanie AI może pogłębiać i utrwalać istniejące nierówności, doprowadzając do „perfekcji” niekorzystne traktowanie grup historycznie defaworyzowanych.
Co więcej, decyzje algorytmów – właśnie dlatego, że otacza je nimb nie-ludzkiej obiektywności – stają się w mechanizmie błędnego koła uzasadnieniem dla uprzedzeń żywionych przez ludzi. Trenowane na obarczonych stereotypami zbiorach danych poddają dyskryminacyjne rozwiązania, które stają się argumentem za utrzymaniem lub zaostrzeniem nierównego traktowania, prowadząc do cyfrowego efektu świętego Mateusza: osoby dyskryminowane cierpią jeszcze bardziej, a uprzywilejowanym łatwiej jest uzasadnić swoją wyjątkową pozycję.
Maria Libura – kierowniczka Zakładu Dydaktyki i Symulacji Medycznej Collegium Medicum Uniwersytetu Warmińsko-Mazurskiego w Olsztynie, wiceprezeska Polskiego Towarzystwa Komunikacji Medycznej, członek Rady Ekspertów przy Rzeczniku Praw Pacjenta, przewodnicząca Zespołu Studiów Strategicznych Okręgowej Izby Lekarskiej w Warszawie, ekspertka Centrum Analiz Klubu Jagiellońskiego ds. zdrowia, współpracowniczka Nowej Konfederacji.
Libura M. (red.), Imiela T. (red.), Głód-Śliwińska D. (red.), Cyfryzacja zdrowia w interesie społecznym. Warszawa: Okręgowa Izba Lekarska w Warszawie, 2023
Criado, Natalia, and Jose M Such, 'Digital Discrimination', in Karen Yeung, and Martin Lodge (red.), Algorithmic Regulation (Oxford, 2019)
Veinot T. C., Mitchell H., Ancker J. S. Good intentions are not enough: How informatics interventions can worsen inequality, Journal of the American Medical Informatics Association. 2018:1080–1081.
Wen D, Khan SM, Ji Xu A, Ibrahim H, Smith L, Caballero J, Zepeda L, de Blas Perez C, Denniston AK, Liu X, Matin RN. Characteristics of publicly available skin cancer image datasets: a systematic review. Lancet Digit Health. 2022 Jan;4(1):e64-e74.
Niethammer C. AI bias could put women’s lives at risk: A challenge for regulators, Forbes. 2020 March 2;
Źródło: informacja własna ngo.pl