Sztuczna inteligencja w NGO. Jak wprowadzać AI w zgodzie z wartościami i misją organizacji?
Dziś trudno nie korzystać ze sztucznej inteligencji, ale jeszcze trudniej robić to odpowiedzialnie. AI przeniknęła naszą codzienną pracę, także w organizacjach społecznych. Daje duże możliwości, ale wymaga też refleksji nad etyką, bezpieczeństwem i odpowiedzialnością. Każda NGO ma inną wrażliwości, wartości i ryzyka: ekologiczna dostrzeże koszt środowiskowy AI, edukacyjna – problem z wiarygodnością. A jak na te wyzwania reaguje Twoja organizacja?
W ostatnim czasie piszemy wiele o sztucznej inteligencji. Dziś chcieliśmy zaprosić Was do zastanowienia się nad kwestiami etycznymi, które są bardzo mocno związane z wykorzystaniem AI w pracy organizacji społecznych.
Przedstawiamy kilka porad i praktycznych materiałów z naszej nowej publikacji „Jak bezpiecznie wprowadzić sztuczną inteligencję do organizacji społecznej? Prawo, dane, etyka, pomiar efektów” oraz wydarzenia – Śniadanie z AI | Etyka: jak korzystać z AI w organizacji w zgodzie z misją – które odbyło się w ubiegłym tygodniu (23.10.2025 r.) w warszawskiej kawiarni Wrzenie Świata.
Współautorką publikacji i gościnią spotkania na temat etyki w AI była Katarzyna Drożdżal – badaczka, projektantka i psycholożka z ponad 15-letnim doświadczeniem. Od ponad dekady zajmuje się projektowaniem produktów i usług cyfrowych oraz badaniem interakcji człowiek–technologia.
Technologie i sztuczna inteligencja w pracy NGO
Zastosowanie technologii i sztucznej inteligencji w organizacjach społecznych może przynosić wiele korzyści. Lepsza analiza danych, usprawnienie komunikacji czy administracji to tylko kilka przykładowych obszarów ich zastosowania. Dlatego też coraz więcej organizacji przekonuje się do narzędzi cyfrowych oraz AI i na własną rękę zaczyna w tym obszarze eksperymentować.
Wspólne badanie Klon/Jawor i Sektor 3.0 opublikowane w połowie 2025 roku („Nie tylko Sztuczna Inteligencja. Technologie Cyfrowe w organizacjach pozarządowych”) pokazało z jednej strony duże zainteresowanie przedstawicieli i przedstawicielek polskich organizacji społecznych wykorzystaniem sztucznej inteligencji w codziennych działaniach.
Z drugiej strony jednak widać brak systemowego podejścia do jej zastosowania. Zaledwie 1% organizacji do tej pory wdrożyło AI kompleksowo na poziomie całej instytucji. Dominują sytuacje, w których sztuczna inteligencja jest używana w działaniach NGO ad hoc, do realizacji spontanicznych zadań. W efekcie włączanie narzędzi AI w trzecim sektorze może nieść ze sobą sporo szans, ale równie wiele zagrożeń.
AI w NGO – duże możliwości, duże wyzwania
Choć termin Artificial Intelligence (AI) ma znacznie szersze znaczenie, obejmujące analizę danych, rozpoznawanie wzorców czy automatyzację procesów, i funkcjonuje już od wielu lat, dziś w centrum uwagi znalazły się, precyzyjnie rzecz ujmując, narzędzia GenAI, czyli narzędzia generatywnej sztucznej inteligencji, które tworzą teksty, obrazy, dźwięki czy kod. To właśnie generatywna AI – w narzędziach takich jak ChatGPT, Google Gemini, Microsoft Copilot czy Midjourney – zdominowała dyskurs technologiczny.
Zastosowanie sztucznej inteligencji (przede wszystkim dużych modeli językowych) w organizacjach pozarządowych wymaga jednak dużo uwagi i wrażliwości na kwestie etyczne. Dziś trudno nie korzystać z AI, ale jeszcze trudniej robić to odpowiedzialnie. Sztuczna inteligencja działa pod maską większości przeglądarek oraz narzędzi wyszukiwania. Często nie jesteśmy świadomi jej wpływu na naszą pracę.
Dodatkowo okazuje się, że firmy stojące za najbardziej popularnymi modelami językowymi (Claude, GPT, Gemini) nie są transparentne. Nie chcą dzielić się informacjami o pochodzeniu pierwszych danych, z których korzystały do trenowania modeli. Trudno więc i o transparentność organizacji społecznych, które decydują się z nich korzystać
– komentuje Katarzyna Drożdżal, powołując się na Foundation Model Transparency Index (wersja 1.1) – drugą edycję projektu prowadzonego przez Uniwersytet Stanforda, który monitoruje poziom przejrzystości w procesach tworzenia i wdrażania modeli sztucznej inteligencji.
Presja rynku cyfrowego mocno wpływa także na głębszą refleksję i pozornie ogranicza potrzebny na nią czas. Osoby zaangażowane w działalność społeczną mogą czuć się przytłoczone liczbą i złożonością dostępnych zaleceń. Łatwo ulec wrażeniu, że każda organizacja powinna dziś szeroko zaufać i stosować w swojej pracy AI, a to najprostsza droga do kłopotów.
AI operuje na prawdopodobieństwach, nie na faktach. I to nie na faktach osadzonych w naszej rzeczywistości społecznej. Taka analiza wzorców danych stwarza ryzyko błędnych decyzji i pułapkę uśrednienia. To szczególnie ważne dla organizacji społecznych żyjących w świecie wartości
– mówiła Katarzyna Drożdżal (Śniadanie z AI | Etyka: jak korzystać z AI w organizacji w zgodzie z misją?, Wrzenie Świata, Warszawa, 23.10.2025 r.).
W zależności od obszaru działalności organizacji rekomendacje mogą być bardzo różne – od prostych zasad korzystania z systemów AI aż po szczegółowe regulaminy lub nawet powołanie wyspecjalizowanych komisji etycznych.
Przede wszystkim warto jednak zatrzymać się na chwilę i rozpocząć od dogłębnego zrozumienia tego, jak AI może wpływać na specyficzny zakres działania Waszej organizacji, a następnie zidentyfikować obszary najbardziej podatne na ryzyko. Warto też sprawdzić, czy użycie AI nie kłóci się z misją i wartościami organizacji. Wyzwań jest bardzo wiele.
Wytyczne nie gwarantują standardów działania. Jedne osoby w naszej organizacji są wrażliwe i działają z AI ostrożnie. Inne nadal są zafascynowane jej możliwościami i bezkrytycznie przejmują zaproponowane przez nią tezy. Poza tym, nawet jeśli zespół przestrzega zasad to, co z wolontariuszami i danymi wrażliwymi?
– podsumowywali uczestnicy i uczestniczki Śniadania z AI | Etyka: jak korzystać z AI w organizacji w zgodzie z misją? (23.10.2025 r.).
Jak zadbać o etykę i wartości organizacji w pracy z AI?
Wprowadzenie sztucznej inteligencji do pracy organizacji pozarządowych to nie tylko kwestia technologii, ale przede wszystkim odpowiedzialności. Zanim zdecydujecie się na konkretne narzędzie, warto poświęcić chwilę na krytyczne spojrzenie i zrozumienie, jak AI może wpłynąć na Waszą misję, wiarygodność i niezależność.
Najczęstsze wyzwania dotyczą trzech obszarów:
- wiarygodności,
- tożsamości,
- i zależności.
Utrata wiarygodności może nastąpić, gdy AI generuje treści trudne do zweryfikowania lub całkowicie fikcyjne. Taki materiał, nawet jeśli brzmi przekonująco, może wprowadzać odbiorców w błąd i podważyć zaufanie do Waszej organizacji. A przecież każdej organizacji zależy na tym, by jej głos nt. problemu społecznego był autorytatywny i zaufany. Dlatego każdą treść tworzoną z pomocą AI warto sprawdzać – wprowadzić zasadę „cross-checku”, czyli weryfikacji źródeł i faktów przed publikacją.
Przekonała się o tym organizacja Amnesty International w Kolumbii, która opublikowała w mediach społecznościowych wygenerowane obrazy ilustrujące protestujące osoby, tłumacząc to chęcią ochrony ich tożsamości. Po krytyce fotoreporterów i badaczy, że takie grafiki podważają wiarygodność relacji i „rozmywają” granicę między dokumentem a fikcją, organizacja usunęła materiały i zapowiedziała przegląd praktyk.
Nawet przy dobrych intencjach i oznaczeniach treści jako „AI-generated” ryzyko reputacyjne pozostaje wysokie. Jeśli już używacie obrazów z AI, unikajcie ilustrowania nimi realnych zdarzeń – lepiej stosować je do ujęć schematycznych, edukacyjnych lub wyłącznie jako pomoc redakcyjną.
Kolejne ryzyko to rozmycie tożsamości organizacji. Częste korzystanie z gotowych systemów może prowadzić do uzależnienia od dużych firm technologicznych – zwłaszcza wtedy, gdy brak jest alternatyw lub planu awaryjnego. Warto więc opracować prostą strategię niezależności: wiedzieć, z jakich narzędzi korzystacie, jakie dane im powierzacie i co zrobicie, jeśli przestaną być dostępne.
Nie zapominajcie też o dopasowaniu narzędzi do wartości organizacji. AI powinna wspierać Waszą misję, a nie ją rozmywać. Przed wdrożeniem nowego systemu zadajcie sobie kilka pytań:
- Czy wpisuje się w nasze zasady dotyczące godności, równości i przejrzystości?
- Czy jego działanie nie wyklucza żadnej grupy, z którą pracujemy?
- Czy rozumiemy, jak ten model działa i jakie dane go zasilają?
Etyczne wyzwania różnią się w zależności od misji organizacji. NGO ekologiczne najpierw zapyta o koszt środowiskowy infrastruktury, a organizacje pracujące z mniejszościami – o uprzedzenia w danych. Do tego dochodzi zależność od dużych dostawców, więc warto mieć „exit plan” i jasno oznaczać treści tworzone z pomocą AI.
– radzi Katarzyna Drożdżal.
Choć część tych refleksji dotyczy również pracy zespołu i relacji z odbiorcami, kluczowe jest, by zacząć od siebie – od analizy wpływu AI na samą organizację. Regularne rozmowy o tym, jakie decyzje podejmujemy z pomocą technologii i jak je komunikujemy, pomogą zachować równowagę między efektywnością a etyką. To właśnie ten moment namysłu, którego nie warto skracać, bo od niego zależy, czy AI będzie służyć Waszej misji, czy ją zakłóci.
Co zawiera e-book?
- Pytania, na które warto odpowiedzieć, podczas tworzenia wewnętrznych zasad korzystania z AI,
- Przykładowe treści klauzul i zapisów do wewnętrznej polityki AI,
- Checklisty, macierze, tabele i wskaźniki – narzędzia, które ułatwią proces tworzenia zasad korzystania z AI w organizacji społecznej.
Co warto, a czego nie warto robić z AI?
Etyczne korzystanie z AI w organizacjach społecznych zaczyna się od ludzi, nie od technologii. Warto otwarcie informować, że używacie sztucznej inteligencji – zarówno w zespole, jak i wobec odbiorców i odbiorczyń. Przejrzystość buduje zaufanie. Zachowujcie też kontrolę człowieka nad każdym etapem pracy. AI może wspierać, ale nie powinna decydować.
Nie wdrażajcie narzędzi bez zrozumienia ich wpływu na organizację. Nie sięgajcie po AI, tylko dlatego, że jest modne. Nie ufajcie bezkrytycznie wygenerowanym treściom – zawsze je weryfikujcie. I nie lekceważcie błędów czy uprzedzeń, które mogą pojawiać się subtelnie, ale z czasem zniekształcać Wasze działania.
A od czego zacząć? Zacznijcie od refleksji nad własną misją i wartościami. To one powinny wyznaczać granice korzystania z AI w organizacji. Stwórzcie prostą strategię lub kilka zasad, do których będziecie regularnie wracać. Obserwujcie też zmiany w swoich nawykach, bo to, jak pracujemy z technologią na co dzień, najczęściej decyduje o tym, czy naprawdę korzystamy z niej etycznie
– radziła na koniec Śniadania z AI, Katarzyna Drożdżal, współautorka publikacji „Jak bezpiecznie wprowadzić sztuczną inteligencję do organizacji społecznej? Prawo, dane, etyka, pomiar efektów”.
Dowiedz się więcej o AI w NGO z Sektorem 3.0!
- czytaj blog i słuchaj podcastu
- pobierz publikację „Jak bezpiecznie wprowadzić sztuczną inteligencję do organizacji społecznej? Prawo, dane, etyka, pomiar efektów”.
- dołącz do newslettera i otrzymuj raz w miesiącu nowe materiały edukacyjne nt. technologi w NGO i zaproszenia na bezpłatne wydarzenia online i offline!
Interesujesz się nowymi technologiami i chcesz w oparciu o nie rozwijać swoją organizację? Zajrzyj również na blog Sektora 3.0 i dołącz do naszego newslettera, by nie przegapić kolejnych przydatnych tekstów. Zapraszamy!
Źródło: Sektor 3.0