5 grudnia 2025 na Wydziale Matematyki i Nauk Informacyjnych Politechniki Warszawskiej odbyło się kolejne spotkanie Klubu Informatyka pt. “AI nie zawsze jest superbohaterem”. Prezentacje poprowadzili Bartosz Sawicki oraz Radosław Roszczyk, którzy przeprowadzili dyskusję w temacie, w których AI sobie nie radzi.
Na początku wykładu prowadzący omówili mankamenty sztucznej inteligencji. Zwrócili uwagę na jej stronniczość w odpowiedziach wynikającą z rodzaju wprowadzonych danych oraz na tendencję do udzielania odpowiedzi za wszelką cenę, nawet przy braku wystarczających informacji. W kolejnej części wspomnieli o niejawnych bazach danych wykorzystywanych przez producentów tworzących modele AI. Podkreślili, że nie nieznajome jest zródło informacji, z których czerpią modele, mimo że producenci zapewniają o ich poprawności i wysokiej jakości.
Uczestnicy spotkania poznali także słabe punkty modeli AI, do których zaliczają się m.in. podatność na manipulacje oraz ryzyko wykorzystywania tzw. zatrutych danych. Chodzi tu o sytuacje, w których treści generowane przez AI trafiają do internetu, na przykład na Wikipedię, a następnie są ponownie wykorzystywane jako materiał treningowy, co prowadzi do powstawania błędnego koła i narastającej dezinformacji.
AI wciąż ma swoje ograniczenia i nie zawsze sprawdza się w praktyce. W medycynie może popełniać błędy przy analizie zdjęć radiologicznych, przeoczając istotne zmiany. W transporcie i robotyce, zwłaszcza w systemach autonomicznych, sztuczna inteligencja nie zawsze potrafi prawidłowo reagować w trudnych sytuacjach drogowych, co stwarza ryzyko wypadków. W sektorze publicznym i prawie AI może źle interpretować przepisy lub kontekst społeczny, prowadząc do błędnych decyzji. Dlatego w krytycznych sytuacjach nie powinna „ratować sytuacji”, ponieważ nie posiada emocji, doświadczenia ani pełnej wiedzy potrzebnej do podejmowania właściwych decyzji.
Aby ograniczać ryzyko zawodności AI, warto odpowiednio dostosowywać modele do konkretnego zastosowania i testować ich odporność w różnych sytuacjach. Należy także monitorować działanie na produkcji oraz dbać o wyjaśnialność decyzji, które podejmują. Ważne jest też, by pamiętać o niebezpieczeństwie nadmiernego zaufania do narzędzi. Ludzie często ufają AI, bazując na wcześniejszych dobrych odpowiedziach, i mogą przestać weryfikować treści, co w efekcie prowadzi do błędów.
Miłym akcentem po zakończonym wykładzie była wspólna, symboliczna wigilia. Była ona czasem rozmowy w mniej formalnej atmosferze i okazją do wymiany wrażeń oraz spędzenia chwil w świątecznej atmosferze.
Opracował: Szymon Sowiński kl. 4c







