Kiedy AI myli się pewnie — to jest najgorsze
Sztuczna inteligencja potrafi odpowiadać z absolutną pewnością… nawet gdy się myli. ChatGPT i inne modele językowe cierpią na zjawisko zwane halucynacją — generują fałszywe informacje w sposób przekonujący. Zebraliśmy 7 głośnych przypadków, które zaskoczyły świat.
1. Prawnik użył ChatGPT do sądu — fikcyjne wyroki
W 2023 roku nowojorski prawnik Steven Schwartz złożył pismo sądowe oparte na wyrokach… które nie istniały. ChatGPT wymyślił je z detalami — sygnatury, daty, sędziowie. Sąd był oburzony. Schwartz dostał grzywnę i dyscyplinarne postępowanie. Morał: nigdy nie cytuj AI bez weryfikacji w prawdziwych bazach danych.
2. Google Bard „strawił” akcje firmy — błąd kosztował 100 mld $
Podczas prezentacji Barda w lutym 2023, Google pokazało demo, w którym chatbot błędnie odpowiedział na pytanie astronomiczne. Błąd w transmisji live kosztował firmę około 100 miliardów dolarów spadku wartości rynkowej w ciągu jednego dnia. To był najdroższy literówka w historii AI.
3. AI wygenerowała fałszywe cytaty Elona Muska
Wiele mediów (i użytkowników Twittera) padło ofiarą ChatGPT, który generował autentycznie brzmiące cytaty Elona Muska, Billa Gatesa i innych znanych osób. Cytaty były fałszywe — ale brzmiały tak wiarygodnie, że trafiały na pierwsze strony gazet jako prawdziwe newsy.
4. Chatbot medyczny przepisał dawkę — 10 razy za dużą
Kilka przypadków na forach medycznych dokumentuje sytuacje, gdzie pacjenci pytali AI o dawkowanie leków i otrzymywali drastycznie błędne odpowiedzi. ChatGPT „przepisał” dawkę paracetamolu wielokrotnie przekraczającą bezpieczny limit. AI nie jest lekarzem i nie powinno być traktowane jako źródło wiedzy medycznej.
5. AI „wymyśliła” badania naukowe — które nigdy nie powstały
Badacze z Uniwersytetu w Ottawie przeprowadzili test: zapytali ChatGPT o artykuły naukowe na tematy medyczne. Model generował realistyczne tytuły, autorów i ISSN czasopism — które nie istniały. 47% wygenerowanych referencji było całkowicie fikcyjnych.
6. Chatbot biurowy napisał mail do szefa… który był w DW
Firma wdrożyła AI do obsługi maili pracowniczych. Chatbot odpowiedział na maila ze skargą na przełożonego… kopiując samego przełożonego w DW. Klasyczny przypadek braku „kontekstu społecznego” u AI.
7. GPT-4 „zdał” egzamin prawniczy — ale nie umiał wyjaśnić odpowiedzi
Choć GPT-4 formalnie osiągnął wynik w górnych 10% na egzaminie Bar (prawniczym), przy pogłębieniu pytań okazało się, że nie rozumie logiki prawa — zapamiętał wzorce odpowiedzi, nie rozumowanie prawnicze. Zdał test, ale nie byłby skutecznym prawnikiem.
Jak unikać halucynacji AI?
Zawsze weryfikuj informacje z AI w niezależnych źródłach. Szczególnie ostrożny bądź przy: cytatach, datach, liczbach, lekach i prawie. AI to świetne narzędzie, ale nie wyrocznia — traktuj je jako punkt startowy, nie finalną odpowiedź.


