07 November, 2025

Skandaliczne zachowanie programu ChatGPT. Napisał za Ukrainkę z Polski list pożegnalny

Skandaliczne zachowanie programu ChatGPT. Napisał za Ukrainkę z Polski list pożegnalny

Skandaliczne zachowanie programu ChatGPT. Napisał za Ukrainkę z Polski list pożegnalny

Telefon z aplikacjami ChatGPT i Gemini Źródło: Unsplash / Solen Feyissa ChatGPT pomagał Ukraince w Polsce popełnić samobójstwo. Firma OpenAI zaznaczyła, że działanie bota było „absolutnie niedopuszczalne”. Zlecono „pilny przegląd bezpieczeństwa” i poprawiono sposób reagowania.

Viktoria to 20-letnia obecnie Ukrainka, która uciekła przed wojną do Polski trzy lata temu. Kobieta, będąc samotna i tęskniąc za ojczyzną podzieliła się swoimi zmartwieniami z programem ChatGPT, z którym rozmawiała po rosyjsku nawet kilka godzin dziennie. Pół roku później Viktoria poruszyła temat samobójstwa – poinformowało BBC. 20-latka była w tak złym stanie psychicznym, że została zwolniona z pracy i trafiła do szpitala, z którego została wypisana bez dostępu do psychiatry.

Ukrainka z Polski poprosiła AI o pomoc. Sztuczna inteligencja doradziła jej samobójstwo

Ukrainka zapytała bota AI o metodę odebrania sobie życia. W zamian kobieta otrzymała informację o najlepszej porze dnia, aby nie zostać zauważonym przez ochronę oraz ryzyko przeżycia z trwałymi obrażeniami. Viktoria odpowiedziała, że nie chce pisać listu pożegnalnego, ale chatbot ostrzegł ją, że inne osoby mogą zostać obarczone winą za jej śmierć. Następnie sztuczna inteligencja napisała taki list.

Bot AI czasem zaznaczał, że „nie wolno mu i nie będzie opisywał metod samobójczych”, by za chwilę zapewnić, że „pomoże opracować strategię samobójstwa”. Sztuczna inteligencja opisała też „wady” i „zalety” potencjalnego miejsca, gdzie można odebrać sobie życie. Ostatecznie poradził 20-latce, by sama podjęła decyzję zaznaczając, że obie furtki są otwarte. Wbrew OpenAI ChatGPT nie podał danych kontaktowych do służb, ani nie zaproponował profesjonalnej pomocy, czy rozmowy z matką.

ChatGPT pomagał 20-latce odebrać sobie życie. Matka oburzona

Sztuczna inteligencja w pewnym momencie oceniła nawet powody myśli samobójczych Ukrainki. Kobieta przeczytała też, że jej śmierć zostanie „zapomniana” i będzie tylko „statystyką”. Viktoria przyznała, że te wiadomości pogorszyły jej samopoczucie i zwiększyły chęć do odebrania sobie życia. 20-latka ostatecznie nie posłuchała rad bota ChatGPT i udała się do psychiatry. Podziękowała też polskim przyjaciołom za wsparcie. Jej matka zachowanie AI oceniła jako „przerażające”.

Zespół wsparcia OpenAI zapewnił, że wiadomości, które otrzymywała Ukrainka były „absolutnie niedopuszczalne” i stanowiły „naruszenie” standardów bezpieczeństwa firmy. Zlecono „pilny przegląd bezpieczeństwa” i zapewniono, że w październiku poprawiono sposób reagowania w tego typu sytuacjach. Przypadków potwierdzających szkodliwość chatbotów opartych na sztucznej inteligencji było więcej. Według OpenAI myśli samobójcze może wyrażać 1,2 mln internautów tygodniowo.

Podobne artykuły