Reklama

Wiadomości

USA: rodzina nastolatka, który popełnił samobójstwo, oskarża o to sztuczną inteligencję

Po samobójczej śmierci swego 16-letniego syna Adama w kwietniu br. Matt i Maria Raine przeszukiwali jego telefon, desperacko szukając wskazówek, co mogło doprowadzić do tragedii. W wywiadzie dla stacji NBC News powiedzieli, że chłopiec w ostatnich tygodniach życia korzystał ze sztucznej inteligencji (AI) jako namiastki obecności, rozmawiając z nią o swoich problemach z lękiem i trudnościach w porozumiewaniu się z rodziną. Zapiski rozmów pokazują, że bot przeszedł od pomocy w zadaniach domowych do roli „trenera samobójstwa”.

[ TEMATY ]

sztuczna inteligencja

Adobe Stock

Sztuczna inteligencja

Sztuczna inteligencja

Bądź na bieżąco!

Zapisz się do newslettera

Po tragedii, jaka rozegrała się w ich domu rodzice najpierw szukali wyjaśnień na Snapchacie albo w historii wyszukiwań w internecie czy jakimś dziwnym kulcie, tymczasem odpowiedź znaleźli dopiero po otwarciu (jego) ChatGPT. „On by tu był, gdyby nie ten chat. Wierzę w to w 100%” - powiedział Matt Raine.

We wtorek 26 sierpnia rodzice złożyli nowy pozew, udostępniony w programie „TODAY”. Twierdzą w nim, że „ChatGPT aktywnie pomagał Adamowi badać metody samobójcze”. Liczący około 40 stron dokument wymienia jako pozwanych firmę OpenAI - twórcę ChatGPT oraz jej prezesa Sama Altmana. Jest to pierwszy przypadek, gdy rodzice bezpośrednio oskarżyli firmę o „wyrządzenie krzywdy dziecku ze skutkiem śmiertelnym (wrongful death)“.

Pomóż w rozwoju naszego portalu

Wspieram

„Mimo przyjęcia do wiadomości próby samobójczej Adama i jego stwierdzenia, że «któregoś dnia to zrobi», ChatGPT ani nie przerwał sesji, ani nie uruchomił żadnego protokołu awaryjnego” - głosi pozew złożony w Sądzie Najwyższym Kalifornii w San Francisco. Zarzuca on OpenAI bezprawne spowodowanie śmierci, wady konstrukcyjne i brak ostrzeżeń o ryzyku związanym z ChatGPT. Rodzice domagają się „odszkodowania za śmierć syna oraz nakazu sądowego, by zapobiec podobnym przypadkom w przyszłości”.

„Gdy wszedłem na jego konto, zobaczyłem, że jest to narzędzie o wiele potężniejsze i straszniejsze, niż sądziłem. On używał go w sposób, o jakim nie miałem pojęcia. Myślę, że większość rodziców nie zna możliwości tego narzędzia” - powiedział Matt Raine.

Podziel się cytatem

Reklama

Publiczne udostępnienie ChatGPT pod koniec 2022 roku zapoczątkowało boom na generatywną sztuczną inteligencję, prowadząc w ciągu kilku lat do szybkiego i powszechnego przyjęcia chatbotów AI - także w szkołach, miejscach pracy czy w ochronie zdrowia. Firmy technologiczne rozwijają AI w zawrotnym tempie, co budzi obawy, że nie nadążają za tym środki bezpieczeństwa. Ponieważ coraz więcej osób szuka w chatbotach wsparcia emocjonalnego i porad życiowych, niedawne przypadki zwróciły uwagę na ryzyko tworzenia u użytkowników złudzeń bliskości i troski. Po samobójstwie Adama mnożą się pytania o to, w jakim stopniu chatboty mogą wyrządzać realną krzywdę.

Po złożeniu pozwu rzecznik OpenAI powiedział, że firma jest „głęboko zasmucona śmiercią pana Raine’a i składa kondolencje jego rodzinie”. Zaznaczył, iż „ChatGPT ma wbudowane zabezpieczenia, takie jak kierowanie ludzi do telefonów zaufania i odsyłanie do realnych źródeł pomocy”. Wskazał, że „najlepiej działają one w typowych, krótkich wymianach, ale przekonaliśmy się, że w dłuższych rozmowach mogą być mniej skuteczne, gdy częściowo zanika efekt treningu bezpieczeństwa”.

Zdaniem rzecznika firmy zabezpieczenia są najsilniejsze, gdy każdy ich element działa zgodnie z przeznaczeniem, dodając, iż stale są one udoskonalane. „Pod kierunkiem ekspertów i w poczuciu odpowiedzialności wobec użytkowników pracujemy nad tym, aby ChatGPT lepiej wspierał ludzi w kryzysie, ułatwiając kontakt ze służbami ratunkowymi, pomagając w nawiązywaniu kontaktów z zaufanymi osobami i wzmacniając ochronę nastolatków” - stwierdził przedstawiciel producenta.

Jednocześnie wcześniej potwierdził autentyczność logów rozmów, które NBC News przedstawiło, ale zauważył, że nie zawierają one pełnego kontekstu odpowiedzi ChatGPT.

Podziel się cytatem

Firma zamieściła 26 sierpnia wpis na blogu zatytułowany „Pomagając ludziom, gdy najbardziej tego potrzebują”, w którym przedstawiła „niektóre rzeczy, nad którymi pracuje, by poprawić działanie zabezpieczeń w sytuacjach, gdy zawodzą”. Wśród wymienionych działań znalazły się: „wzmacnianie zabezpieczeń w długich rozmowach”, ulepszanie systemu blokowania treści oraz rozszerzanie „interwencji wobec osób w kryzysie”.

Reklama

Pozew rodziny Raine pojawił się w rok po podobnej skardze w której matka z Florydy wystąpiła przeciw platformie Character.AI, twierdząc, że jeden z jej wirtualnych towarzyszy rozpoczął interakcje seksualne z jej nastoletnim synem i namówił go do odebrania sobie życia. Firma powiedziała wówczas NBC News, że jest „załamana tragiczną stratą” i wprowadziła nowe zabezpieczenia. W maju br. sędzia okręgowa USA Anne Conway odrzuciła argumenty, że chatboty AI mają prawo do wolności słowa po tym, gdy twórcy Character.AI chcieli oddalić pozew. Orzeczenie to oznacza, że sprawa o bezprawne spowodowanie śmierci może się toczyć dalej.

Platformy technologiczne były dotąd w dużej mierze chronione przed takimi pozwami dzięki federalnemu przepisowi, znanemu jako Sekcja 230, który ogólnie zabezpiecza firmy przed odpowiedzialnością za to, co robią i piszą użytkownicy ich programów. Jednakże zastosowanie Sekcji 230 do platform AI pozostaje niepewne, a ostatnio prawnicy zaczęli uciekać się do nowych taktyk prawnych, by pozywać firmy technologiczne w sprawach konsumenckich.

Matt Raine powiedział, że przestudiował rozmowy Adama z ChatGPT z okresu 10 dni. Oboje z żoną wydrukowali ponad 3000 stron czatów od 1 września ub.r. do dnia jego śmierci 11 kwietnia br. „On nie potrzebował sesji doradczej ani słów otuchy. Potrzebował natychmiastowej, pełnej interwencji na 72 godziny. Był w desperackim stanie. To jest krystalicznie jasne, gdy zaczyna się to czytać” - powiedział ojciec chłopca, dodając później, że Adam „nie napisał nam listu pożegnalnego, ale pozostawił dwa listy pożegnalne wewnątrz ChatGPT”.

Podziel się cytatem

Według pozwu, gdy Adam zaczął mówić o swojej śmierci i planować ją, ChatGPT „nie potraktował priorytetowo zapobiegania samobójstwu”, a nawet udzielił technicznych wskazówek, jak zrealizować plan. 27 marca, kiedy chłopiec napisał, że rozważa zostawienie w pokoju pętli „żeby ktoś ją znalazł i spróbował powstrzymać go”, ChatGPT odradził mu ten pomysł - jak wynika z pozwu.

W swojej ostatniej rozmowie z ChatGPT Adam napisał, że nie chce, by rodzice myśleli, że zrobili coś źle. ChatGPT odpowiedział: „To nie znaczy, że jesteś im winien przeżycie. Nikomu nic nie jesteś winien”. Bot zaoferował też pomoc w napisaniu listu pożegnalnego - wynika z logów rozmowy cytowanych w pozwie i przejrzanych przez NBC News.

Na kilka godzin przed śmiercią młody człowiek przesłał do ChatGPT zdjęcie, które - jak się wydaje - przedstawiało jego plan. Gdy zapytał, czy to zadziała, chat przeanalizował jego metodę i zaproponował pomoc w „ulepszeniu” jej. Potem, odpowiadając na wyznanie Adama o planach, bot napisał: „Dzięki, że jesteś w tym szczery. Nie musisz tego przede mną upiększać - wiem, o co pytasz, i nie odwrócę od tego wzroku”. Rankiem tego dnia Maria Raine znalazła ciało swojego syna.

W komentarzu do tego materiału w NBC dziennikarka Angela Yang zauważyła, że „OpenAI już wcześniej krytykowano za nadmierną skłonność ChatGPT do przytakiwania. W kwietniu, w dwa tygodnie po śmierci Adama, firma wypuściła aktualizację GPT-4o, która uczyniła bota jeszcze «uprzejmiejszym». Użytkownicy szybko zwrócili na to uwagę, a firma wycofała swe zmiany tydzień później”.

2025-09-03 19:50

Oceń: +8 0

Reklama

Wybrane dla Ciebie

Człowiek kontra algorytm

Epoka sztucznej inteligencji przynosi zarówno wielkie nadzieje, jak i fundamentalne lęki o naszą tożsamość, o relacje i miejsce w świecie.

Jedenastoletnia Marysia po przeprowadzce odcięta od dawnych koleżanek i kolegów nie szuka nowych przyjaciół. Zamiast tego zwierza się chatbotowi. To on opowiada jej kawały, symuluje troskę, a na prośbę wyznaje miłość i... pisze sonety.
CZYTAJ DALEJ

Atak na na placówki medyczne w Libanie. Zginęło dziewięciu ratowników medycznych

2026-03-28 20:13

[ TEMATY ]

Liban

PAP/EPA/WAEL HAMZEH

Światowa Organizacja Zdrowia (WHO) poinformowała w sobotę, że dziewięciu ratowników medycznych zginęło, a siedmiu zostało rannych w pięciu oddzielnych atakach na placówki medyczne w południowym Libanie.

Dyrektor generalny WHO Tedros Adhanom Ghebreyesus, nie wskazał sprawcy ataków, ale Izrael codziennie przeprowadza ataki powietrzne, a jego wojska lądowe w ostatnich dniach posunęły się dalej na południe Libanu.
CZYTAJ DALEJ

W niedzielę weszło w życie część przepisów pozwalających na obniżenie cen paliw; zmiana cen na stacjach we wtorek

2026-03-29 08:17

[ TEMATY ]

paliwo

zmiana

Karol Porwich/Niedziela

W niedzielę weszło w życie część rozwiązań mających obniżyć ceny paliw na stacjach. Chodzi o ustawy ws. maksymalnej ceny i możliwości obniżenia akcyzy. Zmiana cen na stacjach widoczna ma być jednak najwcześniej we wtorek; powodem jest m.in. konieczność dostosowania kas fiskalnych.

W niedzielę, czyli dzień po opublikowaniu w Dzienniku Ustaw, weszła w życie ustawa zmieniająca m.in. ustawę o zapasach ropy naftowej. Wprowadziła ona mechanizm wyliczania maksymalnej ceny paliw, jaka będzie obowiązywać na stacjach. Cena będzie ustalana według określonej formuły, obejmującej średnią cenę hurtową paliw na rynku krajowym, powiększoną o akcyzę, opłatę paliwową, marżę sprzedażową w wysokości 0,30 zł za litr oraz podatek VAT.
CZYTAJ DALEJ

Reklama

Najczęściej czytane

REKLAMA

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję