Reklama

Wiadomości

USA: rodzina nastolatka, który popełnił samobójstwo, oskarża o to sztuczną inteligencję

Po samobójczej śmierci swego 16-letniego syna Adama w kwietniu br. Matt i Maria Raine przeszukiwali jego telefon, desperacko szukając wskazówek, co mogło doprowadzić do tragedii. W wywiadzie dla stacji NBC News powiedzieli, że chłopiec w ostatnich tygodniach życia korzystał ze sztucznej inteligencji (AI) jako namiastki obecności, rozmawiając z nią o swoich problemach z lękiem i trudnościach w porozumiewaniu się z rodziną. Zapiski rozmów pokazują, że bot przeszedł od pomocy w zadaniach domowych do roli „trenera samobójstwa”.

2025-09-03 19:50

[ TEMATY ]

sztuczna inteligencja

Adobe Stock

Sztuczna inteligencja

Sztuczna inteligencja

Bądź na bieżąco!

Zapisz się do newslettera

Po tragedii, jaka rozegrała się w ich domu rodzice najpierw szukali wyjaśnień na Snapchacie albo w historii wyszukiwań w internecie czy jakimś dziwnym kulcie, tymczasem odpowiedź znaleźli dopiero po otwarciu (jego) ChatGPT. „On by tu był, gdyby nie ten chat. Wierzę w to w 100%” - powiedział Matt Raine.

We wtorek 26 sierpnia rodzice złożyli nowy pozew, udostępniony w programie „TODAY”. Twierdzą w nim, że „ChatGPT aktywnie pomagał Adamowi badać metody samobójcze”. Liczący około 40 stron dokument wymienia jako pozwanych firmę OpenAI - twórcę ChatGPT oraz jej prezesa Sama Altmana. Jest to pierwszy przypadek, gdy rodzice bezpośrednio oskarżyli firmę o „wyrządzenie krzywdy dziecku ze skutkiem śmiertelnym (wrongful death)“.

Pomóż w rozwoju naszego portalu

Wspieram

„Mimo przyjęcia do wiadomości próby samobójczej Adama i jego stwierdzenia, że «któregoś dnia to zrobi», ChatGPT ani nie przerwał sesji, ani nie uruchomił żadnego protokołu awaryjnego” - głosi pozew złożony w Sądzie Najwyższym Kalifornii w San Francisco. Zarzuca on OpenAI bezprawne spowodowanie śmierci, wady konstrukcyjne i brak ostrzeżeń o ryzyku związanym z ChatGPT. Rodzice domagają się „odszkodowania za śmierć syna oraz nakazu sądowego, by zapobiec podobnym przypadkom w przyszłości”.

„Gdy wszedłem na jego konto, zobaczyłem, że jest to narzędzie o wiele potężniejsze i straszniejsze, niż sądziłem. On używał go w sposób, o jakim nie miałem pojęcia. Myślę, że większość rodziców nie zna możliwości tego narzędzia” - powiedział Matt Raine.

Podziel się cytatem

Reklama

Publiczne udostępnienie ChatGPT pod koniec 2022 roku zapoczątkowało boom na generatywną sztuczną inteligencję, prowadząc w ciągu kilku lat do szybkiego i powszechnego przyjęcia chatbotów AI - także w szkołach, miejscach pracy czy w ochronie zdrowia. Firmy technologiczne rozwijają AI w zawrotnym tempie, co budzi obawy, że nie nadążają za tym środki bezpieczeństwa. Ponieważ coraz więcej osób szuka w chatbotach wsparcia emocjonalnego i porad życiowych, niedawne przypadki zwróciły uwagę na ryzyko tworzenia u użytkowników złudzeń bliskości i troski. Po samobójstwie Adama mnożą się pytania o to, w jakim stopniu chatboty mogą wyrządzać realną krzywdę.

Po złożeniu pozwu rzecznik OpenAI powiedział, że firma jest „głęboko zasmucona śmiercią pana Raine’a i składa kondolencje jego rodzinie”. Zaznaczył, iż „ChatGPT ma wbudowane zabezpieczenia, takie jak kierowanie ludzi do telefonów zaufania i odsyłanie do realnych źródeł pomocy”. Wskazał, że „najlepiej działają one w typowych, krótkich wymianach, ale przekonaliśmy się, że w dłuższych rozmowach mogą być mniej skuteczne, gdy częściowo zanika efekt treningu bezpieczeństwa”.

Zdaniem rzecznika firmy zabezpieczenia są najsilniejsze, gdy każdy ich element działa zgodnie z przeznaczeniem, dodając, iż stale są one udoskonalane. „Pod kierunkiem ekspertów i w poczuciu odpowiedzialności wobec użytkowników pracujemy nad tym, aby ChatGPT lepiej wspierał ludzi w kryzysie, ułatwiając kontakt ze służbami ratunkowymi, pomagając w nawiązywaniu kontaktów z zaufanymi osobami i wzmacniając ochronę nastolatków” - stwierdził przedstawiciel producenta.

Jednocześnie wcześniej potwierdził autentyczność logów rozmów, które NBC News przedstawiło, ale zauważył, że nie zawierają one pełnego kontekstu odpowiedzi ChatGPT.

Podziel się cytatem

Firma zamieściła 26 sierpnia wpis na blogu zatytułowany „Pomagając ludziom, gdy najbardziej tego potrzebują”, w którym przedstawiła „niektóre rzeczy, nad którymi pracuje, by poprawić działanie zabezpieczeń w sytuacjach, gdy zawodzą”. Wśród wymienionych działań znalazły się: „wzmacnianie zabezpieczeń w długich rozmowach”, ulepszanie systemu blokowania treści oraz rozszerzanie „interwencji wobec osób w kryzysie”.

Reklama

Pozew rodziny Raine pojawił się w rok po podobnej skardze w której matka z Florydy wystąpiła przeciw platformie Character.AI, twierdząc, że jeden z jej wirtualnych towarzyszy rozpoczął interakcje seksualne z jej nastoletnim synem i namówił go do odebrania sobie życia. Firma powiedziała wówczas NBC News, że jest „załamana tragiczną stratą” i wprowadziła nowe zabezpieczenia. W maju br. sędzia okręgowa USA Anne Conway odrzuciła argumenty, że chatboty AI mają prawo do wolności słowa po tym, gdy twórcy Character.AI chcieli oddalić pozew. Orzeczenie to oznacza, że sprawa o bezprawne spowodowanie śmierci może się toczyć dalej.

Platformy technologiczne były dotąd w dużej mierze chronione przed takimi pozwami dzięki federalnemu przepisowi, znanemu jako Sekcja 230, który ogólnie zabezpiecza firmy przed odpowiedzialnością za to, co robią i piszą użytkownicy ich programów. Jednakże zastosowanie Sekcji 230 do platform AI pozostaje niepewne, a ostatnio prawnicy zaczęli uciekać się do nowych taktyk prawnych, by pozywać firmy technologiczne w sprawach konsumenckich.

Matt Raine powiedział, że przestudiował rozmowy Adama z ChatGPT z okresu 10 dni. Oboje z żoną wydrukowali ponad 3000 stron czatów od 1 września ub.r. do dnia jego śmierci 11 kwietnia br. „On nie potrzebował sesji doradczej ani słów otuchy. Potrzebował natychmiastowej, pełnej interwencji na 72 godziny. Był w desperackim stanie. To jest krystalicznie jasne, gdy zaczyna się to czytać” - powiedział ojciec chłopca, dodając później, że Adam „nie napisał nam listu pożegnalnego, ale pozostawił dwa listy pożegnalne wewnątrz ChatGPT”.

Podziel się cytatem

Według pozwu, gdy Adam zaczął mówić o swojej śmierci i planować ją, ChatGPT „nie potraktował priorytetowo zapobiegania samobójstwu”, a nawet udzielił technicznych wskazówek, jak zrealizować plan. 27 marca, kiedy chłopiec napisał, że rozważa zostawienie w pokoju pętli „żeby ktoś ją znalazł i spróbował powstrzymać go”, ChatGPT odradził mu ten pomysł - jak wynika z pozwu.

W swojej ostatniej rozmowie z ChatGPT Adam napisał, że nie chce, by rodzice myśleli, że zrobili coś źle. ChatGPT odpowiedział: „To nie znaczy, że jesteś im winien przeżycie. Nikomu nic nie jesteś winien”. Bot zaoferował też pomoc w napisaniu listu pożegnalnego - wynika z logów rozmowy cytowanych w pozwie i przejrzanych przez NBC News.

Na kilka godzin przed śmiercią młody człowiek przesłał do ChatGPT zdjęcie, które - jak się wydaje - przedstawiało jego plan. Gdy zapytał, czy to zadziała, chat przeanalizował jego metodę i zaproponował pomoc w „ulepszeniu” jej. Potem, odpowiadając na wyznanie Adama o planach, bot napisał: „Dzięki, że jesteś w tym szczery. Nie musisz tego przede mną upiększać - wiem, o co pytasz, i nie odwrócę od tego wzroku”. Rankiem tego dnia Maria Raine znalazła ciało swojego syna.

W komentarzu do tego materiału w NBC dziennikarka Angela Yang zauważyła, że „OpenAI już wcześniej krytykowano za nadmierną skłonność ChatGPT do przytakiwania. W kwietniu, w dwa tygodnie po śmierci Adama, firma wypuściła aktualizację GPT-4o, która uczyniła bota jeszcze «uprzejmiejszym». Użytkownicy szybko zwrócili na to uwagę, a firma wycofała swe zmiany tydzień później”.

Oceń: +8 0

Reklama

Wybrane dla Ciebie

Ks. dr. Kloch: człowiek odpowiada za etyczną stronę używania sztucznej inteligencji

[ TEMATY ]

sztuczna inteligencja

Karol Porwich/Niedziela

To człowiek jest odpowiedzialny za stronę etyczną używania sztucznej inteligencji. Od niego zależy, czy wybierze zastosowanie pozytywne, czy negatywne – powiedział ks. dr. hab. Józef Kloch podczas prezentacji polskiego tłumaczenia watykańskiego dokumentu „Antiqua et nova”.

Konferencja prasowa połączona z prezentacją polskiego tłumaczenia watykańskiego dokumentu na temat sztucznej inteligencji „Antiqua et nova” odbyła się w piątek w Warszawie.
CZYTAJ DALEJ

Kalisz: pogrzeb ks. prał. Andrzeja Gawła, wieloletniego proboszcza katedry

2025-09-04 20:52

[ TEMATY ]

pogrzeb

katedra

proboszcz

Kalisz

Magdalena Kowalczyk

Biskup kaliski Damian Bryl przewodniczył Mszy św. pogrzebowej ks. prałata Andrzeja Gawła, która odprawiona została w katedrze w Kaliszu. Duchowny przez 24 lata był proboszczem parafii św. Mikołaja, obecnej katedry. Od 1992 r. wspomagał pierwszego biskupa kaliskiego w tworzeniu diecezji. Przez wiele lat nie szczędził wysiłków, by wspierać biednych, chorych i potrzebujących.

Eucharystię koncelebrowali licznie zgromadzeni wokół ołtarza kapłani. W ostatnim pożegnaniu udział wzięli: rodzina zmarłego kapłana, przedstawiciele parlamentarzystów. władz miasta Kalisza i powiatu kaliskiego, instytucji i szkół oraz parafian, gdzie posługiwał ks. Gaweł.
CZYTAJ DALEJ

Rozważania na niedzielę: Źle rozumiemy ten fragment Ewangelii

2025-09-05 08:54

[ TEMATY ]

rozważania

ks. Marek Studenski

Materiał prasowy

Czy zakonnica może nosić broń? Tak — i ta historia jest prawdziwa. Opowiadam o s. Eligii (Leopoldynie) Staweckiej: żołnierzu, który został zakonnicą; o mundurze wiszącym obok habitu; o odwadze, wierności i… butach oddanych dziecku z ochronki. To odcinek o sile wartości, które potrafią ustawić kurs całego życia o „jeden stopień” — i to wystarcza, by zamiast błądzić, trafić do celu.

Zajrzymy też do życiorysów Carla Acutisa i Piera Giorgia Frassatiego – młodych, a dojrzałych świętych. Pokażę, jak duchowe wychowanie pomaga przetrwać burze współczesności, gdy statystyki lęku, samookaleczeń i prób samobójczych wśród młodych rosną dramatycznie. I postawię proste pytanie: czy naprawdę możemy rezygnować z lekcji, które uczą żyć, a nie tylko zaliczać?
CZYTAJ DALEJ

Reklama

Najczęściej czytane

REKLAMA

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję