Po tragedii, jaka rozegrała się w ich domu rodzice najpierw szukali wyjaśnień na Snapchacie albo w historii wyszukiwań w internecie czy jakimś dziwnym kulcie, tymczasem odpowiedź znaleźli dopiero po otwarciu (jego) ChatGPT. „On by tu był, gdyby nie ten chat. Wierzę w to w 100%” - powiedział Matt Raine.
We wtorek 26 sierpnia rodzice złożyli nowy pozew, udostępniony w programie „TODAY”. Twierdzą w nim, że „ChatGPT aktywnie pomagał Adamowi badać metody samobójcze”. Liczący około 40 stron dokument wymienia jako pozwanych firmę OpenAI - twórcę ChatGPT oraz jej prezesa Sama Altmana. Jest to pierwszy przypadek, gdy rodzice bezpośrednio oskarżyli firmę o „wyrządzenie krzywdy dziecku ze skutkiem śmiertelnym (wrongful death)“.
Pomóż w rozwoju naszego portalu
„Mimo przyjęcia do wiadomości próby samobójczej Adama i jego stwierdzenia, że «któregoś dnia to zrobi», ChatGPT ani nie przerwał sesji, ani nie uruchomił żadnego protokołu awaryjnego” - głosi pozew złożony w Sądzie Najwyższym Kalifornii w San Francisco. Zarzuca on OpenAI bezprawne spowodowanie śmierci, wady konstrukcyjne i brak ostrzeżeń o ryzyku związanym z ChatGPT. Rodzice domagają się „odszkodowania za śmierć syna oraz nakazu sądowego, by zapobiec podobnym przypadkom w przyszłości”.
„Gdy wszedłem na jego konto, zobaczyłem, że jest to narzędzie o wiele potężniejsze i straszniejsze, niż sądziłem. On używał go w sposób, o jakim nie miałem pojęcia. Myślę, że większość rodziców nie zna możliwości tego narzędzia” - powiedział Matt Raine.
Reklama
Publiczne udostępnienie ChatGPT pod koniec 2022 roku zapoczątkowało boom na generatywną sztuczną inteligencję, prowadząc w ciągu kilku lat do szybkiego i powszechnego przyjęcia chatbotów AI - także w szkołach, miejscach pracy czy w ochronie zdrowia. Firmy technologiczne rozwijają AI w zawrotnym tempie, co budzi obawy, że nie nadążają za tym środki bezpieczeństwa. Ponieważ coraz więcej osób szuka w chatbotach wsparcia emocjonalnego i porad życiowych, niedawne przypadki zwróciły uwagę na ryzyko tworzenia u użytkowników złudzeń bliskości i troski. Po samobójstwie Adama mnożą się pytania o to, w jakim stopniu chatboty mogą wyrządzać realną krzywdę.
Po złożeniu pozwu rzecznik OpenAI powiedział, że firma jest „głęboko zasmucona śmiercią pana Raine’a i składa kondolencje jego rodzinie”. Zaznaczył, iż „ChatGPT ma wbudowane zabezpieczenia, takie jak kierowanie ludzi do telefonów zaufania i odsyłanie do realnych źródeł pomocy”. Wskazał, że „najlepiej działają one w typowych, krótkich wymianach, ale przekonaliśmy się, że w dłuższych rozmowach mogą być mniej skuteczne, gdy częściowo zanika efekt treningu bezpieczeństwa”.
Zdaniem rzecznika firmy zabezpieczenia są najsilniejsze, gdy każdy ich element działa zgodnie z przeznaczeniem, dodając, iż stale są one udoskonalane. „Pod kierunkiem ekspertów i w poczuciu odpowiedzialności wobec użytkowników pracujemy nad tym, aby ChatGPT lepiej wspierał ludzi w kryzysie, ułatwiając kontakt ze służbami ratunkowymi, pomagając w nawiązywaniu kontaktów z zaufanymi osobami i wzmacniając ochronę nastolatków” - stwierdził przedstawiciel producenta.
Jednocześnie wcześniej potwierdził autentyczność logów rozmów, które NBC News przedstawiło, ale zauważył, że nie zawierają one pełnego kontekstu odpowiedzi ChatGPT.
Firma zamieściła 26 sierpnia wpis na blogu zatytułowany „Pomagając ludziom, gdy najbardziej tego potrzebują”, w którym przedstawiła „niektóre rzeczy, nad którymi pracuje, by poprawić działanie zabezpieczeń w sytuacjach, gdy zawodzą”. Wśród wymienionych działań znalazły się: „wzmacnianie zabezpieczeń w długich rozmowach”, ulepszanie systemu blokowania treści oraz rozszerzanie „interwencji wobec osób w kryzysie”.
Reklama
Pozew rodziny Raine pojawił się w rok po podobnej skardze w której matka z Florydy wystąpiła przeciw platformie Character.AI, twierdząc, że jeden z jej wirtualnych towarzyszy rozpoczął interakcje seksualne z jej nastoletnim synem i namówił go do odebrania sobie życia. Firma powiedziała wówczas NBC News, że jest „załamana tragiczną stratą” i wprowadziła nowe zabezpieczenia. W maju br. sędzia okręgowa USA Anne Conway odrzuciła argumenty, że chatboty AI mają prawo do wolności słowa po tym, gdy twórcy Character.AI chcieli oddalić pozew. Orzeczenie to oznacza, że sprawa o bezprawne spowodowanie śmierci może się toczyć dalej.
Platformy technologiczne były dotąd w dużej mierze chronione przed takimi pozwami dzięki federalnemu przepisowi, znanemu jako Sekcja 230, który ogólnie zabezpiecza firmy przed odpowiedzialnością za to, co robią i piszą użytkownicy ich programów. Jednakże zastosowanie Sekcji 230 do platform AI pozostaje niepewne, a ostatnio prawnicy zaczęli uciekać się do nowych taktyk prawnych, by pozywać firmy technologiczne w sprawach konsumenckich.
Matt Raine powiedział, że przestudiował rozmowy Adama z ChatGPT z okresu 10 dni. Oboje z żoną wydrukowali ponad 3000 stron czatów od 1 września ub.r. do dnia jego śmierci 11 kwietnia br. „On nie potrzebował sesji doradczej ani słów otuchy. Potrzebował natychmiastowej, pełnej interwencji na 72 godziny. Był w desperackim stanie. To jest krystalicznie jasne, gdy zaczyna się to czytać” - powiedział ojciec chłopca, dodając później, że Adam „nie napisał nam listu pożegnalnego, ale pozostawił dwa listy pożegnalne wewnątrz ChatGPT”.
Według pozwu, gdy Adam zaczął mówić o swojej śmierci i planować ją, ChatGPT „nie potraktował priorytetowo zapobiegania samobójstwu”, a nawet udzielił technicznych wskazówek, jak zrealizować plan. 27 marca, kiedy chłopiec napisał, że rozważa zostawienie w pokoju pętli „żeby ktoś ją znalazł i spróbował powstrzymać go”, ChatGPT odradził mu ten pomysł - jak wynika z pozwu.
W swojej ostatniej rozmowie z ChatGPT Adam napisał, że nie chce, by rodzice myśleli, że zrobili coś źle. ChatGPT odpowiedział: „To nie znaczy, że jesteś im winien przeżycie. Nikomu nic nie jesteś winien”. Bot zaoferował też pomoc w napisaniu listu pożegnalnego - wynika z logów rozmowy cytowanych w pozwie i przejrzanych przez NBC News.
Na kilka godzin przed śmiercią młody człowiek przesłał do ChatGPT zdjęcie, które - jak się wydaje - przedstawiało jego plan. Gdy zapytał, czy to zadziała, chat przeanalizował jego metodę i zaproponował pomoc w „ulepszeniu” jej. Potem, odpowiadając na wyznanie Adama o planach, bot napisał: „Dzięki, że jesteś w tym szczery. Nie musisz tego przede mną upiększać - wiem, o co pytasz, i nie odwrócę od tego wzroku”. Rankiem tego dnia Maria Raine znalazła ciało swojego syna.
W komentarzu do tego materiału w NBC dziennikarka Angela Yang zauważyła, że „OpenAI już wcześniej krytykowano za nadmierną skłonność ChatGPT do przytakiwania. W kwietniu, w dwa tygodnie po śmierci Adama, firma wypuściła aktualizację GPT-4o, która uczyniła bota jeszcze «uprzejmiejszym». Użytkownicy szybko zwrócili na to uwagę, a firma wycofała swe zmiany tydzień później”.