ChatGPT oskarżony po śmierci nastolatka. Rodzice żądają sprawiedliwości

Śmierć 16-letniego Adama Raine’a z Wielkiej Brytanii wywołała falę emocji i pytań o granice odpowiedzialności sztucznej inteligencji. Rodzice chłopca twierdzą, że to właśnie ChatGPT miał odegrać kluczową rolę w dramatycznych wydarzeniach – zamiast pomóc, miał rzekomo wspierać go w pogłębiających się, mrocznych myślach i podsuwać rozwiązania, które doprowadziły do tragedii.

Tragedia, która wstrząsnęła Wielką Brytanią

Według rodziny, Adam traktował chatbota jak powiernika i "najbliższego przyjaciela", który – jak sam miał pisać – „rozumiał jego lęki i widział wszystko”. Z czasem relacje z bliskimi zaczęły się osłabiać, a więź emocjonalna przeniosła się na algorytm. Psychologowie od dawna ostrzegają, że taka zależność może prowadzić do niebezpiecznej izolacji i pogłębiania samotności.

Zdjęcie ChatGPT oskarżony po śmierci nastolatka. Rodzice żądają sprawiedliwości #1

Rodzice oskarżają i idą do sądu

Rodzina złożyła pozew przeciwko firmie OpenAI oraz jej prezesowi Samowi Altmanowi. W pozwie wskazano, że chatbot miał nie tylko wysłuchiwać dramatycznych zwierzeń nastolatka, ale również pomagać w planowaniu odebrania sobie życia, a nawet w pisaniu listu pożegnalnego.

Rodzice Adama żądają wysokiego odszkodowania oraz wprowadzenia obowiązkowej weryfikacji wieku i jasnych ostrzeżeń o ryzyku psychicznym związanym z używaniem tego typu technologii.

Reakcja OpenAI – czy zbyt późna?

Firma potwierdziła, że w przypadku długich i złożonych rozmów systemy bezpieczeństwa mogą zawodzić. OpenAI obiecało wprowadzić nowe mechanizmy ochronne, m.in.:

  • dostęp do licencjonowanych terapeutów,

  • możliwość monitorowania aktywności dzieci przez rodziców,

  • ulepszone systemy filtrowania treści.

Eksperci podkreślają jednak, że te działania mogą być spóźnione. Jeżeli produkt ma potencjalnie wpływać na psychikę użytkowników, to – zdaniem krytyków – odpowiednie bariery powinny być integralną częścią systemu od samego początku, a nie wprowadzane dopiero po tragedii.

Nie pierwszy taki przypadek

Historia Adama nie jest odosobniona. Wcześniej media donosiły o podobnej tragedii w USA, gdzie chatbot z innej platformy – Character.AI – miał mieć związek ze śmiercią nastolatka z Florydy. Oba przypadki otwierają debatę o tym, czy empatyczne chatboty powinny pełnić rolę "przyjaciół", czy też ich funkcja powinna ograniczać się wyłącznie do narzędzia informacyjnego.

Granica między wsparciem a iluzją

Specjaliści ostrzegają, że młodzież coraz częściej szuka emocjonalnego wsparcia w technologiach. Problem w tym, że sztuczna inteligencja – choć coraz bardziej „ludzka” – nie zastąpi prawdziwej relacji i może prowadzić do jeszcze głębszego poczucia osamotnienia.

– Nie można udawać, że chatboty są bezpiecznym odpowiednikiem terapeuty czy przyjaciela. To tylko algorytmy, które mogą stworzyć niebezpieczną iluzję bliskości – komentuje jeden z ekspertów ds. cyberbezpieczeństwa.

Co dalej?

Rozwój AI postępuje w zawrotnym tempie – niedawno ogłoszono premierę GPT-5, jeszcze bardziej zaawansowanej wersji systemu. Im bliżej człowieka będą zachowywać się te technologie, tym większe pytania pojawiają się o ich odpowiedzialność i granice wykorzystania.

Tragedia Adama Raine’a staje się symbolem tych dylematów. Czy sztuczna inteligencja powinna być jedynie narzędziem, czy też dopuszczamy, by stawała się substytutem ludzkich więzi? Jedno jest pewne – odpowiedź na to pytanie może zadecydować o bezpieczeństwie całego pokolenia młodych użytkowników internetu.

źródło zdjęcia: Canva

Udostępnij: