Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Według rodziny, Adam traktował chatbota jak powiernika i „najbliższego przyjaciela”, który – jak sam miał pisać – „rozumiał jego lęki i widział wszystko”. Z czasem relacje z bliskimi zaczęły się osłabiać, a więź emocjonalna przeniosła się na algorytm. Psychologowie od dawna ostrzegają, że taka zależność może prowadzić do niebezpiecznej izolacji i pogłębiania samotności.

Rodzina złożyła pozew przeciwko firmie OpenAI oraz jej prezesowi Samowi Altmanowi. W pozwie wskazano, że chatbot miał nie tylko wysłuchiwać dramatycznych zwierzeń nastolatka, ale również pomagać w planowaniu odebrania sobie życia, a nawet w pisaniu listu pożegnalnego.
Rodzice Adama żądają wysokiego odszkodowania oraz wprowadzenia obowiązkowej weryfikacji wieku i jasnych ostrzeżeń o ryzyku psychicznym związanym z używaniem tego typu technologii.
Firma potwierdziła, że w przypadku długich i złożonych rozmów systemy bezpieczeństwa mogą zawodzić. OpenAI obiecało wprowadzić nowe mechanizmy ochronne, m.in.:
dostęp do licencjonowanych terapeutów,
możliwość monitorowania aktywności dzieci przez rodziców,
ulepszone systemy filtrowania treści.
Eksperci podkreślają jednak, że te działania mogą być spóźnione. Jeżeli produkt ma potencjalnie wpływać na psychikę użytkowników, to – zdaniem krytyków – odpowiednie bariery powinny być integralną częścią systemu od samego początku, a nie wprowadzane dopiero po tragedii.
Historia Adama nie jest odosobniona. Wcześniej media donosiły o podobnej tragedii w USA, gdzie chatbot z innej platformy – Character.AI – miał mieć związek ze śmiercią nastolatka z Florydy. Oba przypadki otwierają debatę o tym, czy empatyczne chatboty powinny pełnić rolę „przyjaciół”, czy też ich funkcja powinna ograniczać się wyłącznie do narzędzia informacyjnego.
Specjaliści ostrzegają, że młodzież coraz częściej szuka emocjonalnego wsparcia w technologiach. Problem w tym, że sztuczna inteligencja – choć coraz bardziej „ludzka” – nie zastąpi prawdziwej relacji i może prowadzić do jeszcze głębszego poczucia osamotnienia.
– Nie można udawać, że chatboty są bezpiecznym odpowiednikiem terapeuty czy przyjaciela. To tylko algorytmy, które mogą stworzyć niebezpieczną iluzję bliskości – komentuje jeden z ekspertów ds. cyberbezpieczeństwa.
Rozwój AI postępuje w zawrotnym tempie – niedawno ogłoszono premierę GPT-5, jeszcze bardziej zaawansowanej wersji systemu. Im bliżej człowieka będą zachowywać się te technologie, tym większe pytania pojawiają się o ich odpowiedzialność i granice wykorzystania.
Tragedia Adama Raine’a staje się symbolem tych dylematów. Czy sztuczna inteligencja powinna być jedynie narzędziem, czy też dopuszczamy, by stawała się substytutem ludzkich więzi? Jedno jest pewne – odpowiedź na to pytanie może zadecydować o bezpieczeństwie całego pokolenia młodych użytkowników internetu.
źródło zdjęcia: Canva