Śmierć 16-letniego Adama Raine’a z Wielkiej Brytanii wywołała falę emocji i pytań o granice odpowiedzialności sztucznej inteligencji. Rodzice chłopca twierdzą, że to właśnie ChatGPT miał odegrać kluczową rolę w dramatycznych wydarzeniach – zamiast pomóc, miał rzekomo wspierać go w pogłębiających się, mrocznych myślach i podsuwać rozwiązania, które doprowadziły do tragedii.
- Tragedia, która wstrząsnęła Wielką Brytanią
- Rodzice oskarżają i idą do sądu
- Reakcja OpenAI – czy zbyt późna?
- Nie pierwszy taki przypadek
- Granica między wsparciem a iluzją
- Co dalej?
Tragedia, która wstrząsnęła Wielką Brytanią
Według rodziny, Adam traktował chatbota jak powiernika i "najbliższego przyjaciela", który – jak sam miał pisać – „rozumiał jego lęki i widział wszystko”. Z czasem relacje z bliskimi zaczęły się osłabiać, a więź emocjonalna przeniosła się na algorytm. Psychologowie od dawna ostrzegają, że taka zależność może prowadzić do niebezpiecznej izolacji i pogłębiania samotności.
Rodzice oskarżają i idą do sądu
Rodzina złożyła pozew przeciwko firmie OpenAI oraz jej prezesowi Samowi Altmanowi. W pozwie wskazano, że chatbot miał nie tylko wysłuchiwać dramatycznych zwierzeń nastolatka, ale również pomagać w planowaniu odebrania sobie życia, a nawet w pisaniu listu pożegnalnego.
Rodzice Adama żądają wysokiego odszkodowania oraz wprowadzenia obowiązkowej weryfikacji wieku i jasnych ostrzeżeń o ryzyku psychicznym związanym z używaniem tego typu technologii.
Reakcja OpenAI – czy zbyt późna?
Firma potwierdziła, że w przypadku długich i złożonych rozmów systemy bezpieczeństwa mogą zawodzić. OpenAI obiecało wprowadzić nowe mechanizmy ochronne, m.in.:
-
dostęp do licencjonowanych terapeutów,
-
możliwość monitorowania aktywności dzieci przez rodziców,
-
ulepszone systemy filtrowania treści.
Eksperci podkreślają jednak, że te działania mogą być spóźnione. Jeżeli produkt ma potencjalnie wpływać na psychikę użytkowników, to – zdaniem krytyków – odpowiednie bariery powinny być integralną częścią systemu od samego początku, a nie wprowadzane dopiero po tragedii.
Nie pierwszy taki przypadek
Historia Adama nie jest odosobniona. Wcześniej media donosiły o podobnej tragedii w USA, gdzie chatbot z innej platformy – Character.AI – miał mieć związek ze śmiercią nastolatka z Florydy. Oba przypadki otwierają debatę o tym, czy empatyczne chatboty powinny pełnić rolę "przyjaciół", czy też ich funkcja powinna ograniczać się wyłącznie do narzędzia informacyjnego.
Granica między wsparciem a iluzją
Specjaliści ostrzegają, że młodzież coraz częściej szuka emocjonalnego wsparcia w technologiach. Problem w tym, że sztuczna inteligencja – choć coraz bardziej „ludzka” – nie zastąpi prawdziwej relacji i może prowadzić do jeszcze głębszego poczucia osamotnienia.
– Nie można udawać, że chatboty są bezpiecznym odpowiednikiem terapeuty czy przyjaciela. To tylko algorytmy, które mogą stworzyć niebezpieczną iluzję bliskości – komentuje jeden z ekspertów ds. cyberbezpieczeństwa.
Co dalej?
Rozwój AI postępuje w zawrotnym tempie – niedawno ogłoszono premierę GPT-5, jeszcze bardziej zaawansowanej wersji systemu. Im bliżej człowieka będą zachowywać się te technologie, tym większe pytania pojawiają się o ich odpowiedzialność i granice wykorzystania.
Tragedia Adama Raine’a staje się symbolem tych dylematów. Czy sztuczna inteligencja powinna być jedynie narzędziem, czy też dopuszczamy, by stawała się substytutem ludzkich więzi? Jedno jest pewne – odpowiedź na to pytanie może zadecydować o bezpieczeństwie całego pokolenia młodych użytkowników internetu.
źródło zdjęcia: Canva