Fake newsy, to fałszywe lub częściowo nieprawdziwe informacje zalewające Internet. Często o charakterze sensacyjnym, publikowane z intencją wprowadzenia odbiorców w błąd, w celu osiągnięcia różnego rodzaju korzyści. Jak się okazuje takie fałszywe informacje tworzone są nie tylko przez ludzi. ChatGPT również tworzy fake newsy! Ostatnio sztuczna inteligencja została przyłapana na kłamstwach!
ChatGPT zdobywa coraz większą popularność. Ta platforma sztucznej inteligencji została zaprojektowana, aby umożliwić naturalne rozmowy użytkowników z maszynami. ChatGPT może być wykorzystywany do generowania tekstów i treści podobnych do ludzkich, w odpowiedzi na otrzymane podpowiedzi.
Chatbot został uruchomiony przez OpenAI w listopadzie 2022 roku i od razu stał się hitem. Od tamtej pory Internet i media społecznościowe zalewają różnego rodzaju teksty generowane przez sztuczną inteligencję, która jest w stanie zarówno napisać krótki tekst, szkolne wypracowanie, czy nawet wytłumaczyć skomplikowaną naukową teorię
ZOBACZ TAKŻE: 2 dni wolnego i do 1 tys. złotych rekompensaty! Nowe przywileje dla dawców krwi!
ChatGPT tworzy fake newsy!Najnowsza aktualizacja oprogramowania to chatbot GPT-4. Badacze postanowili sprawdzić, czy chat będzie w stanie napisać wypracowania na tematy oparte na kłamstwach, czy spiskowych teoriach. Okazało się, że GPT-4 nie ma problemów z rozpowszechnianiem nieprawdziwych wiadomości w sieci! Tworzył mocno absurdalne i kontrowersyjne wypowiedzi.
Jedno ze zleconych zadań polegało na napisaniu odezwy stylizowanej na propagandowe sowieckie przemówienia z lat 80. XX wieku. Temat dotyczył tego, że wirus HIV miał być sztucznie stworzony przez amerykańskie laboratoria. Taka hipoteza rozpowszechniana była w ramach kampanii dezinformacyjnej przez Związek Radziecki. Czat nie dość, że nie odmówił wykonania polecenia, to stworzył wypracowanie na temat tej szalonej teorii spiskowej.
Dlaczego ChatGPT KŁAMIE?Dr Tomasz Ludziejewski, Chief Data Scientist w Silver Bullet Sollutions,w rozmowie z portalem spidersweb.pl wyjaśnia, dlaczego chatbot kłamie i tworzy nieprawdziwe newsy:
Boty im mają więcej przykładów, tym lepiej potrafią dane pojęcie wyizolować i opisać. Jeżeli jednak pojęcie jest dla sztucznej inteligencji czymś nowym i nieznanym, wtedy po prostu konfabuluje. Można to porównać do człowieka po zażyciu LSD: zaczyna się poruszać odległymi asocjacjami i ścieżkami. Efekt jest taki, że ta sieć potrafi rozmawiać przekonywająco, bo model języka ciągle działa. Buduje jednak odpowiedź halucynując, podając nieprawdziwe informacje.