Foto: Tada Images/Shutterstock
Mark Walters, een bekende Amerikaanse radiopresentator, heeft besloten om OpenAI aan te klagen, het bedrijf achter het populaire ChatGPT programma. De artificial intelligence (AI), of kunstmatige intelligentie, tool beschulde namelijk onterecht de presentator van verduistering.
ChatGPT maakt valse beschuldiging
De beschuldiging door ChatGPT kwam aan het licht toen journalist Fred Riehl een samenvatting wilde van de AI over de Second Amendment Foundation v. Robert Ferguson rechtszaak. ChatGPT kwam vervolgens met de informatie dat Walters, die niet in de rechtszaak voorkwam noch gelinkt is aan een de partijen, verdacht werd van verduistering. Walters advocaat John Monroe is geschokt door de beschuldiging:
“OpenAI bevuilde de naam van mijn cliënt en verzon buitensporige leugens over hem. ChatGPT wees Walters aan als de verdachte terwijl hij er niks mee te maken heeft.”
Volgens de advocaat zat er niks anders op dan het bedrijf aan te klagen. Vrijgegeven documenten over de rechtszaak vertellen dat ChatGPT antwoord gaf op journalist Fred Riehl en hem een link naar de rechtszaak verschafte. Toen de journalist vervolgens om een samenvatting vroeg wees de chatbot zonder twijfel Walters aan als de verdachte. Volgens de documenten luidde ChatGPT’s antwoord als volgt:
“De rechtszaak draait om een klacht ingediend door vicepresident Alan Gottlieb van de Second Amendment Foundation (SAF), tegen Mark Walters, die wordt beschuldigd van het oplichten en verduisteren van de fondsen van de SAF.”
ChatGPT ‘hallucineert’
Toen journalist Riehl contact zocht met vicepresident Gottlieb, antwoordde hij met het bericht dat de beweringen onjuist waren. Volgens de documenten eist Walters een schadevergoeding van het bedrijf. Zijn advocaat is zelfverzekerd dat ze de rechtszaak gaan winnen:
“We zouden de rechtszaak niet zijn begonnen als we hadden gedacht dat we niet zouden winnen”
Echter is niet iedereen het eens met de advocaat. Op de site van OpenAI staat duidelijk aangegeven dat de chatbot soms foute informatie verkondigt. OpenAI refereert naar deze situaties als ‘hallucinaties’ van de chatbot. De informatie, wat men kan zien als het ‘geheugen’ van de chatbot, gaat niet verder dan 2021. Als men informatie opvraagt over zaken die na 2021 gebeurd zijn, heeft chatbot de neiging om lege plekken zelf in te vullen om aan de wensen van de gebruiker te voldoen.