Tech Update | BNR
AI-hallucinaties nog altijd groot probleem, maar de prompt maakt meer uit dan we dachten
08 May 2025
De kans dat AI-chatbots hallucineren wordt groter als gevraagd wordt om een kort en bondig antwoord. Zo'n prompt zorgt ervoor dat details worden weggelaten en een antwoord feitelijk minder nauwkeurig wordt. Dat blijkt uit een nieuwe studie van het Franse AI-testbedrijf Giskard. Rosanne Peters vertelt erover in deze Tech Update. Volgens de onderzoekers wordt de kans op hallucinaties groter omdat een chatbot bij een beknopter antwoord letterlijk minder ruimte heeft om te herkennen dat het zich op verkeerd terrein begeeft of dat het fouten maakt. Veel populaire en nieuwe modellen zijn in het onderzoek meegenomen, zoals OpenAI's GPT-4o of Anthropic's Claude 3.7 Sonnet. Kortgeleden werd nog bekend dat modellen van OpenAI juist meer zijn gaan hallucineren, ondanks dat er in de wereld van AI hard wordt gewerkt om dit tegen te gaan. Verder in deze Tech Update: Applegebruikers die zijn afgeluisterd door Siri kunnen nu een schadeclaim indienen See omnystudio.com/listener for privacy information.
No persons identified in this episode.
This episode hasn't been transcribed yet
Help us prioritize this episode for transcription by upvoting it.
Popular episodes get transcribed faster
Other recent transcribed episodes
Transcribed and ready to explore now
NPR News: 12-08-2025 2AM EST
08 Dec 2025
NPR News Now
NPR News: 12-07-2025 11PM EST
08 Dec 2025
NPR News Now
NPR News: 12-07-2025 10PM EST
08 Dec 2025
NPR News Now
Meidas Health: AAP President Strongly Pushes Back on Hepatitis B Vaccine Changes
08 Dec 2025
The MeidasTouch Podcast
Democrat Bobby Cole Discusses Race for Texas Governor
07 Dec 2025
The MeidasTouch Podcast
Fox News Crashes Out on Air Over Trump’s Rapid Fall
07 Dec 2025
The MeidasTouch Podcast