OpenAI’s GPT-5 is geïntroduceerd als het meest geavanceerde AI-model van het bedrijf tot nu toe, met grote verbeteringen op het gebied van nauwkeurigheid en redenering. Een van de belangrijkste veranderingen die het bedrijf benadrukt, is een aanzienlijke vermindering van hallucinaties, de term die wordt gebruikt wanneer AI informatie produceert die vals of misleidend is. Deze verbetering is bedoeld om het model betrouwbaarder te maken voor complexe taken, of het nu gaat om het beantwoorden van vragen, het assisteren bij onderzoek of het genereren van creatieve inhoud.
De nieuwe ‘denk’-modus van het model, gecombineerd met betere trainingsgegevens en verfijnde veiligheidsmechanismen, is ontworpen om antwoorden te bieden die zowel nauwkeuriger als transparanter zijn over onzekerheid. GPT-5 geeft ook eerder toe als het iets niet weet, in plaats van een zelfverzekerd maar onjuist antwoord te geven. Deze updates vertegenwoordigen de voortdurende inspanningen van OpenAI om een van de grootste kritiekpunten op eerdere AI-modellen aan te pakken: dat ze vaak overtuigende maar feitelijk onjuiste informatie produceren.
Volgens desysteem kaartvoor GPT-5 is de vermindering van hallucinaties meetbaar en varieert per modus:
- GPT-5-denken met browsen: 4,5% hallucinatiepercentage
- GPT-5-main: 9,6% hallucinatiepercentage
- o3: 12,7% hallucinatiepercentage
- GPT-4o: 12,9% hallucinatiepercentage
Ondanks deze verbeteringen is GPT-5 niet foutloos. Tests hebben aangetoond dat hoewel het aantal hallucinaties is gedaald vergeleken met GPT-4o, het model nog steeds basisfouten kan maken. Voorbeelden zijn onder meer spellingsfouten, het verkeerd identificeren van geografische locaties en het creëren van details die niet bestaan. Deze fouten benadrukken dat, hoewel de nauwkeurigheid is verbeterd, het vermogen van het model om feitelijke juistheid te garanderen nog steeds beperkt is. Dit betekent dat gebruikers door AI gegenereerde inhoud moeten blijven verifiëren voordat ze erop kunnen vertrouwen voor belangrijke beslissingen.
De lancering van GPT-5 leidde ook tot discussie over de manier waarop AI aan het publiek wordt gepresenteerd. Beeldmateriaal en promotiemateriaal dat tijdens de aankondiging werd gebruikt, werd later bekritiseerd omdat het bepaalde statistieken verkeerd voorstelde, wat leidde tot verduidelijkingen. Dit riep vragen op over de transparantie, niet alleen in de reacties van de AI, maar ook in de manier waarop de mogelijkheden ervan worden gecommuniceerd.
De verbeteringen in GPT-5 markeren een stap voorwaarts voor de betrouwbaarheid van AI, maar herinneren er ook aan dat geen enkel AI-model perfect is. Zelfs nu het aantal hallucinaties afneemt, is de technologie nog steeds afhankelijk van patronen in gegevens in plaats van van een goed begrip van feiten. Voor toepassingen in het onderwijs, de journalistiek, de gezondheidszorg en andere gebieden waar veel op het spel staat, blijft menselijk toezicht essentieel.
Over het geheel genomen komt GPT-5 dichter bij het doel van een betrouwbaardere AI-assistent, maar voorzichtigheid is nog steeds geboden. De sterke punten van het model op het gebied van redeneren, creativiteit en gespreksvaardigheid zijn duidelijk, maar dat geldt ook voor de zwakke punten als het gaat om feitelijke nauwkeurigheid. Naarmate de AI-technologie zich blijft ontwikkelen, zal de balans tussen vloeiendheid en nauwkeurigheid centraal blijven staan in het gesprek.
