De rechter en de robot

De rechter en de robot

Waarom je ChatGPT niet als ‘deskundige’ in de rechtszaal moet gebruiken

Kunstmatige intelligentie (AI) is overal. We gebruiken het om teksten te schrijven, ideeën te brainstormen en complexe informatie samen te vatten. Het was dan ook een kwestie van tijd voordat ChatGPT prominent zijn opwachting zou maken in de Nederlandse rechtszaal. Dat gebeurde onlangs in een opmerkelijke rechtszaak bij de Rechtbank Oost-Brabant [ECLI:NL:RBOBR:2026:2232]. Een advocaat probeerde een door ChatGPT geschreven analyse als hard bewijs in te dienen om onder een gepeperde factuur uit te komen. De rechter trapte er echter niet in. Waarom niet? En wat leert dit ons over de rol van AI in de advocatuur?

De casus: een onbetaalde factuur van ruim € 150.000,-

De zaak draaide om een conflict tussen een consultancybureau en een klant. Het consultancybureau had een uitgebreid businessplan opgesteld voor de klant, waarvoor een totaalprijs van € 188.000,- was afgesproken. Nadat het definitieve plan was opgeleverd, stuurde het bureau de eindfactuur. De klant weigerde echter het resterende bedrag van ruim € 150.000,- te betalen. De reden? Het businessplan zou kwalitatief ver onder de maat zijn en niet voldoen aan de eisen uit de offerte.

In een juridische procedure is het niet voldoende om simpelweg te roepen dat de tegenpartij slecht werk heeft geleverd; je moet dit ook bewijzen. Om de slechte kwaliteit van het businessplan aan te tonen, besloot de advocaat van de klant de hulp van ChatGPT in te roepen.

De advocaat voerde de offerte en het businessplan in bij de AI-chatbot en vroeg kennelijk of het plan aan de vereisten voldeed. De AI reageerde met een snoeiharde conclusie: “Het plan is niet concreet genoeg, onbruikbaar voor een productielijn en onvoldoende onderbouwd voor financiering.” De advocaat printte dit antwoord uit en bracht het als officieel bewijsstuk (‘productie’) in de procedure in.

De zitting: een pijnlijke ondervraging

Wie dacht dat de rechter zich zou laten overdonderen door de technologische analyse, kwam bedrogen uit. Tijdens de mondelinge behandeling voelde de rechter de advocaat stevig aan de tand over de totstandkoming van dit bewijsmiddel.

Toen de rechter vroeg welke exacte opdracht (de ‘prompt’) aan ChatGPT was gegeven, was het antwoord van de advocaat pijnlijk: “Ehm, die weet ik niet meer.” Vervolgens vroeg de rechter naar de zogeheten temperatuurinstelling van het systeem. De advocaat moest bekennen dat hij geen temperatuur had ingesteld en de vraag van de rechter niet eens begreep.

Tot overmaat van ramp bleek dat de advocaat bovendien partijdige processtukken én een verouderd, incompleet concept van het businessplan aan de chatbot had gevoerd. Het logische gevolg? De rechter schoof de AI-analyse genadeloos terzijde, oordeelde dat de klant zijn verweer onvoldoende had onderbouwd, en veroordeelde de klant tot het betalen van de volledige factuur plus flinke proceskosten.

Waarom de output van AI niet “objectief” is

Deze uitspraak roept een fundamentele vraag op: doet het er eigenlijk toe wat de instellingen of de prompt waren? Had de rechter de analyse van ChatGPT niet gewoon op de inhoud moeten beoordelen, los van hoe die tot stand is gekomen?

Het antwoord daarop schuilt in de manier waarop AI-taalmodellen werken. ChatGPT is geen onafhankelijke rechter en ook geen objectieve getuige-deskundige. Het is in de basis een systeem dat voorspelt welk woord het beste past bij de vraag die gesteld wordt, en het is sterk geneigd om de gebruiker te pleasen (in de AI-wereld ook wel sycophancy genoemd).

Als een advocaat (al dan niet sturend) aan een chatbot vraagt om argumenten te zoeken waarom een bepaald document niet deugt, dan zal de AI precies dat doen. “Garbage in, is garbage out”. In het Nederlandse civiele recht is het essentieel dat de totstandkoming van bewijs transparant en toetsbaar is voor zowel de rechter als de wederpartij. Omdat de prompt onbekend was, de instellingen niet klopten en de input gekleurd was, was de analyse methodologisch volstrekt onbetrouwbaar.

Hoe moet het dan wél? De advocaat als regisseur

Was het gebruik van AI in deze zaak dan bij voorbaat een slecht idee? Nee, zeker niet. De fatale fout zat in de manier waarop de techniek werd ingezet.

De advocaat positioneerde ChatGPT feitelijk als een onafhankelijke deskundige door de ruwe output als zelfstandig bewijsstuk in het geding te brengen. Daarmee maakte hij de betrouwbaarheid van de techniek plotseling het onderwerp van het juridische debat. En die discussie verlies je, zeker als je de techniek zelf onvoldoende snapt.

Hoe het wel had gemoeten? Een goede advocaat gebruikt technologie op de achtergrond. De advocaat had de (wellicht zeer bruikbare) kritiekpunten die ChatGPT ophoestte, kunnen inzetten als inspiratie. Door die argumenten zelf te controleren, te filteren en ze vervolgens in eigen woorden op te schrijven in de processtukken, maakt de advocaat de argumenten tot de zijne. In dat geval had de rechter niet gekeken naar de betrouwbaarheid van een chatbot, maar puur naar de overtuigingskracht van de juridische argumenten van de advocaat.

Wat betekent dit voor u?

Heeft u een juridisch geschil en zoekt u bijstand? Dan illustreert deze zaak een belangrijke les. Innovatie in de advocatuur is goed, maar AI is en blijft een hulpmiddel, geen vervanging voor het menselijke intellect.

U heeft niets aan een advocaat die blind vaart op de output van een computer en die output zonder controle over de schutting gooit bij de rechtbank. U heeft behoefte aan een expert die moderne tools slim inzet ter voorbereiding, maar zelf de regie houdt, verantwoordelijkheid neemt voor de strategie en in de rechtszaal het woord voor u voert.

Bent u verwikkeld in een zakelijk geschil, bijvoorbeeld over een onbetaalde factuur of een vermeende wanprestatie? De advocaten aangesloten bij Daniels Huisman Advocaten combineren menselijke denkkracht, jarenlange ervaring en de nieuwste inzichten om voor u het beste resultaat te behalen. Neem gerust vrijblijvend contact met ons op.

Daniels Huisman Advocaten
mr. Laurens (L.) Bezoen
E-mail: 
Telefoon: (053) 760 0860

Deze blog is met aandacht en zorgvuldigheid geschreven, maar bevat informatie van algemene en informatieve aard. De informatie in de blog kan, afhankelijk van de omstandigheden van uw specifieke geval, niet of verminderd van toepassing zijn. De informatie in de blog dient derhalve niet als juridisch advies te worden beschouwd. Daniels Huisman aanvaardt dan ook geen enkele aansprakelijkheid voor de gevolgen van het gebruik van de informatie uit de blog.