AI voor advocaten: wat gaat er mis?

Een advocaat staat voor de rechter. Hij citeert drie uitspraken van de Hoge Raad. De rechter zoekt ze op. Geen van de drie bestaat.
Dit is geen hypothetisch scenario. Volgens de NOvA-aanbevelingen AI in de advocatuur (2025) zijn er in Nederland meerdere gevallen waarbij advocaten AI-gegenereerde jurisprudentie klakkeloos hebben overgenomen en ingediend. De toezichthouder heeft onderzoeken lopen en twee advocaten moeten verplicht op cursus. Het debat over ai voor advocaten is daarmee geen toekomstige discussie meer, maar een actueel handhavingsvraagstuk.
AI-hallucinatie is een verschijnsel waarbij een taalmodel feitelijk onjuiste informatie produceert die overtuigend klinkt, inclusief verzonnen bronnen, zaaknummers of citaten. Precies dat mechanisme speelt in al deze gevallen een rol.
Wat er precies misgaat bij ai voor advocaten
AI-taalmodellen zoals ChatGPT verzinnen juridische uitspraken die niet bestaan. Ze produceren ECLI-nummers die klinken als echte zaaknummers, maar bij nazoeken nergens te vinden zijn. Het probleem is niet de technologie zelf, maar het ongecontroleerd overnemen van de output.
Volgens de Rechtbank Rotterdam was in een handelsnaamzaak van augustus 2025 geen van de aangehaalde Hoge Raad-uitspraken correct: de ECLI-nummers bestonden niet, waren irrelevant, of betroffen een volledig ander rechtsgebied. De rechtbank stelde vast dat dit AI-gegenereerde onzin was. De uitkomst van de zaak bleef gelijk, maar de advocaat had een beroepsfout kunnen krijgen wegens schending van de waarheidsplicht.
In de gevallen die de NOvA onderzocht, ontbrak precies dat: een controleslag voordat de output werd ingediend.
Niet alleen advocaten, ook eisers zonder raadsman
Niet alleen advocaten lopen tegen dit probleem aan. Ook partijen die zichzelf vertegenwoordigen zetten AI in om processtukken op te stellen, met vergelijkbare gevolgen.
Volgens de kantonrechter in een uitspraak gepubliceerd op rechtspraak.nl was dat misbruik van procesrecht. De letterlijke overweging: "Het zonder meer gebruiken van ondermaatse, door AI geproduceerde processtukken draagt bij aan misbruik van procesrecht." De tegenpartij moest extra tijd en moeite steken in het doorgronden van stellingen die juridisch nergens op sloegen.
Dat is een opmerkelijk oordeel. De rechter rekent het de eiser aan dat hij de output niet heeft laten controleren, ook al had hij dat kunnen doen door een advocaat in te schakelen. AI als excuus werkt niet.
Wat de NOvA hieraan doet
De NOvA heeft eind 2025 aanbevelingen gepubliceerd die het gebruik van AI in de advocatuur structureren. Die aanbevelingen draaien om vijf kernwaarden: deskundigheid, vertrouwelijkheid, onafhankelijkheid, integriteit en partijdigheid.
De kern van de NOvA-aanbevelingen AI in de advocatuur:
- Verificatieplicht: AI-output altijd handmatig controleren, bij voorkeur met tools die bronvermelding bieden
- Toestemmingsplicht: vraag cliënten vooraf toestemming voordat je AI inzet op hun dossier
- Vertrouwelijkheid: gebruik geen gratis AI-tools met vertrouwelijke cliëntdata
- Eindverantwoordelijkheid: de advocaat blijft altijd verantwoordelijk, ook als AI de eerste versie schreef
Toezicht en handhaving vallen onder de NOvA en lokale dekenijen. De sancties lopen van waarschuwingen tot verplichte cursussen. Wat er in andere lopende onderzoeken uitkomt, is nog onduidelijk.
Gratis AI versus betaalde juridische tools: een relevant verschil
Niet alle AI-tools zijn gelijk voor juridisch werk, en dat verschil is de moeite waard om te benoemen.
Er zijn signalen dat gratis versies van ChatGPT minder goed presteren voor Nederlands recht, met name bij nationale rechtsgebieden als arbeidsrecht en vennootschapsrecht. Het ai-forum.nl beschrijft dit mechanisme aan de hand van concrete voorbeelden van nepjurisprudentie. Betaalde versies scoren beter, maar vereisen expliciete verificatie. Gespecialiseerde juridische AI-tools, zoals Sdu Genial, zijn gebouwd met bronvermelding als kernfunctie: ze verwijzen naar echte uitspraken in de databank, niet naar hallucinaties.
De NOvA raadt dan ook aan om te kiezen voor gespecialiseerde, betaalde juridische AI-tools boven generieke chatbots voor gevoelig juridisch werk. Dat is geen marketingadvies, dat is een praktische conclusie uit wat er nu mis gaat.
Wat betekent dit voor ai voor advocaten buiten de rechtszaal?
Dit is een juridisch verhaal, maar het patroon is herkenbaar in elk vakgebied waar AI wordt ingezet voor werk dat consequenties heeft.
Iemand gebruikt een AI-tool, vertrouwt de output, en dient die in zonder te controleren. In de rechtszaal leidt dat tot nepjurisprudentie. In een offerte kan het leiden tot verkeerde prijzen. In een compliance-document tot juridische fouten.
De vraag die dit opwerpt voor elke organisatie die AI inzet: wie is eindverantwoordelijk voor de output, en hoe wordt die gecontroleerd? Bij de NOvA is het antwoord helder: de advocaat, altijd. Maar in veel bedrijven is die eindverantwoordelijkheid nog niet belegd.
Dit raakt ook aan een bredere discussie over AI-beveiliging en controle. Wie de post over AI agents die met elkaar communiceren heeft gelezen, herkent het thema: autonomie zonder toezicht leidt tot onverwachte uitkomsten. En in de analyse van de Copilot-bug die vertrouwelijke e-mails las, zag je hetzelfde mechanisme: een tool die meer doet dan de gebruiker doorheeft.
Rechters zelf ook niet vrij van kritiek
Een detail dat niet onvermeld mag blijven: ook rechters zelf gebruikten AI in 2024, met vergelijkbare risico's.
De Rechtbank Gelderland gebruikte ChatGPT om schade te begroten in een burenruzie over zonnepanelen. De rechter schatte de levensduur van zonnepanelen via AI, zonder dat partijen hierover input konden geven. Dat schendt mogelijk het recht op hoor en wederhoor, een fundamenteel beginsel van het procesrecht.
Met andere woorden: het probleem is niet specifiek voor advocaten of voor AI-gebruikers zonder juridische opleiding. Het is een probleem van onvoldoende controle op AI-output in situaties met serieuze consequenties.
Waar het op neerkomt
Wat opvalt in al deze gevallen, van de handelsnaamzaak in Rotterdam tot de processtukken van de zelfvertegenwoordigende eiser, is dat verificatie werd overgeslagen. Niet omdat mensen het niet konden, maar omdat de output overtuigend genoeg klonk om door te laten gaan.
Wat ook opvalt: de keuze voor het juiste tool blijkt in de praktijk het verschil te maken. Generieke chatbots zijn niet gebouwd voor werk waarbij bronvermelding kritisch is. Gespecialiseerde tools, gebouwd op geverifieerde data, geven betrouwbaardere output voor gevoelige toepassingen, en dat geldt niet alleen in de juridische sector, maar ook in compliance, finance of medische context.
En in de advocatuur is inmiddels helder wie tekent voor de juistheid van de output: de advocaat, altijd. In veel andere organisaties is die vraag nog open.
Voor wie wil weten hoe je dat procesmatig organiseert: de post over AI agents bouwen die echt werken in productie gaat precies over dit soort structuurvragen. En als je nadenkt over welk model je daarvoor inzet, is de vergelijking van het beste AI-model in 2026 een nuttig startpunt.
De conclusie die telt
AI voor advocaten is niet per definitie een slecht idee. Het is een krachtig gereedschap voor onderzoek, drafting en analyse. Maar het is geen orakel, en het is zeker geen juridisch expert.
De gevallen die de NOvA nu onderzoekt, zijn geen technisch falen. Het zijn menselijke fouten: iemand vertrouwde een output die hij had moeten controleren. De toezichthouder trekt daar nu een grens. Andere sectoren wachten waarschijnlijk niet lang voordat ze hetzelfde doen.