The SparQle
  • Impact Stories
  • Digital Impact Makers
  • Thema’s
    • Digitale samenleving & ethiek
      • Digitale identiteit & vertrouwen
      • Digitale inclusie & toegankelijkheid
      • Ethische technologie & AI
      • Privacy & digitale rechten
    • Digitale soevereiniteit & economie
      • Blockchain & digitale waarde
      • Cybersecurity & nationale veiligheid
      • Data soevereiniteit & governance
      • Europese cloud & infrastructuur
    • Duurzame digitalisering & ecologie
      • Circulaire IT & duurzame inkoop
      • Green IT & CO₂-reductie
      • Meetbaarheid & rapportage (ESG/CSRD)
      • Smart cities & digitale duurzaamheid
    • Innovatie & maatschappelijke impact
      • Innovatie & ESG
      • Innovatieve technologieën
      • Startups & ondernemerschap met impact
      • Toepassingen in sectoren
    • Transparantie & verantwoord digitaliseren
      • AI governance & regelgeving
      • Data-ethiek & verantwoord gebruik
      • ESG/CSRD & rapportage
      • Transparantie & open standaarden
  • Dossiers
    • Vast in de cloud
      • De weg uit de soevereine impasse (#1)
      • Dit zijn de vijf wegen vooruit (#2)
      • Drie mythes die verlammen (#3)
      • 90% van data wordt vergeten (#4)
      • “Van bondgenoot naar vazal” (#5)
    • Digitale autonomie in actie
      • ICC ruilt Microsoft Office in
      • Zo krijg je grip op Big Tech
      • DCC geeft goede voorbeeld
      • Soevereine back-up in zorg
  • Contact
  • Doe mee met The SparQle!
Recht juridisch digital

AI-richtlijnen advocatuur markeren keerpunt

By Sander Hulsman on 14 januari 2026

Verantwoord AI-gebruik in de juridische praktijk

AI-richtlijnen in de advocatuur vormen een belangrijk kantelpunt voor de manier waarop advocaten in Nederland omgaan met kunstmatige intelligentie. Met de publicatie van de Aanbevelingen AI in de advocatuur 2025 door de Nederlandse orde van advocaten (NOvA) verschuift AI definitief van experimenteel hulpmiddel naar een structureel onderdeel van de juridische praktijk, mits correct toegepast.

De richtlijnen zijn geen vrijblijvende handreiking. Ze bouwen voort op bestaande kernwaarden van de advocatuur en vertalen deze naar een digitale context waarin generatieve AI, datastromen en algoritmische besluitvorming dagelijkse realiteit worden. Daarmee raken ze aan bredere maatschappelijke vragen over vertrouwen, verantwoordelijkheid en professionele autonomie.

Normatieve benadering

De timing van de AI-richtlijnen in de advocatuur is veelzeggend. Juridische professionals werken al volop met tools voor documentanalyse, jurisprudentieonderzoek en conceptteksten. Tegelijkertijd scherpt Europa het regelgevend kader aan, met onder meer de EU AI Act en aangescherpte handhaving van de AVG. De NOvA plaatst de advocaat expliciet tussen technologische innovatie en publieke verantwoordelijkheid.

Waar eerdere discussies vaak bleven hangen in efficiency en kostenbesparing, kiezen de AI-richtlijnen in de advocatuur voor een normatieve benadering. Niet wat technisch kan, maar wat professioneel en ethisch verantwoord is, staat centraal. Dat maakt dit document relevant buiten de juridische sector.

Deskundigheid als fundament

Binnen de AI-richtlijnen in de advocatuur neemt deskundigheid een centrale plaats in. De NOvA stelt expliciet dat basiskennis van generatieve AI geen specialisme meer is, maar een vereiste voor iedere advocaat. Het gaat daarbij niet alleen om weten wat AI kan, maar vooral om begrijpen waar de beperkingen liggen.

Nadruk op kennis sluit aan bij bredere ontwikkelingen in professionele dienstverlenin

Hallucinaties, bias en foutieve bronverwijzingen vormen reële risico’s bij het gebruik van taalmodellen. De richtlijnen benadrukken daarom structurele verificatie van AI-output. De advocaat moet altijd controleren of citaten, jurisprudentie en feiten kloppen, en mag output nooit ongezien overnemen.

Deze nadruk op kennis sluit aan bij bredere ontwikkelingen in professionele dienstverlening. Ook accountants, artsen en beleidsmakers worden steeds vaker geacht algoritmische systemen kritisch te kunnen beoordelen.

Vertrouwelijkheid en privacy onder druk

Een van de meest concrete onderdelen van de AI-richtlijnen in de advocatuur gaat over vertrouwelijkheid. De boodschap is helder: geen clientgegevens in gratis of publieke AI-tools. Advocaten moeten weten waar data worden opgeslagen, hoe leveranciers omgaan met input en output, en welke onderaannemers betrokken zijn.

De richtlijnen maken duidelijk dat privacy-by-design geen abstract beginsel is, maar dagelijkse praktijk. Denk aan het beperken van input tot strikt noodzakelijke informatie, het documenteren van afwegingen en het uitvoeren van een DPIA bij persoonsgegevens.

Deze passages raken direct aan de AVG en aan discussies over data soevereiniteit. Ze maken inzichtelijk dat AI-gebruik niet losstaat van infrastructuurkeuzes en contractuele afspraken.

Onafhankelijkheid en menselijke regie

Recht AI-richtlijnen

[Illustratie: herbinisaac | Pixabay]

Een kernzin uit de AI-richtlijnen in de advocatuur luidt: AI ondersteunt, maar stuurt niet. Daarmee positioneert de NOvA zich duidelijk tegen vormen van automatisering waarbij professionele oordeelsvorming verschuift naar systemen.

De advocaat blijft eindverantwoordelijk voor advies en rechtsbijstand. Dat betekent ook dat AI-tools niet leidend mogen zijn in strategische keuzes of juridische interpretaties. De richtlijnen waarschuwen expliciet voor systemen die geneigd zijn een prompt te bevestigen, ook als deze inhoudelijk onjuist is.

Deze nadruk op menselijke regie sluit aan bij Europese beleidslijnen waarin human oversight een kernvereiste vormt voor hoog-risico AI-toepassingen.

Integriteit vraagt om transparantie

Integriteit krijgt in de AI-richtlijnen in de advocatuur een organisatorische invulling. Kantoren worden aangespoord om kantoorbreed AI-beleid op te stellen en clienten hierover te informeren. Intern moet helder zijn wie welke tools gebruikt en onder welke voorwaarden.

Opvallend is dat de NOvA ook wijst op impliciete dataverzameling, zoals metadata of contextuele informatie buiten de expliciete prompt. Dit onderstreept dat integriteit niet alleen gaat over intenties, maar ook over systeemgedrag.

Deze benadering raakt aan bredere discussies over explainable AI en transparantie in digitale besluitvorming.

Partijdigheid en rechtmatige belangenbehartiging

De AI-richtlijnen in de advocatuur maken korte metten met een mogelijk spanningsveld tussen neutraliteit van technologie en partijdigheid van de advocaat. AI mag nooit leidend zijn in belangenbehartiging. De advocaat blijft verantwoordelijk voor een partijdige, maar rechtmatige inzet van middelen.

Dit is relevant in een tijd waarin algoritmen vaak worden gepresenteerd als objectief of neutraal. De NOvA benadrukt dat juridische praktijk altijd contextueel en normatief is.

Voorbeeld voor andere sectoren

Wat deze richtlijnen bijzonder maakt, is hun overdraagbaarheid. De combinatie van kernwaarden, concrete handelingsperspectieven en aandacht voor governance maakt ze relevant voor andere kennisintensieve sectoren.

Verschuiving van vrijblijvend experimenteren naar volwassen, verantwoord gebruik van A

De AI-richtlijnen in de advocatuur laten zien hoe professionele standaarden kunnen worden vertaald naar een digitale werkelijkheid zonder innovatie te blokkeren. Ze vormen daarmee een praktisch voorbeeld van verantwoord digitaliseren.

In die zin overstijgt dit document de juridische context. Het draagt bij aan het bredere debat over hoe Europa technologie wil inzetten met behoud van vertrouwen en autonomie.

Verantwoord gebruik van AI

De AI-richtlijnen in de advocatuur markeren een verschuiving van vrijblijvend experimenteren naar volwassen, verantwoord gebruik van AI. Door kernwaarden centraal te stellen, geeft de NOvA richting aan een praktijk waarin technologie onmisbaar wordt, maar nooit leidend.

Voor The SparQle past dit onderwerp binnen de kernvraag hoe digitalisering kan bijdragen aan maatschappelijke waarde, mits goed gestuurd. De advocatuur laat zien dat normstelling en innovatie geen tegenpolen hoeven te zijn.

AIAI governanceDigitale governanceEthische AIEU AI ActPrivacy
Posted in AI governance & regelgeving, Data-ethiek & verantwoord gebruik, Digitale samenleving & ethiek, Ethische technologie & AI, Innovatie & maatschappelijke impact, Privacy & digitale rechten, Toepassingen in sectoren, Transparantie & verantwoord digitaliseren.
Share
PreviousAgentic AI Foundation: nieuwe standaard voor open AI
Next“Digitale overheid zonder ruggengraat faalt”
Tekengebied 3
  • Contact
  • Updates
  • Doe mee!
  • Disclaimer
  • Algemene Voorwaarden
  • Privacy
Alle intellectuele eigendomsrechten op de inhoud van deze website, waaronder teksten, afbeeldingen, logo’s en grafische elementen, berusten bij The SparQle, tenzij anders vermeld. Het is niet toegestaan om materiaal van deze website te kopiëren, verspreiden of te gebruiken zonder voorafgaande schriftelijke toestemming van The SparQle.
© 2026 SparQle Media
  • Impact Stories
  • Digital Impact Makers
  • Thema’s
    • Digitale samenleving & ethiek
      • Digitale identiteit & vertrouwen
      • Digitale inclusie & toegankelijkheid
      • Ethische technologie & AI
      • Privacy & digitale rechten
    • Digitale soevereiniteit & economie
      • Blockchain & digitale waarde
      • Cybersecurity & nationale veiligheid
      • Data soevereiniteit & governance
      • Europese cloud & infrastructuur
    • Duurzame digitalisering & ecologie
      • Circulaire IT & duurzame inkoop
      • Green IT & CO₂-reductie
      • Meetbaarheid & rapportage (ESG/CSRD)
      • Smart cities & digitale duurzaamheid
    • Innovatie & maatschappelijke impact
      • Innovatie & ESG
      • Innovatieve technologieën
      • Startups & ondernemerschap met impact
      • Toepassingen in sectoren
    • Transparantie & verantwoord digitaliseren
      • AI governance & regelgeving
      • Data-ethiek & verantwoord gebruik
      • ESG/CSRD & rapportage
      • Transparantie & open standaarden
  • Dossiers
    • Vast in de cloud
      • De weg uit de soevereine impasse (#1)
      • Dit zijn de vijf wegen vooruit (#2)
      • Drie mythes die verlammen (#3)
      • 90% van data wordt vergeten (#4)
      • “Van bondgenoot naar vazal” (#5)
    • Digitale autonomie in actie
      • ICC ruilt Microsoft Office in
      • Zo krijg je grip op Big Tech
      • DCC geeft goede voorbeeld
      • Soevereine back-up in zorg
  • Contact
  • Doe mee met The SparQle!