AI-vertrouwen speelt een centrale rol in hoe Nederland naar kunstmatige intelligentie kijkt. Volgens de nieuwste Nationale AI Vertrouwensmonitor 2025 van KPMG neemt het gebruik van AI flink toe, maar blijft het vertrouwen kritisch en vooral afhankelijk van menselijke controle.
De onderliggende cijfers tonen aan dat veel Nederlanders AI zien als handig hulpmiddel, maar dat men duidelijk grenzen blijft trekken wanneer het om belangrijke keuzes gaat. In dit artikel verkennen we wat het onderzoek onthult, welke signalen relevant zijn voor bedrijven en beleidsmakers en hoe dit past binnen een groter maatschappelijk debat over AI‑ethiek en regulering.
Groei gebruik, matig vertrouwen
De Nationale AI Vertrouwensmonitor 2025 is uitgevoerd onder 1.013 Nederlanders die bekend zijn met AI (89 procent van de totale steekproef) en belicht zowel gebruik als houding ten opzichte van AI.AI is, dat blijkt, overal aanwezig. Veel mensen gebruiken het voor dagelijkse taken zoals zoeken, inspiratie en praktische instructies. Volgens het onderzoek gebruikt 86 procent van de AI‑bekenden AI vooral voor die basisfuncties.
Toch is het vertrouwen in de technologie vooralsnog voorzichtig. Gemiddeld geven respondenten AI een 5,8, dus net een voldoende. Slechts 37 procent verwacht dat AI ‘de juiste antwoorden’ geeft. Dat geeft te denken. De adoptie is groot, het gebruik wijdverbreid, maar blind vertrouwen zit er duidelijk (nog) niet in. Voor veel mensen blijft AI een hulpmiddel, niet een autonome autoriteit.
Menselijke controle blijft cruciaal
Een van de kerninzichten uit het onderzoek is de brede overtuiging dat menselijke supervisie essentieel blijft. Zo zegt 84 procent dat bij belangrijke beslissingen een mens het laatste woord moet hebben. 83 procent vindt dat AI nooit volledig autonoom beslissingen mag nemen over zaken die het dagelijks leven direct beïnvloeden. Die behoefte aan menselijke regie weerspiegelt wat velen voelen. AI is handig, maar ethiek, nuance, context, dat blijft mensenwerk. Zeker bij keuzes met serieuze gevolgen. Denk aan medische adviezen, financiële beslissingen of ethische dilemma’s.
Nederlanders maken duidelijk onderscheid tussen ‘laagrisico‑taken’ en ‘hoogrisico‑taken’
Het onderzoek laat zien dat het vertrouwen afneemt naarmate de taak risicovoller is. Slechts 14 procent vertrouwt hypotheekadvies volledig toe aan AI, minder dan 5 procent zou AI gebruiken om medewerkers te beoordelen en nog maar 4 procent zou een openhartoperatie toevertrouwen aan AI. Dat onderschrijft dat Nederlanders duidelijk onderscheid maken tussen ‘laagrisico‑taken’ waar gemak primeert, zoals routeplannen of dieetadvies, en ‘hoogrisico‑taken’ waar menselijke beoordeling essentieel blijft.
Uitbreiding van AI‑gebruik: van werk tot mentale steun
Het gebruik van AI beperkt zich allang niet meer tot zoekopdrachten of praktische tools. Volgens de monitor zet ongeveer 70 procent van de AI‑gebruikers AI in op de werkvloer. Twee derde zegt efficiënter te werken en de helft ervaart zelfs dat de kwaliteit van werk verbetert. Onder studenten gebruikt 85 procent AI als studiehulpmiddel. Maar tegelijk voelen velen druk, want ruim een derde geeft aan dat de lat hoger ligt door AI en 15 procent zegt zelfs dat ze de studie niet meer kunnen halen zonder AI. Opvallend is dat een kwart van de AI‑gebruikers AI vraagt om medisch advies en onder jongvolwassen gebruikers gebruikt 20 procent AI voor mentale ondersteuning.
Dit laat zien dat AI doordringt in steeds persoonlijkere domeinen. Daar komt potentie bij kijken zoals gemak, efficiënte, toegang tot kennis, maar ook zorg. Volgens het onderzoek voelt bijna 10 procent van de gebruikers zich soms losgeraakt van de werkelijkheid door het gebruik van AI. Hier rijst de vraag hoeveel van die gebruikers zich realiseren dat AI geen mens is en dat empathie, context, kritisch denken soms onmisbaar zijn. De onderzoekers benadrukken terecht dat professionals, zeker in gevoelige domeinen zoals mentale gezondheid, cruciaal blijven.
Risico’s: nep‑informatie, privacy en ethiek
[Foto: WOKANDAPIX | Pixabay]
De zorgen rond AI zijn breed en sterk aanwezig. Volgens de monitor is nepinformatie voor 89 procent de grootste zorg. Privacy volgt op 85 procent. Veel gebruikers vrezen dat autonome AI-systemen in gevoelige domeinen onwenselijk zijn of dat menselijke controle verdwijnt. Meer dan vier op de vijf respondenten maakt zich zorgen over het gebruik van AI in oorlogsvoering. Tegelijk is het vertrouwen in AI verontrustend laag wanneer het gaat om beslissingen met grote impact, zoals bij een hypotheek, medische keuzes en beoordelingen.
Die zorgen sluiten aan bij bredere internationale trends. Een recent internationaal onderzoek concludeerde dat publieke steun voor AI‑regulering groot is en dat perceptie van risico’s sterk samenhangt met de wens voor menselijke regie en regelgeving. Bovendien benadrukken onderzoekers dat er vaak een kloof bestaat tussen wat experts verwachten van AI en hoe het publiek AI waarneemt. De experts schatten de kans op succes hoger in en de risico’s lager, terwijl het publiek andersom geneigd is. Ze wegen risico’s relatief zwaar.
Wat dit betekent voor bedrijven, beleidsmakers en onderwijs
De bevindingen van de Vertrouwensmonitor 2025 hebben concrete implicaties voor verschillende stakeholders:
Organisaties en werkgevers: Bedrijven die AI willen inzetten, moeten beseffen dat medewerkers duurzaamheid en transparantie verwachten. Bij werkgerelateerd gebruik is het cruciaal om goede training te bieden, duidelijke kaders te stellen en mensen bewust te maken van beperkingen van AI. Gebrek aan beleid of onvoldoende communicatie, zoals uit eerdere onderzoeken blijkt, schaadt vertrouwen.
Onderwijsinstellingen: Als studenten AI gebruiken voor studie, is dat een kans en een risico. Onderwijsinstellingen moeten begeleiden in verantwoord gebruik, zoals het stimuleren van kritisch denken, het checken van AI-output en uitleg geven over de voor- en nadelen. Zonder begeleiding kan AI leiden tot prestatiedruk, overbelasting of afhankelijkheid.
Beleidsmakers en regulering: De brede steun voor menselijke controle en regulering bij gevoelige beslissingen onderstreept de noodzaak van heldere kaders en wetten. Publieke zorgen over privacy, nepinformatie en misbruik vragen om regelgeving, transparantie en accountability. Dit sluit aan bij bredere internationale oproepen om AI‑gebruik te reguleren en te waarborgen dat verantwoordelijkheid blijft liggen bij mensen.
Hoe past dit in bredere trends
Nederlanders zijn voorzichtig met AI, maar dat is niet uniek. Uit internationaal onderzoek van 2025 blijkt dat veel Europeanen, waaronder Nederlanders, meer vertrouwen hebben in institutionele regulering, zoals de Europese Unie, dan in commerciële techbedrijven of in andere landen.
AI is van hype naar realiteit gegaan
Tegelijk waarschuwen academische studies dat na de recente opmars van generatieve AI het publieke vertrouwen in AI weer kan dalen. Dan neemt de acceptatie af en stijgt de vraag naar menselijke controle. Dat toont aan dat we ons momenteel op een kantelpunt bevinden. AI is van hype naar realiteit gegaan, maar de maatschappelijke acceptatie, zeker bij belangrijke beslissingen, blijft kritisch.
Vertrouwen moet je verdienen
De Nationale AI Vertrouwensmonitor 2025 laat zien dat AI in Nederland stevig is ingeburgerd voor zoeken, werk, studie en inspiratie. Maar vertrouwen is voor veel mensen voorlopig geen vanzelfsprekendheid. Gemak kan AI populair maken, maar wanneer het gaat om keuzes met impact, hechten Nederlanders aan menselijke controle.
Voor organisaties, onderwijsinstellingen en beleidsmakers betekent dit dat als je AI inzet, je dat met oog voor transparantie, ethiek en menselijke regie doet. Anders riskeer je een verlies aan vertrouwen en maatschappelijke tegenwind. AI is er en kan veel betekenen, maar vertrouwen moet je verdienen.
AI-vertrouwen Nederland: gemak en eis voor controle
Massaal gebruik AI, maar geen blind vertrouwen
AI-vertrouwen speelt een centrale rol in hoe Nederland naar kunstmatige intelligentie kijkt. Volgens de nieuwste Nationale AI Vertrouwensmonitor 2025 van KPMG neemt het gebruik van AI flink toe, maar blijft het vertrouwen kritisch en vooral afhankelijk van menselijke controle.
De onderliggende cijfers tonen aan dat veel Nederlanders AI zien als handig hulpmiddel, maar dat men duidelijk grenzen blijft trekken wanneer het om belangrijke keuzes gaat. In dit artikel verkennen we wat het onderzoek onthult, welke signalen relevant zijn voor bedrijven en beleidsmakers en hoe dit past binnen een groter maatschappelijk debat over AI‑ethiek en regulering.
Groei gebruik, matig vertrouwen
De Nationale AI Vertrouwensmonitor 2025 is uitgevoerd onder 1.013 Nederlanders die bekend zijn met AI (89 procent van de totale steekproef) en belicht zowel gebruik als houding ten opzichte van AI. AI is, dat blijkt, overal aanwezig. Veel mensen gebruiken het voor dagelijkse taken zoals zoeken, inspiratie en praktische instructies. Volgens het onderzoek gebruikt 86 procent van de AI‑bekenden AI vooral voor die basisfuncties.
Toch is het vertrouwen in de technologie vooralsnog voorzichtig. Gemiddeld geven respondenten AI een 5,8, dus net een voldoende. Slechts 37 procent verwacht dat AI ‘de juiste antwoorden’ geeft. Dat geeft te denken. De adoptie is groot, het gebruik wijdverbreid, maar blind vertrouwen zit er duidelijk (nog) niet in. Voor veel mensen blijft AI een hulpmiddel, niet een autonome autoriteit.
Menselijke controle blijft cruciaal
Een van de kerninzichten uit het onderzoek is de brede overtuiging dat menselijke supervisie essentieel blijft. Zo zegt 84 procent dat bij belangrijke beslissingen een mens het laatste woord moet hebben. 83 procent vindt dat AI nooit volledig autonoom beslissingen mag nemen over zaken die het dagelijks leven direct beïnvloeden. Die behoefte aan menselijke regie weerspiegelt wat velen voelen. AI is handig, maar ethiek, nuance, context, dat blijft mensenwerk. Zeker bij keuzes met serieuze gevolgen. Denk aan medische adviezen, financiële beslissingen of ethische dilemma’s.
Het onderzoek laat zien dat het vertrouwen afneemt naarmate de taak risicovoller is. Slechts 14 procent vertrouwt hypotheekadvies volledig toe aan AI, minder dan 5 procent zou AI gebruiken om medewerkers te beoordelen en nog maar 4 procent zou een openhartoperatie toevertrouwen aan AI. Dat onderschrijft dat Nederlanders duidelijk onderscheid maken tussen ‘laagrisico‑taken’ waar gemak primeert, zoals routeplannen of dieetadvies, en ‘hoogrisico‑taken’ waar menselijke beoordeling essentieel blijft.
Uitbreiding van AI‑gebruik: van werk tot mentale steun
Het gebruik van AI beperkt zich allang niet meer tot zoekopdrachten of praktische tools. Volgens de monitor zet ongeveer 70 procent van de AI‑gebruikers AI in op de werkvloer. Twee derde zegt efficiënter te werken en de helft ervaart zelfs dat de kwaliteit van werk verbetert. Onder studenten gebruikt 85 procent AI als studiehulpmiddel. Maar tegelijk voelen velen druk, want ruim een derde geeft aan dat de lat hoger ligt door AI en 15 procent zegt zelfs dat ze de studie niet meer kunnen halen zonder AI. Opvallend is dat een kwart van de AI‑gebruikers AI vraagt om medisch advies en onder jongvolwassen gebruikers gebruikt 20 procent AI voor mentale ondersteuning.
Dit laat zien dat AI doordringt in steeds persoonlijkere domeinen. Daar komt potentie bij kijken zoals gemak, efficiënte, toegang tot kennis, maar ook zorg. Volgens het onderzoek voelt bijna 10 procent van de gebruikers zich soms losgeraakt van de werkelijkheid door het gebruik van AI. Hier rijst de vraag hoeveel van die gebruikers zich realiseren dat AI geen mens is en dat empathie, context, kritisch denken soms onmisbaar zijn. De onderzoekers benadrukken terecht dat professionals, zeker in gevoelige domeinen zoals mentale gezondheid, cruciaal blijven.
Risico’s: nep‑informatie, privacy en ethiek
De zorgen rond AI zijn breed en sterk aanwezig. Volgens de monitor is nepinformatie voor 89 procent de grootste zorg. Privacy volgt op 85 procent. Veel gebruikers vrezen dat autonome AI-systemen in gevoelige domeinen onwenselijk zijn of dat menselijke controle verdwijnt. Meer dan vier op de vijf respondenten maakt zich zorgen over het gebruik van AI in oorlogsvoering. Tegelijk is het vertrouwen in AI verontrustend laag wanneer het gaat om beslissingen met grote impact, zoals bij een hypotheek, medische keuzes en beoordelingen.
Die zorgen sluiten aan bij bredere internationale trends. Een recent internationaal onderzoek concludeerde dat publieke steun voor AI‑regulering groot is en dat perceptie van risico’s sterk samenhangt met de wens voor menselijke regie en regelgeving. Bovendien benadrukken onderzoekers dat er vaak een kloof bestaat tussen wat experts verwachten van AI en hoe het publiek AI waarneemt. De experts schatten de kans op succes hoger in en de risico’s lager, terwijl het publiek andersom geneigd is. Ze wegen risico’s relatief zwaar.
Wat dit betekent voor bedrijven, beleidsmakers en onderwijs
De bevindingen van de Vertrouwensmonitor 2025 hebben concrete implicaties voor verschillende stakeholders:
Organisaties en werkgevers:
Bedrijven die AI willen inzetten, moeten beseffen dat medewerkers duurzaamheid en transparantie verwachten. Bij werkgerelateerd gebruik is het cruciaal om goede training te bieden, duidelijke kaders te stellen en mensen bewust te maken van beperkingen van AI. Gebrek aan beleid of onvoldoende communicatie, zoals uit eerdere onderzoeken blijkt, schaadt vertrouwen.
Onderwijsinstellingen:
Als studenten AI gebruiken voor studie, is dat een kans en een risico. Onderwijsinstellingen moeten begeleiden in verantwoord gebruik, zoals het stimuleren van kritisch denken, het checken van AI-output en uitleg geven over de voor- en nadelen. Zonder begeleiding kan AI leiden tot prestatiedruk, overbelasting of afhankelijkheid.
Beleidsmakers en regulering:
De brede steun voor menselijke controle en regulering bij gevoelige beslissingen onderstreept de noodzaak van heldere kaders en wetten. Publieke zorgen over privacy, nepinformatie en misbruik vragen om regelgeving, transparantie en accountability. Dit sluit aan bij bredere internationale oproepen om AI‑gebruik te reguleren en te waarborgen dat verantwoordelijkheid blijft liggen bij mensen.
Hoe past dit in bredere trends
Nederlanders zijn voorzichtig met AI, maar dat is niet uniek. Uit internationaal onderzoek van 2025 blijkt dat veel Europeanen, waaronder Nederlanders, meer vertrouwen hebben in institutionele regulering, zoals de Europese Unie, dan in commerciële techbedrijven of in andere landen.
Tegelijk waarschuwen academische studies dat na de recente opmars van generatieve AI het publieke vertrouwen in AI weer kan dalen. Dan neemt de acceptatie af en stijgt de vraag naar menselijke controle. Dat toont aan dat we ons momenteel op een kantelpunt bevinden. AI is van hype naar realiteit gegaan, maar de maatschappelijke acceptatie, zeker bij belangrijke beslissingen, blijft kritisch.
Vertrouwen moet je verdienen
De Nationale AI Vertrouwensmonitor 2025 laat zien dat AI in Nederland stevig is ingeburgerd voor zoeken, werk, studie en inspiratie. Maar vertrouwen is voor veel mensen voorlopig geen vanzelfsprekendheid. Gemak kan AI populair maken, maar wanneer het gaat om keuzes met impact, hechten Nederlanders aan menselijke controle.
Voor organisaties, onderwijsinstellingen en beleidsmakers betekent dit dat als je AI inzet, je dat met oog voor transparantie, ethiek en menselijke regie doet. Anders riskeer je een verlies aan vertrouwen en maatschappelijke tegenwind. AI is er en kan veel betekenen, maar vertrouwen moet je verdienen.