We leven in een tijd waarin AI niet langer een abstract begrip is, maar een instrument waaraan je als niet-programmeur in een week iets kunt bouwen dat door dertigduizend, vijftigduizend of zelfs 75.000 mensen wordt gebruikt. Die ambitie is precies wat achter Kies op Inhoud zit, een stemhulp die belooft niet op gevoel of imago te starten, maar bij wie jíj bent. Het vertaalt via AI je antwoorden naar een inhoudelijk stemadvies.
Voor de zwevende kiezer, iemand die nog niet weet op wie hij of zij zal stemmen, klinkt dit als een ideale toepassing: minder giswerk, meer betekenisvolle affiniteit. Maar omdat AI bekendstaat als potentieel gekleurd, ondoorzichtig en inconsistent, rijst de vraag: kan een AI-stemhulp écht neutraal zijn? En waarin onderscheidt Kies op Inhoud zich op dat vlak?
Wat doet Kies op Inhoud precies?
Wanneer je op de homepage van Kies op Inhoud komt, dan zie je de tagline ‘Stem op Inhoud, Niet op Gevoel’.De insteek is dat je eerst een selectie maakt van partijen waarin je geïnteresseerd bent (tot maximaal zes), waarna de AI vragen genereert die alleen relevant zijn voor het verschil tussen die partijen.Niet dertig vaste stellingen voor iedereen, maar een dynamische, op maat gemaakte vragenlijst. Elke vraag krijgt meerdere antwoordopties, vaak met letterlijke passages of varianten uit partijprogramma’s. Zodoende hoef je niet slechts ‘eens/oneens’ te kiezen, maar krijg je direct de nuance tussen partijen.
Na beantwoording krijg je een uitgebreid rapport: jouw profiel als kiezer (bijvoorbeeld je oriëntatie op thema’s), je top-3 partijen en toelichting waar jouw antwoorden het sterkst matchen.In de media wordt gemeld dat de eerste testers het advies een 9 gaven en de tool als “makkelijk, inhoudelijk en neutraal” omschreven. Wat ook benadrukt wordt: de makers (Vincent Everts en Maurice de Hond) positioneren de tool als onafhankelijk, zonder subsidies of sponsoring, en vrij toegankelijk. De gebruiker behoudt de regie over wat hij of zij wil delen.
Positionering Kies op Inhoud
Kies op Inhoud
Kies op Inhoud probeert enkele van deze knelpunten vooraf te adresseren:
Dynamische selectie van partijen: je begint met een selectie van minimaal twee en maximaal zes partijen. Dat verkleint het domein van mogelijk bias, omdat de verschilsvragen alleen relevant zijn tussen partijen die je al interessant vindt. Dit voorkomt dat een veel gebruikte partij telkens ‘voordeel’ krijgt.
Transparantie in beantwoording: men claimt dat de antwoorden gebaseerd zijn op passages uit partijprogramma’s, niet op een black-box AI.
Regie over privacy: de gebruiker beslist wat hij wil delen (alleen typenkiezer, top-3, neutrale oproep), het systeem legt geen ongevraagd spoor.
Kwaliteitsbewaking door menselijke experts: Maurice de Hond wordt genoemd als degene die inhoudelijke correctheid bewaakt en controleert.
Geen standaardlijst van stellingen: er is geen vaste set van dertig ja/nee-vragen voor iedereen, maar duizenden varianten stemmen op jouw situatie af.
Deze ontwerpkeuzes geven goede indicaties dat Kies op Inhoud zich wendt tot inhoudelijkheid en controleerbaarheid, in plaats van louter geavanceerde AI zonder toezicht.
Waarom zo’n tool betekenis kan hebben
Voor velen is politiek kiezen vooral emotie, merkassociaties of partij-imago. De meer genuanceerde inhoud, het lezen van programma’s, wordt vaak overgeslagen of vertaald via samenvattingen of mediafiltering. AI kan hier een rol spelen als matchmaker tussen jou en partijen, mits het op de juiste wijze is ontworpen.
Ten eerste biedt een AI-gestuurde stemhulp schaal en snelheid: in minuten krijg je een rapport op basis van duizenden combinaties van stellingen, iets wat traditioneel maanden kostte om handmatig te valideren. Dat democratiseert toegang tot politieke inhoud.
Ten tweede kan AI helpen bij het wegnemen van cognitieve barrières: veel mensen durven niet te duiken in dikke partijprogramma’s. Een begeleidende tool met heldere uitleg, context, tegenargumenten en nuance kan helpen om inhoud dichterbij te halen voor de burger.
Ten derde, als zo’n AI-tool ontworpen is met principes van uitlegbaarheid, controleerbaarheid en openheid, kan het ook fungeren als een controlemiddel tegen verhullende of populistische retoriek. Voor de kiezer kan het een spiegel zijn: “Zo zie ik jouw denkwereld ten opzichte van partijen”.
De donkere kant: bias, inconsistentie en transparantie
Maar AI-maskering is geen garantie voor eerlijkheid. Generatieve taalmodellen (LLM’s) vertonen bekend gedrag: kleine wijzigingen in input kunnen tot verschillende uitkomsten leiden. Onderzoek door TNO in samenwerking met Kieskompas toonde bijvoorbeeld aan dat LLM’s inconsistent reageren op stellingen en neigen naar een linkse oriëntatie. Dat roept serieuze vraagtekens op wanneer je deze modellen inzet voor stemadvies.
Bovendien waarschuwt de Autoriteit Persoonsgegevens (AP) expliciet voor chatbots die stemadvies geven: dergelijke systemen zijn niet transparant, kunnen vertekend advies geven en missen de controleerbaarheid die essentieel is voor een vrije democratie. Daarmee is er het risico dat een AI-stemhulp onbedoeld sturing geeft, zelfs als dat niet de ambitie was.
Voor gebruikers is het ook moeilijk in te schatten welke elementen in de berekening bepalend zijn. Bij sommige tools merk je al dat het advies niet past bij je invoer. Op Reddit schrijft iemand: “Twee keer ingevuld en twee keer werden er antwoorden gebruikt die ik absoluut niet heb aangeklikt, het advies kwam uit partijen die ik niet had gekozen.” Dat illustreert hoe belangrijk validatie, audits en openheid zijn.
Waar moet je op letten als kiezer?
Als je als kiezer deze tool gebruikt, zijn er enkele aandachtspunten:
Vraag je af: welke partijen heb ik geselecteerd? Door partijen te elimineren vooraf, kun je onbedoeld je keuzeveld vernauwen.
Kijk naar de toelichtingen: waarom is een antwoordoptie het best passend? Transparantie over hoe het matchproces werkt is essentieel.
Wees kritisch bij herhaalde invullingen: krijg je telkens hetzelfde resultaat als je de tool opnieuw gebruikt? Zo nee, dan is er mogelijk onstabiele logica.
Gebruik meerdere hulpmiddelen: vul ook klassieke stemhulpen in (zoals Kieskompas, StemWijzer) en lees zelf partijprogramma’s om de output te checken.
Realiseer je: geen tool is perfect; het is een hulpmiddel, geen absoluut advies.
AI als kans voor kritische kiezer
Kies op Inhoud toont hoe AI, mits weloverwogen toegepast, een positieve bijdrage kan leveren aan de politieke oriëntatie van de zwevende kiezer. In plaats van te vertrouwen op intuïtie of imago, kun je inhoudelijk matchen op thema’s die écht relevant zijn voor jou.
Tegelijk is het cruciaal om niet blind te vertrouwen op de machine. Transparantie, auditering, stabiele logica en menselijke controle zijn noodzakelijk om de belofte van neutrale AI niet te laten vervallen in verborgen sturing.
Uiteindelijk is dit een kans om te verkennen hoe AI-instrumenten de politieke dialoog kunnen versterken, mits verantwoord ingezet.
AI helpt zwevende kiezer: Kies op Inhoud doet het zo
We leven in een tijd waarin AI niet langer een abstract begrip is, maar een instrument waaraan je als niet-programmeur in een week iets kunt bouwen dat door dertigduizend, vijftigduizend of zelfs 75.000 mensen wordt gebruikt. Die ambitie is precies wat achter Kies op Inhoud zit, een stemhulp die belooft niet op gevoel of imago te starten, maar bij wie jíj bent. Het vertaalt via AI je antwoorden naar een inhoudelijk stemadvies.
Voor de zwevende kiezer, iemand die nog niet weet op wie hij of zij zal stemmen, klinkt dit als een ideale toepassing: minder giswerk, meer betekenisvolle affiniteit. Maar omdat AI bekendstaat als potentieel gekleurd, ondoorzichtig en inconsistent, rijst de vraag: kan een AI-stemhulp écht neutraal zijn? En waarin onderscheidt Kies op Inhoud zich op dat vlak?
Wat doet Kies op Inhoud precies?
Wanneer je op de homepage van Kies op Inhoud komt, dan zie je de tagline ‘Stem op Inhoud, Niet op Gevoel’. De insteek is dat je eerst een selectie maakt van partijen waarin je geïnteresseerd bent (tot maximaal zes), waarna de AI vragen genereert die alleen relevant zijn voor het verschil tussen die partijen. Niet dertig vaste stellingen voor iedereen, maar een dynamische, op maat gemaakte vragenlijst. Elke vraag krijgt meerdere antwoordopties, vaak met letterlijke passages of varianten uit partijprogramma’s. Zodoende hoef je niet slechts ‘eens/oneens’ te kiezen, maar krijg je direct de nuance tussen partijen.
Na beantwoording krijg je een uitgebreid rapport: jouw profiel als kiezer (bijvoorbeeld je oriëntatie op thema’s), je top-3 partijen en toelichting waar jouw antwoorden het sterkst matchen. In de media wordt gemeld dat de eerste testers het advies een 9 gaven en de tool als “makkelijk, inhoudelijk en neutraal” omschreven. Wat ook benadrukt wordt: de makers (Vincent Everts en Maurice de Hond) positioneren de tool als onafhankelijk, zonder subsidies of sponsoring, en vrij toegankelijk. De gebruiker behoudt de regie over wat hij of zij wil delen.
Positionering Kies op Inhoud
Kies op Inhoud probeert enkele van deze knelpunten vooraf te adresseren:
Deze ontwerpkeuzes geven goede indicaties dat Kies op Inhoud zich wendt tot inhoudelijkheid en controleerbaarheid, in plaats van louter geavanceerde AI zonder toezicht.
Waarom zo’n tool betekenis kan hebben
Voor velen is politiek kiezen vooral emotie, merkassociaties of partij-imago. De meer genuanceerde inhoud, het lezen van programma’s, wordt vaak overgeslagen of vertaald via samenvattingen of mediafiltering. AI kan hier een rol spelen als matchmaker tussen jou en partijen, mits het op de juiste wijze is ontworpen.
Ten eerste biedt een AI-gestuurde stemhulp schaal en snelheid: in minuten krijg je een rapport op basis van duizenden combinaties van stellingen, iets wat traditioneel maanden kostte om handmatig te valideren. Dat democratiseert toegang tot politieke inhoud.
Ten tweede kan AI helpen bij het wegnemen van cognitieve barrières: veel mensen durven niet te duiken in dikke partijprogramma’s. Een begeleidende tool met heldere uitleg, context, tegenargumenten en nuance kan helpen om inhoud dichterbij te halen voor de burger.
Ten derde, als zo’n AI-tool ontworpen is met principes van uitlegbaarheid, controleerbaarheid en openheid, kan het ook fungeren als een controlemiddel tegen verhullende of populistische retoriek. Voor de kiezer kan het een spiegel zijn: “Zo zie ik jouw denkwereld ten opzichte van partijen”.
De donkere kant: bias, inconsistentie en transparantie
Maar AI-maskering is geen garantie voor eerlijkheid. Generatieve taalmodellen (LLM’s) vertonen bekend gedrag: kleine wijzigingen in input kunnen tot verschillende uitkomsten leiden. Onderzoek door TNO in samenwerking met Kieskompas toonde bijvoorbeeld aan dat LLM’s inconsistent reageren op stellingen en neigen naar een linkse oriëntatie. Dat roept serieuze vraagtekens op wanneer je deze modellen inzet voor stemadvies.
Bovendien waarschuwt de Autoriteit Persoonsgegevens (AP) expliciet voor chatbots die stemadvies geven: dergelijke systemen zijn niet transparant, kunnen vertekend advies geven en missen de controleerbaarheid die essentieel is voor een vrije democratie. Daarmee is er het risico dat een AI-stemhulp onbedoeld sturing geeft, zelfs als dat niet de ambitie was.
Voor gebruikers is het ook moeilijk in te schatten welke elementen in de berekening bepalend zijn. Bij sommige tools merk je al dat het advies niet past bij je invoer. Op Reddit schrijft iemand: “Twee keer ingevuld en twee keer werden er antwoorden gebruikt die ik absoluut niet heb aangeklikt, het advies kwam uit partijen die ik niet had gekozen.” Dat illustreert hoe belangrijk validatie, audits en openheid zijn.
Waar moet je op letten als kiezer?
Als je als kiezer deze tool gebruikt, zijn er enkele aandachtspunten:
AI als kans voor kritische kiezer
Kies op Inhoud toont hoe AI, mits weloverwogen toegepast, een positieve bijdrage kan leveren aan de politieke oriëntatie van de zwevende kiezer. In plaats van te vertrouwen op intuïtie of imago, kun je inhoudelijk matchen op thema’s die écht relevant zijn voor jou.
Tegelijk is het cruciaal om niet blind te vertrouwen op de machine. Transparantie, auditering, stabiele logica en menselijke controle zijn noodzakelijk om de belofte van neutrale AI niet te laten vervallen in verborgen sturing.
Uiteindelijk is dit een kans om te verkennen hoe AI-instrumenten de politieke dialoog kunnen versterken, mits verantwoord ingezet.