In de aanloop naar de Tweede Kamerverkiezingen van 29 oktober 2025 zien we dat kunstmatige intelligentie (AI), Big Tech-platforms en dataverzameling centraal staan in de campagne-voering, de informatievoorziening en helaas ook in de misleiding. Maar hoe groot is het probleem echt? Wat betekent het voor jou als kiezer? En hoe kun je waakzaam blijven?
Wat speelt er in 2025 op het snijvlak van AI, data en verkiezingen
- AI-tools worden actief ingezet in deze verkiezingscampagne: partijen gebruiken AI voor communicatie, visuele content, campagneliedjes, beeldbewerking en meer. (RTL Nederland)
- Tegelijk waarschuwt de Autoriteit Persoonsgegevens (AP) dat AI-chatbots als stemhulp niet betrouwbaar zijn: ze geven opvallend vaak een beperkt aantal partijen als advies en kunnen hierdoor kiezers onbewust in een richting duwen. (NOS)
- Platforms, Big Tech en tech-bedrijven onderkennen het risico van manipulatie en misleiding door AI-gegenereerde content (deepfakes, nepbeeld, nepadvies) en werken samen om misbruik tegen te gaan. (NU.nl)
- Ook partijen hebben in hun verkiezingsprogramma’s digitale thema’s opgenomen: AI-beleid, algoritmeregulering, media en toezicht staan op de agenda. (AIMarketingNieuws)
Kortom: dit keer gaat het bij de verkiezingen niet alleen over de klassieke thema’s (zorg, woningmarkt, veiligheid) maar ook expliciet over wie onze data bezit, wie de algoritmes beheert, en hoe de informatie wordt gemanipuleerd.
Waarom dit thema relevant is voor de kiezer
- Misleiding via AI kan de keuzevrijheid ondermijnen. Als stemhulp-chatbots of gepersonaliseerde campagnematerialen stelselmatig een bepaalde groep partijen aanbevelen of beelden verspreiden die gepolijst zijn met AI, dan krijgt de kiezer mogelijk geen eerlijk spel. Bijvoorbeeld: de AP ontdekte dat AI-chatbots opvallend vaak terechtkomen bij twee partijen, waardoor middenpartijen nauwelijks werden aanbevolen. (NOS)
- Datagrabbers & Big Tech hebben invloed. Jouw klikgedrag, interesses, profielgegevens worden door grote platforms verzameld. Deze data gebruiken partijen en platforms om jou gericht te beïnvloeden. Zodra AI daar bovenop komt (die bepaalt welke content je ziet, welke beelden je voorgeschoteld krijgt) staat de transparantie op het spel.
- Vertrouwen in democratie & informatievoorziening. Bij verkiezingen hoort dat kiezers toegang hebben tot helder, onbevooroordeeld en relevant materiaal. Maar als AI content maakt of vormgeeft zonder dat je het merkt (deepfakes, gemanipuleerde beelden, verborgen beïnvloeding), dan verzwakt dat vertrouwen.
- Complexiteit is moeilijk te detecteren. Waar vroeger misleiding zichtbaar was (een nepkrant-cover, een fake foto), is het nu subtieler: AI-beelden die net iets ‘off’ lijken, of stemadvies-chatbots die onzichtbare bias hebben. De gemiddelde kiezer heeft minder hulpmiddelen om dit te doorgronden.
Voorbeelden en ontwikkelingen rond de verkiezingen 2025
- Een recent artikel meldt dat politieke partijen foto’s in hun campagnemateriaal gebruiken die tot de conclusie leidde dat het illustratiemateriaal waarschijnlijk door AI is aangemaakt — bijvoorbeeld een koe met twee lichamen in het programma van een partij. (RTL Nederland)
- De AP waarschuwt expliciet: “Vertrouw AI-chatbots niet als stemhulp”. In hun onderzoek kwam bijvoorbeeld naar voren dat bepaalde grote partijen flink oververtegenwoordigd werden in de adviezen van chatbots. (NOS)
- Een AI-assistent van het platform BeleidsRadarGPT doorzoekt meer dan 1 miljoen overheidsdocumenten om kiezers te helpen inzicht te krijgen in verkiezingsmateriaal. Dit laat zien dat AI níet alleen een risico is, maar ook hulpmiddel kan zijn mits kritisch gebruikt. (Informatie Professional)
- Tech-bedrijven bundelen krachten om nep-AI-content rond verkiezingen te bestrijden maar er zijn nog geen bindende plichten. (RTL Nederland)
Waar schort het nog? De risico’s op een rij
- Gebrek aan transparantie
– AI-gegenereerde beelden of audio worden soms niet als zodanig gelabeld.
– Partijen geven vaak geen helder inzicht in hoe zij AI gebruiken in campagnes. (Tweakers) - Bias in stemhulp-tools & chatbots
– Wanneer tools je “advies geven” zonder zichtbare methode, bestaat risico op onzichtbare beïnvloeding.
– Onderzoek toonde aan dat AI-tools in verkiezingscontexten een sterke vertekening kunnen hebben. (arXiv) - Gerichte micro-targeting & dataverzameling
– Partijen en platforms kunnen jouw data gebruiken om je gepersonaliseerde campagnemateriaal voor te schotelen — lastig om te zien voor gebruikers.
– Als mensen niet doorhebben dat ze gemodificeerd beïnvloed worden, is het effect veel groter. - Deepfakes & synthetische content
– Videobeelden, audio of beelden die door AI zijn gemanipuleerd kunnen authenticiteit ondermijnen.
– Omdat AI de technische drempel verlaagt, is het risico toegenomen. - Regulering loopt achter
– Wetgeving en toezicht (zoals de Digital Services Act) pakken delen van dit domein aan, maar veel is nog in ontwikkeling — en Big Tech blijft deels ongereguleerd.
– Toezichthouders zoals de AP kunnen wel waarschuwen, maar weinig proactief opleggen in sommige gevallen.
Wat kun jij doen als kiezer? Praktische checklist
- Controleer de bron: Wanneer je een opvallende video of afbeelding ziet, bekijk wie de maker is, of er aanwijzingen zijn dat iets synthetisch is (vervormde lichamen, vreemde schaduwen, onnatuurlijke bewegingen).
- Vraag door bij stemadvies-tools: Gebruik gereputeerde platforms zoals Kieskompas waarvan de methodologie bekend is. (Kieskompas) Wees sceptisch bij chatbots die “welke partij past bij jou?” beantwoorden zonder transparantie.
- Let op micro-targeting: Als je merkt dat je ineens “persoonlijk” aangesproken wordt, of content ziet die precies jouw interesses lijkt te bedienen, wees alert op mogelijke beïnvloeding.
- Gebruik meerdere bronnen: Lees verschillend nieuws, bekijk meerdere partijen, cross-check claims. Laat je niet beperken tot één kanaal of medium.
- Meld misleiding of verdachte content: Veel platforms bieden nu meldmogelijkheden voor deepfakes, nepnieuws of gemanipuleerde beelden. Maak er gebruik van.
- Begrijp je eigen data-positie: Wees je ervan bewust welke gegevens over jou verzameld worden (social media, browsen, voorkeuren). Beperk waar mogelijk tracking, gebruik privacy-tools indien gewenst.
Serieus, maar niet weerloos
De inzet van AI, data en technologie in de verkiezingen van 2025 is een dubbelspel: het biedt kansen (meer inzicht, snellere informatie) én risico’s (meer misleiding, manipulatie, onzichtbare macht). Het is zorgwekkend dat, ondanks waarschuwingen van toezichthouders, veel kiezers zich onvoldoende realiseren hoeveel invloed technologische omgevingen hebben op hun keuzeproces.
Tegelijk is het veld niet hopeloos. Transparantie, kritisch denken en bewuste keuzes helpen om de zwaarte van de misleiding te verminderen. Zoals wij dat graag noemen: een gewaarschuwd mens stemt bewuster.
De macht ligt niet alleen bij Big Tech, de datagrabbers of de politieke partijen, uiteindelijk ook bij jou als kiezer. Gebruik die macht.
Hieronder vind je vijf concrete gevallen of vermoedelijke voorbeelden van hoe AI, data en misleiding elkaar raken in de aanloop naar de Tweede Kamerverkiezingen 2025 — elk met uitleg en een korte checklist hoe je zoiets kunt herkennen.
1. AI-geproduceerd campagnemateriaal met opvallende fouten
Voorbeeld: Volgens een recent artikel gebruikte de Partij voor de Vrijheid (PVV) in het verkiezingsprogramma een foto waarop een koe blijkbaar twee lichamen had, mogelijk het gevolg van AI-bewerking of stockfotofout. (RTL Nederland)
Waarom relevant: Illustraties en beelden zijn krachtig in campagnes; als die beelden synthetisch of misleidend zijn, kan de indruk gewekt worden dat iets “authentiek” is, terwijl dit niet zo is.
Herken-checklist:
- Kijk of het beeld “net niet klopt” (lichamen die vervormd zijn, schaduwen die vreemd vallen).
- Bekijk of de originele bron of copyright duidelijk is of dat het lijkt op een stockfoto of montage.
- Vraag je af: “Waarom is dit beeld gekozen? Wat wil het impliceren?”
- Controleer of de partij of campagne duidelijk vermeldt dat het een illustratie is.
2. Stemadvies-chatbots en AI-hulpmiddelen die “advies” geven zonder transparantie
Voorbeeld: In Nederland groeit het gebruik van AI-chatbots voor stemadvies of politieke oriëntatie. Volgens een artikel van RTL Nieuws zijn deze tools nog niet betrouwbaar: ze kunnen hallucineren, of fouten geven, of bepaalde partijen onbedoeld bevoordelen. (RTL Nederland)
Waarom relevant: Als kiezers hun keuze mede baseren op zo’n chatbot, kunnen ze beïnvloed worden door onzichtbare bias, algoritmes of dataprofilering.
Herken-checklist:
- Vraag: “Wie heeft deze chatbot gemaakt? Welke data gebruikt hij?”
- Check of de tool zegt welke partijen of standpunten hij meeneemt.
- Let op of er transparantie is: wordt uitgelegd hoe de uitkomst tot stand kwam?
- Wees sceptisch bij een advies dat heel snel of heel exact aansluit op jouw profiel, dat kan micro-targeting zijn.
3. Gerichte micro-targeting via data en AI-aanbevelingssystemen
Voorbeeld: In het blog van ICTrecht wordt beschreven hoe AI en social-media algoritmes kunnen zorgen dat jij als individu een unieke informatie-stroom krijgt die niet iedereen ziet, waardoor je andere kiezers dan jouw buren bent. (ICTRecht)
Waarom relevant: Dit betekent dat kiezers niet allemaal dezelfde feiten voorgeschoteld krijgen, waardoor publieke discussie versplintert. En misleiding (of manipulatie) kan gemakkelijker plaatsvinden.
Herken-checklist:
- Krijg je vaak berichten of advertenties op sociale platforms die “heel precies op jou” lijken te zijn afgestemd?
- Zie je dat anderen in jouw kring iets anders krijgen? Vraag hen wat zij zien.
- Controleer of je doelgroep-advertenties ziet: “speciaal voor jou getoond”.
- Overweeg je instellingen: kun je tracking beperken of aanbevelingen uitschakelen?
4. Deepfakes of AI-gegenereerde audio/video rond verkiezingen
Voorbeeld: Wereldwijd is er al sprake van AI-audio die stemmen nabootst (zoals een opname van Joe Biden die zogenaamd kiezers opriep niet te gaan stemmen). (ZeelandNet) Hoewel er voor Nederland nog geen prominent publiek geval bekend is bij deze verkiezingen, is het risico wél aangemerkt door rapporten als dat van Symbio6. (Symbio6)
Waarom relevant: Een manipulerende video of audio kan het vertrouwen in het democratisch proces ernstig ondermijnen.
Herken-checklist:
- Let op of audio/video “iets vreemd” klinkt of “licht misplaatst” oogt (stem klinkt net iets anders, lipsynchronisatie niet perfect).
- Zoek de originele bron: is het deze partij, of lijkt het afkomstig van anonieme accounts?
- Bekijk of er een waarschuwing is: “kan door AI gemaakt zijn”.
- Controleer of andere betrouwbare media het ook melden of ontkrachten.
5. Onbekende of ondoorzichtige inzet van AI door politieke partijen
Voorbeeld: Uit een rondvraag van Tweakers bleek dat de meeste Nederlandse partijen niet of nauwelijks publiceerden hoe zij AI inzetten in hun programma’s of campagnevoering. Slechts vier partijen reageerden inhoudelijk. (Tweakers)
Waarom relevant: Transparantie is cruciaal. Als partijen niet aangeven of/hoe zij AI inzetten, is het moeilijk voor kiezers om de mogelijke invloed van algoritmes of dataverzameling te beoordelen.
Herken-checklist:
- Lees het campagnemateriaal: vermeldt de partij “AI gebruikt voor…” of “beeldmateriaal gegenereerd met…”?
- Zoek of de partij een verklaring heeft over data-gebruik, targeting of algoritmes.
- Vraag jezelf: “Is er verantwoording over hoe dit materiaal tot stand kwam?”
- Zie je dat een partij veelvuldig gepersonaliseerde content laat zien zoals e-mail of sociale advertentie die “speciaal voor jou” lijkt?



