Tekstclassificatie voor ondermijningsthema's

Dit is een set modellen die teksten kunnen beoordelen. Op basis van de tekst in een registratie bepalen ze of deze over een bepaald onderwerp van ondermijning gaat. De uitkomst van het model wordt gebruikt om het werk van politiemedewerkers te ordenen.

Laatst gewijzigd op 13 mei 2026 om 11:50 | Publicatiestandaard 1.0
Publicatiecategorie
Overige algoritmes
Impacttoetsen
Veld niet ingevuld.
Status
In gebruik

Algemene informatie

Thema

Openbare orde en veiligheid

Begindatum

2023-12

Contactgegevens

https://politie.nl/

Verantwoord gebruik

Doel en impact

Een groep politiemedewerkers bekijkt en beoordeelt registraties uit politiesystemen.

De politie gebruikt zoekwoorden om deze registraties te vinden. Maar met zoekwoorden worden niet altijd de juiste registraties gevonden.

Daarom gebruikt de politie een model dat teksten beoordeelt en sorteert. Dit model heeft geleerd van wat politiemedewerkers wel of niet relevant vinden.

Hierdoor kunnen medewerkers sneller werken aan de belangrijkste registraties.

Afwegingen

Zonder deze sortering zouden politiemedewerkers veel tijd kwijt zijn aan het lezen van registraties die niet belangrijk zijn.

Menselijke tussenkomst

De politiemedewerker bepaalt zelf welke registraties worden beoordeeld. Het model helpt alleen met het sorteren.

Risicobeheer

Gebruikers kunnen de AI-suggesties uitzetten als ze dat willen.

Bij de uitkomsten geeft het model uitleg, met een techniek die laat zien waarom iets zo is beoordeeld.

Er is ook een lijst met woorden die niet gebruikt mogen worden. Deze woorden worden niet meegenomen in het model, om ethische redenen.

Het model wordt regelmatig opnieuw getraind. Zo blijft het actueel en werkt het met recente informatie.

We houden bij welk model een voorspelling heeft gedaan, zodat dit altijd terug te zien is.

Werking

Gegevens

Het model gebruikt tekst uit de Basisvoorziening Handhaving (BVH).

Technische werking

Het model leert op basis van voorbeelden die politiemedewerkers hebben beoordeeld. Dit heet ‘supervised learning’.

De input is tekst uit registraties. De output is een beoordeling: hoort deze registratie wel of niet bij een bepaald onderwerp.

Soortgelijke algoritmebeschrijvingen

  • Dit model wordt gebruikt door specialistische opsporingsteams binnen de politie. Het helpt hen snel serieuze bedreigingen te ontdekken, zoals geplande moorden, ontvoeringen of zware mishandelingen, om deze misdrijven te voorkomen. Het handmatig doorzoeken van miljoenen berichten is onmogelijk. Dit model werkt door het prioriteren van de berichten op basis van de score van het model. 

    Laatst gewijzigd op 29 december 2025 om 15:00 | Publicatiestandaard 1.0
    Publicatiecategorie
    Overige algoritmes
    Impacttoetsen
    Veld niet ingevuld.
    Status
    In gebruik
  • Het model helpt bij het opsporen en analyseren van onrechtmatigheden en onregelmatigheden na de toekenning van een Wmo/Jeugdwet voorziening. Het model signaleert of er nader onderzoek gedaan moet worden naar de besteding van gelden.

    Laatst gewijzigd op 5 juli 2024 om 9:31 | Publicatiestandaard 1.0
    Publicatiecategorie
    Impactvolle algoritmes
    Impacttoetsen
    IAMA
    Status
    In gebruik
  • Algoritme dat de inschrijver kan helpen om “look-alike-fraude” te voorkomen. Afkomstig van de Rijksdienst voor Identiteitsgegevens (RvIG)

    Laatst gewijzigd op 16 augustus 2024 om 9:46 | Publicatiestandaard 1.0
    Publicatiecategorie
    Hoog-risico AI-systeem
    Impacttoetsen
    Veld niet ingevuld.
    Status
    In gebruik