Tekstclassificatie voor ondermijningsthema's
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik
Algemene informatie
Thema
Begindatum
Contactgegevens
Verantwoord gebruik
Doel en impact
Een groep politiemedewerkers bekijkt en beoordeelt registraties uit politiesystemen.
De politie gebruikt zoekwoorden om deze registraties te vinden. Maar met zoekwoorden worden niet altijd de juiste registraties gevonden.
Daarom gebruikt de politie een model dat teksten beoordeelt en sorteert. Dit model heeft geleerd van wat politiemedewerkers wel of niet relevant vinden.
Hierdoor kunnen medewerkers sneller werken aan de belangrijkste registraties.
Afwegingen
Zonder deze sortering zouden politiemedewerkers veel tijd kwijt zijn aan het lezen van registraties die niet belangrijk zijn.
Menselijke tussenkomst
De politiemedewerker bepaalt zelf welke registraties worden beoordeeld. Het model helpt alleen met het sorteren.
Risicobeheer
Gebruikers kunnen de AI-suggesties uitzetten als ze dat willen.
Bij de uitkomsten geeft het model uitleg, met een techniek die laat zien waarom iets zo is beoordeeld.
Er is ook een lijst met woorden die niet gebruikt mogen worden. Deze woorden worden niet meegenomen in het model, om ethische redenen.
Het model wordt regelmatig opnieuw getraind. Zo blijft het actueel en werkt het met recente informatie.
We houden bij welk model een voorspelling heeft gedaan, zodat dit altijd terug te zien is.
Werking
Gegevens
Het model gebruikt tekst uit de Basisvoorziening Handhaving (BVH).
Technische werking
Het model leert op basis van voorbeelden die politiemedewerkers hebben beoordeeld. Dit heet ‘supervised learning’.
De input is tekst uit registraties. De output is een beoordeling: hoort deze registratie wel of niet bij een bepaald onderwerp.
Soortgelijke algoritmebeschrijvingen
- Dit model wordt gebruikt door specialistische opsporingsteams binnen de politie. Het helpt hen snel serieuze bedreigingen te ontdekken, zoals geplande moorden, ontvoeringen of zware mishandelingen, om deze misdrijven te voorkomen. Het handmatig doorzoeken van miljoenen berichten is onmogelijk. Dit model werkt door het prioriteren van de berichten op basis van de score van het model.Laatst gewijzigd op 29 december 2025 om 15:00 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik
- Het model helpt bij het opsporen en analyseren van onrechtmatigheden en onregelmatigheden na de toekenning van een Wmo/Jeugdwet voorziening. Het model signaleert of er nader onderzoek gedaan moet worden naar de besteding van gelden.Laatst gewijzigd op 5 juli 2024 om 9:31 | Publicatiestandaard 1.0
- Publicatiecategorie
- Impactvolle algoritmes
- Impacttoetsen
- IAMA
- Status
- In gebruik
- Algoritme dat de inschrijver kan helpen om “look-alike-fraude” te voorkomen. Afkomstig van de Rijksdienst voor Identiteitsgegevens (RvIG)Laatst gewijzigd op 16 augustus 2024 om 9:46 | Publicatiestandaard 1.0
- Publicatiecategorie
- Hoog-risico AI-systeem
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik