Tink derom: De algoritmebeskriuwingen yn it Frysk binne automatysk oerset. Hjir kinne flaters yn sitte. Foar de orizjinele beskriuwingen geane jo nei de Nederlânske ferzje fan it Algoritmeregister.
Rapportaazjeassistint Ken jo klant
- Publicatiecategorie
- Oare algoritmes
- Impacttoetsen
- DPIA
- Status
- Yn gebrûk
Algemene ynformaasje
Tema
Begjindatum
Kontaktgegevens
Ferantwurde gebrûk
Doel en impact
It doel fan it ynsetten fan 'e AI-assistint is om de administrative lêst foar meiwurkers te ferminderjen. De ark hat as doel om 50 oant 75% te besparjen fan 'e tiid dy't bestege wurdt oan it ferwurkjen fan petearen ta konseptrapporten. De AI-assistint nimt gjin ûnôfhinklike besluten; in meiwurker kontrolearret altyd de resultaten. De meiwurker formulearret altyd sels de konklúzjes. Elk rapport, sels rapporten dy't net fia de AI-assistint taret binne, wurde foar goedkarring oan bewenners foarlein. Dielname is frijwillich foar bewenners en wurdt eksplisyt oanfrege foar it petear. It gebrûk fan 'e ark is ûnôfhinklik fan (tagong ta) tsjinsten.
Afwagings
Om de ynset fan 'e AI-assistint goed te beskôgjen, is in koarte DPIA útfierd, is in ynterne weardendialooch hâlden en binne de oanbefellings fan 'e eksterne advysgroep oer digitalisaasje en etyk (fan it pilotprojekt foar de rapportaazjeassistint by de buertteams) folge. Foarôfgeand oan it beslút om dizze pilot te starten, binne oare stappen nommen om de bestjoerlike lêst foar meiwurkers signifikant te ferminderjen, mar dizze wiene net genôch.
Minskele tuskenkomst
De (tuskentiidske) resultaten fan 'e AI-assistint kinne yn realtime lêzen wurde troch de meiwurker en bewenner. Sadree't it rapport generearre is, kin de meiwurker generearre tekst bewurkje, wiskje of tafoegje.
Risikobehear
Troch de DPIA, de weardendialooch, en it advys fan 'e Digitalisaasje- en Etykadvysgroep binne gegevensbeskermings- en etyske risiko's identifisearre. Om dizze risiko's te behearskjen binne ûnder oaren de folgjende maatregels ymplementearre: meiwurkers binne oplaat om mei de KI-assistint te wurkjen. Spesifike oandacht is bestege oan it goed útlizzen oan ynwenners wat dizze KI-assistint docht, en rjochtlinen binne ûntwikkele foar it gebrûk dêrfan. Fierder binne der ôfspraken makke mei de leveransier oangeande de ferwurking fan persoanlike gegevens, is it passende feiligensnivo yn it systeem ymplementearre, en is dit ûnôfhinklik beoardiele. Fierder wurde allinich gegevens bewarre dy't nedich binne foar it proses. De prestaasjes fan 'e KI-assistint wurde kontinu kontroleare.
Wettlike basis
It ferwurkjen fan persoansgegevens is needsaaklik foar it útfieren fan in taak fan iepenbier belang (útfiering fan 'e Partisipaasjewet en de IOAW) dy't oan 'e ferantwurdlike is tawiisd. It doel fan 'e oerlis is om ynwenners te stypjen en te dwaan wat nedich is binnen har mooglikheden en de wet om selsstannigens te befoarderjen. De oerlis is benammen tsjinstrjochte, mar kin ek rjochte wêze op wettichheid en/of effisjinsje.
Links nei wettlike basis
- Article 9 and 17 PW: https://wetten.overheid.nl/BWBR0015703/2025-07-01
- Section 34 IOAW: https://wetten.overheid.nl/BWBR0004044/2025-07-01
- Article 6, first paragraph under c AVG: https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=legissum:310401_2
Taljochting op impacttoetsen
De KI-assistint is net bedoeld as in KI-systeem foar it beoardieljen fan (de mjitte fan) tagong ta essensjele oerheidsútkearingen en tsjinsten. It primêre doel is om ynwenners bettere en rapper bystân te jaan en bestjoerlike lêsten te ferminderjen. Dêrom falt de tapassing ûnder ien fan 'e útsûnderingen yn 'e KI-wet (artikel 6, lid 3, KI-wet), wêrûnder KI-systemen dy't ûnder ien fan 'e tapassingsgebieten falle, net as risiko-KI wurde beskôge (Essensjele Private en Publike Tsjinsten en Útkearingen (artikel 6, lid 2 yn kombinaasje mei Annex III, KI-wet)), en it útfieren fan in IAMA-beoardieling is net ferplicht. In ynterne dialooch oer etyske wearden is fierd op basis fan 'e Code for Good Digital Public Administration (CODIO). Derneist hat de gemeente yn april 2025 advys krigen fan 'e eksterne klankboerdgroep oer digitalisaasje en etyk (ynwenners).
Impacttoetsen
Wurking
Gegevens
It algoritme is ûntwikkele mei in beskriuwing fan it petearprotokol. Simulearre petearen tusken meiwurkers waarden brûkt om it promptmodel te ferfine. It algoritme ferwurket allinich gegevens dy't krigen binne fan in audio-opname fan it petear tusken de bewenner en it meiwurker. Persoanlike gegevens dy't ferwurke wurde kinne omfetsje namme, adres, stêd, boargerservicenûmer (BSN), ynformaasje oer wurk en ynkommen, wenjen, sûnens, sosjale relaasjes, deistige aktiviteiten, feiligens, selsstannigens en betsjutting. Direkt identifisearbere persoanlike gegevens wurde fuorthelle by de konverzje fan elke 30 oant 60 sekonden audio nei tekst. Gegevens lykas famyljesituaasje, sûnensynformaasje en oare spesjale persoanlike gegevens dy't neamd wurde yn it petear en relevant kinne wêze foar it jaan fan de nedige stipe oan de bewenner, wurde ferwurke op it platfoarm fan 'e oanbieder en opslein foar maksimaal 28 dagen.
Technyske wurking
De AI-assistint is in ark foar it omsette fan sprutsen wurden tidens in "ken jo klant"-petear yn in skriftlik rapport. De software konvertearret audio nei in skriftlik, anonymisearre transkript. Dit transkript wurdt presintearre oan ferskate lokaal hostearre kopyen fan LLM's (Large Language Models) foar it skriuwen fan it petearrapport. Om te soargjen dat dizze rapporten yn it winske formaat skreaun wurde, befettet de software spesifike regels foar de prompts dy't oan 'e LLM's presintearre wurde. De software fungearret as in tuskenlaach tusken it peteartranskript en de LLM's, wêrtroch't de útfier fan 'e LLM's de rapportaazjestyl fan 'e buertteams better reflektearret dan wannear't in transkript direkt oan in LLM presintearre waard.
De software brûkt webservices en lokaal hosted kopyen fan LLM's. De folgjende modellen wurde brûkt: spraakmodelleringstsjinsten 'Azure Language' en 'spraak-nei-teksttsjinsten' (Microsoft), GPT4o en GPT4o mini fan OpenAI, Claude Sonnet fan Anthropic, en Llama (iepen boarne). LLM-oanbieders (bygelyks OpenAI) binne net ferbûn mei de servers fan it leveransiersplatfoarm. Wylst de LLM-oanbieder de modellen wol leveret, wurde se ûnôfhinklik hosted op 'e servers fan' e leveransier binnen de EER. As gefolch binne de gegevens net tagonklik of sichtber foar LLM-oanbieders.
Leveransier
Soartgelikense algoritme beskriuwingen
- De AI-assistint ferwurket opnommen audio fan in yntakynterview yn in anonime rapport (pilot). It giet om it proses 'Opheldering fragen yn it ramt fan Wmo/Jeugdwet'. Dat wurdt útfierd troch de Stichting Buurtteams Amersfoort yn opdracht fan de gemeente Amersfoort.Lêst feroare op 22 april 2025 om 9:42 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Oare algoritmes
- Impacttoetsen
- DPIA
- Status
- Yn gebrûk
- PZH-Assist is in chatbot dy't kin wurde rieplachte foar algemien gebrûk. Dizze chatbot is net oplaat op ynterne gegevens en hat der gjin kennis fan. It is mooglik om in dokumint ad hoc yn te foegjen yn 'e chatbot en dêr fragen oer te stellen. De chatbot is allinnich beskikber foar meiwurkers fan de Provinsje Súd-Hollân.Lêst feroare op 8 novimber 2024 om 13:12 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- DPIA
- Status
- Yn ûntwikkeling
- By in ûndersyk troch in saakkundige wurde gesichtsbylden mei inoar ferlike. It doel fan de gesichtsbyldfergeliking is om te bepalen oft in persoan sichtber op kamerabylden (fertochte fan in misdriuw) en it byld fan in bekend gesicht (plysjefoto fan in fertochte) fan deselde persoan binne of fan twa ferskillende minsken.Lêst feroare op 25 juny 2024 om 16:15 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Heechrisiko AI-systeem
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn gebrûk
- As in advokaat/bemiddeler subsidiearre rjochtsbystân oanfreget foar in boarger, dan moat dat ûnderboud wurde mei dokuminten. Om it proses te fersnellen is in metoade betocht wêrby't automatysk oanfragen foar rjochtsbystân of oanjefte dien wurde. Dat wurdt dêrnei kontrolearre troch in stekproef.Lêst feroare op 3 febrewaris 2025 om 8:51 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Oare algoritmes
- Impacttoetsen
- DPIA
- Status
- Yn gebrûk
- De direksje Tafersjoch en Hanthavening Iepenbiere Romte hat it Computer Vision Team fan 'e gemeente Amsterdam opdracht jûn om te ûndersykjen hoe't objektherkenning kin helpe om te foarkommen dat kwetsbere brêgen en kaaimuorren ynstoarte troch swiere objekten dy't derop pleatst wurde.Lêst feroare op 10 septimber 2025 om 13:40 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- DPIA, De Etyske Folder, IAMA
- Status
- Yn gebrûk