Experiment Microsoft Copilot 365
- Publicatiecategorie
- Impactvolle algoritmes
- Impacttoetsen
- DPIA
- Status
- In gebruik
Algemene informatie
Thema
Begindatum
Einddatum
Contactgegevens
Verantwoord gebruik
Doel en impact
Het experiment onderzoekt of Copilot 365 de productiviteit van medewerkers verhoogt door administratieve lasten (zoals documentatie, rapportages en e-mails) te verminderen, zodat meer tijd beschikbaar komt voor inhoudelijke taken en betere dienstverlening aan inwoners.
Afwegingen
Bij de inzet van Copilot 365 gelden duidelijke spelregels voor verantwoord gebruik en zorgvuldige omgang met gegevens. Medewerkers blijven altijd verantwoordelijk voor de uiteindelijke keuzes en inhoud, en beoordelen of de door Copilot gegenereerde output correct en bruikbaar is. Privacy en informatiebeveiliging worden geborgd via de DPIA, afspraken met de leverancier en onze spelregels.
Menselijke tussenkomst
Altijd: medewerker beslist of Copilot-output wordt gebruikt, aangepast of verworpen.
Risicobeheer
In dit experiment hebben we speciaal gekeken naar de eisen uit de Europese AI-verordening. Daarbij sluiten we aan op ons bestaande beleid rond privacy, informatiebeveiliging en inkoop, en op onderwerpen als bewustwording, gedragscode en gebruik van clouddiensten. Om medewerkers houvast te geven zijn er spelregels opgesteld voor verantwoord gebruik van generatieve AI: wat kan wel en wat kan niet. Verder werken we aan bewustwording, communicatie en trainingen, zodat collega’s vertrouwd raken met AI en weten hoe ze er verantwoord mee omgaan.
Toelichting op impacttoetsen
De risico’s zijn beoordeeld door de Functionaris Gegevensbescherming (FG) op relevantie en toepasselijkheid bij het gebruik van AI. Op basis van deze beoordeling, en in het licht van de publicaties van VNG en IBD, is meegegeven dat het AI-project verantwoord kan worden voortgezet, mits de nadruk blijft liggen op zorgvuldig en uitlegbaar gebruik.
Impacttoetsen
Werking
Gegevens
Copilot gebruikt alle gegevens binnen de Microsoft 365 graph waartoe een medewerker zelf toegang heeft (zoals e-mails, documenten en Teams-berichten). Deze gegevens worden door Microsoft omgezet in een semantische index, zodat Copilot verbanden kan leggen. Copilot ziet gegevens pas wanneer een medewerker er actief naar vraagt in een prompt. De data verlaat de Microsoft-tenant niet en wordt niet gebruikt om AI-modellen te trainen.
Volgens de spelregels voor Generatieve AI van de gemeente mag Copilot, wanneer een medewerker een prompt invoert, alleen worden gebruikt met ongestructureerde werkdata.
Niet toegestaan: persoonsgegevens en andere geheime of gevoelige informatie (zoals salaris-, zorg- of strafdossiers).
We zijn voornemens om bepaalde SharePoint-kanalen uit te sluiten van indexering om risico’s op verkeerd gebruik van AI en het niet naleven van de spelregels te voorkomen.
Technische werking
Copilot maakt gebruik van Large Language Models (LLM’s) die zijn geïntegreerd in Microsoft 365. Wanneer een medewerker een prompt invoert, combineert Copilot deze vraag met relevante context uit de Microsoft Graph en de semantische index. Alleen informatie waartoe de medewerker zelf toegang heeft, kan worden gebruikt in het antwoord.
De verwerking van prompts en context vindt plaats binnen de beveiligde Microsoft-tenant. Copilot genereert vervolgens een antwoord op basis van de prompt, de context en het onderliggende AI-model. De tijdelijke promptgegevens worden niet opgeslagen en niet gebruikt voor training van het model.
Hoewel Copilot ondersteuning biedt, blijft menselijke controle noodzakelijk: Copilot kan fouten maken of informatie verkeerd interpreteren.
Leverancier
Soortgelijke algoritmebeschrijvingen
- Medewerkers kunnen Microsoft 365 Copilot gebruiken: Copilot Chat voor vragen, teksten en samenvattingen. Agents voeren taken uit zoals notities maken of workflows starten. Controls regelen datatoegang, privacy en functies per gebruikersgroep.Laatst gewijzigd op 3 november 2025 om 7:27 | Publicatiestandaard 1.0
- Publicatiecategorie
- Impactvolle algoritmes
- Impacttoetsen
- IAMA, DPIA
- Status
- In gebruik
- Intern wordt gebruik gemaakt van Microsoft Copilot. Het is geïntegreerd in applicaties zoals Outlook, Word en Excel en wordt op aanvraag beschikbaar gemaakt aan medewerkers. Medewerkers gebruiken het voornamelijk voor het samenvatten of produceren van teksten.Laatst gewijzigd op 3 november 2025 om 13:20 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik
- Medewerkers mogen Microsoft 365 CoPilot gebruiken als een slimme chatbot. Ze kunnen hiermee teksten laten maken en uitgebreide antwoorden op vragen krijgen. In onze regels staat dat medewerkers geen geheime of vertrouwelijke informatie mogen gebruiken. Ook moet de medewerker altijd goed controleren of de informatie klopt.Laatst gewijzigd op 16 september 2025 om 10:32 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik
- Ter verbetering van de interne efficiente is er een testproject opgezet waarbij er wordt gekeken of Microsoft CoPilot medewerkers kan helpen met het vervullen van de dagelijkse werkzaamheden.Laatst gewijzigd op 21 januari 2025 om 10:50 | Publicatiestandaard 1.0
- Publicatiecategorie
- Hoog-risico AI-systeem
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In ontwikkeling
- Ter verbetering van de interne efficiente is er een testproject opgezet waarbij er wordt gekeken of Microsoft CoPilot medewerkers kan helpen met het vervullen van de dagelijkse werkzaamheden.Laatst gewijzigd op 8 juli 2025 om 12:47 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In ontwikkeling