Microsoft 365 Copilot
- Publicatiecategorie
- Impactvolle algoritmes
- Impacttoetsen
- IAMA, DPIA
- Status
- In gebruik
Algemene informatie
Thema
Begindatum
Einddatum
Contactgegevens
Link naar publiekspagina
Link naar bronregistratie
Verantwoord gebruik
Doel en impact
Het doel van Microsoft 365 Copilot is om medewerkers te ondersteunen bij hun dagelijkse werk. Microsoft 365 Copilot helpt bijvoorbeeld bij het schrijven van teksten, het maken van samenvattingen, het opstellen van e-mails of het voorbereiden van vergaderingen. Dit gebeurt met behulp van kunstmatige intelligentie (AI).
De impact is dat medewerkers sneller en makkelijker hun werk kunnen doen. Ze hoeven minder tijd te besteden aan standaardtaken en kunnen zich beter richten op inhoud en samenwerking. Burgers en bedrijven merken dit indirect, bijvoorbeeld doordat brieven duidelijker zijn, antwoorden sneller komen of vergaderingen beter zijn voorbereid.
Het gebruik van Microsoft 365 Copilot draagt bij aan het vergroten van digitale vaardigheden en het vertrouwd raken met generatieve AI. Tegelijkertijd vraagt dit om bewust en verantwoord gebruik. De gemeente ziet de kansen van AI en volgt de technologische ontwikkelingen met aandacht. Er is een duidelijke ambitie om mee te bewegen met deze vooruitgang, zolang dit gebeurt op een zorgvuldige en verantwoorde manier. Om medewerkers hierin te begeleiden, zijn er spelregels opgesteld voor de omgang met generatieve AI. Daarnaast werken verschillende clusters aan tactisch beleid dat aansluit op de dagelijkse praktijk en bijdraagt aan de ontwikkeling van een alomvattend strategisch kader voor de omgang met AI binnen de organisatie.
Afwegingen
De gemeente kiest ervoor om Microsoft 365 Copilot in te zetten om medewerkers te ondersteunen bij hun dagelijkse werkzaamheden. Microsoft 365 Copilot helpt bijvoorbeeld bij het schrijven van teksten, het maken van samenvattingen en het voorbereiden van vergaderingen. Dit levert tijdswinst op, zorgt voor betere kwaliteit van documenten en geeft medewerkers meer ruimte om zich te richten op inhoud. Ook draagt het bij aan werkplezier en digitale vaardigheden.
Tegelijkertijd zijn er risico’s. De antwoorden van Microsoft 365 Copilot kunnen fouten bevatten en moeten daarom altijd worden gecontroleerd. Er is ook aandacht nodig voor privacy en het veilig omgaan met gegevens. De afhankelijkheid van technologie vraagt om duidelijke afspraken en bewust gebruik.
Alternatieven zoals ChatGPT zijn overwogen, maar niet geschikt bevonden voor deze vorm van ondersteuning. Microsoft 365 Copilot is geïntegreerd in veel gebruikte programma’s en wordt actief aanbevolen binnen de organisatie. Andere toepassingen worden afgeraden, tenzij ze zijn goedgekeurd en ondersteund worden door de afdeling informatie.
Bij deze keuze zijn ethische afwegingen gemaakt. Denk aan begrijpelijkheid, menselijke controle, gelijke behandeling en transparantie.
Medewerkers worden getraind in het verantwoord gebruik van kunstmatige intelligentie en specifiek generatieve AI. Er zijn spelregels opgesteld voor de omgang met deze technologie. Daarnaast werkt de gemeente aan tactisch beleid vanuit verschillende clusters, en aan een strategisch kader voor de omgang met AI. Een DPIA en mensenrechtentoets zijn in voorbereiding.
Menselijke tussenkomst
Microsoft 365 Copilot ondersteunt medewerkers bij hun werk, maar de uitkomsten worden altijd door mensen gebruikt en beoordeeld. Bijvoorbeeld: als Microsoft 365 Copilot een tekstvoorstel doet, controleert de medewerker of de inhoud klopt en past bij de situatie. Ook bij samenvattingen of e-mails blijft de medewerker verantwoordelijk voor de uiteindelijke versie.
De inzet van Microsoft 365 Copilot vraagt dus om actieve menselijke tussenkomst. Medewerkers gebruiken de uitkomsten als hulpmiddel, maar nemen zelf de beslissingen. Ze kunnen de suggesties aanpassen, aanvullen of helemaal negeren. Dit zorgt ervoor dat de kwaliteit en betrouwbaarheid van het werk gewaarborgd blijven.
Er is geen sprake van automatische besluitvorming. Microsoft 365 Copilot ondersteunt, maar vervangt de mens niet. Medewerkers worden getraind in het verantwoord gebruik van generatieve AI, zodat ze weten hoe ze de uitkomsten goed kunnen beoordelen en bijstellen.
Risicobeheer
Bij het gebruik van Microsoft 365 Copilot zijn verschillende risico’s in beeld. Denk aan technische risico’s, zoals fouten in gegenereerde teksten, en juridische risico’s rond privacy en datagebruik. Ook zijn er ethische risico’s, zoals het risico op ongelijke behandeling, onduidelijke besluitvorming of verlies van menselijke controle.
Om deze risico’s te beperken, worden medewerkers getraind in het verantwoord gebruik van AI, waaronder generatieve AI zoals Microsoft 365 Copilot. Ze leren hoe ze de uitkomsten kunnen controleren, bijstellen en zorgvuldig omgaan met informatie. Er zijn spelregels opgesteld voor de omgang met generatieve AI, zodat duidelijk is wat wel en niet mag.
De gemeente werkt aan een strategisch beleidskader voor de omgang met AI. Hierin is ook aandacht voor periodieke evaluatie en monitoring van het gebruik van Microsoft 365 Copilot. Zo kunnen risico’s tijdig worden gesignaleerd en aangepakt. Dit kader sluit aan op bestaand beleid voor informatiebeveiliging en privacy, dat als leidend wordt beschouwd bij de inzet van nieuwe technologieën.
Daarnaast zijn een DPIA (Data Protection Impact Assessment) en een mensenrechtentoets in voorbereiding. Deze helpen om risico’s op het gebied van privacy, transparantie en publieke waarden goed in kaart te brengen.
Wettelijke basis
De Europese AI-verordening vormt de basis van het gemeentelijke beleid rondom de verantwoorde ontwikkeling en inzet van AI en algoritmen. Deze wet is bedoeld om ervoor te zorgen dat AI-systemen veilig zijn, transparant werken en de grondrechten van mensen respecteren. De verordening maakt onderscheid tussen verschillende risiconiveaus van AI-systemen. Hoe hoger het risico, hoe strenger de regels. Voor generatieve AI zoals Microsoft 365 Copilot gelden vooral verplichtingen rond transparantie en menselijk toezicht.
Naast de AI-verordening rust het gemeentelijke beleid op bestaande wetgeving voor informatiebeveiliging en privacy, zoals de Algemene Verordening Gegevensbescherming (AVG). Deze wetten zorgen ervoor dat persoonsgegevens goed worden beschermd en dat medewerkers zorgvuldig omgaan met data.
Links naar wettelijke basis
Link naar verwerkingsregister
Toelichting op impacttoetsen
Zowel een IAMA als een DPIA zijn momenteel in uitvoering
Impacttoetsen
- Impact Assessment Mensenrechten en Algoritmes (IAMA): In uitvoering
- Data Protection Impact Assessment (DPIA): In uitvoering
Werking
Gegevens
Microsoft 365 Copilot gebruikt alleen gegevens waar een individuele medewerker zelf toegang toe heeft én die actief worden ingezet tijdens het werken met Microsoft 365 Copilot. Dit kunnen bijvoorbeeld documenten, e-mails, agenda-items, chats en bestanden zijn in programma’s zoals Word, Outlook, Teams, SharePoint en OneDrive. Microsoft 365 Copilot werkt dus niet met alle gegevens binnen de organisatie, maar alleen met informatie die door de medewerker zelf wordt geopend, gedeeld of gebruikt in een opdracht. Gevoelige informatie wordt alleen betrokken als de medewerker daar zelf bij kan en deze bewust inzet. Er worden geen gegevens uit externe bronnen zoals BRP of BKR gebruikt.
Vanuit de gemeentelijke spelregels wordt medewerkers nadrukkelijk afgeraden om persoonsgegevens en bedrijfsgevoelige informatie te delen met generatieve AI zoals Microsoft 365 Copilot. Dit helpt om risico’s te beperken en zorgvuldig om te gaan met vertrouwelijke gegevens.
Microsoft 365 Copilot verwerkt ook gebruikersinvoer, zoals vragen of opdrachten die medewerkers geven. Deze prompts en de gegenereerde antwoorden worden tijdelijk opgeslagen om de functionaliteit te ondersteunen, maar niet gebruikt voor het trainen van de AI-modellen. Persoonsgegevens zoals naam, e-mailadres of functie kunnen indirect worden verwerkt als deze voorkomen in documenten of communicatie, maar worden niet structureel opgeslagen of gedeeld.
De gemeente zorgt ervoor dat medewerkers bewust omgaan met het gebruik van gegevens in Microsoft 365 Copilot. Er zijn spelregels opgesteld en er wordt gewerkt aan een DPIA en mensenrechtentoets om de omgang met data goed te borgen. Het gebruik van Microsoft 365 Copilot valt onder het bestaande beleid voor informatiebeveiliging en privacy.
Technische werking
Microsoft 365 Copilot maakt gebruik van grote taalmodellen (LLMs), zoals GPT-4, GPT-4 Turbo, GPT-5 en Claude Opus 4.1 (Anthropic), gehost via de Azure OpenAI Service. Deze modellen zijn getraind op grote hoeveelheden tekstdata en zijn in staat om mensachtige teksten te genereren, interpreteren en structureren. Microsoft 365 Copilot is niet zelflerend: het leert niet bij op basis van gebruikersinteractie. Updates aan het model worden centraal door Microsoft uitgevoerd.
Input:
De input bestaat uit prompts die medewerkers invoeren.
Verwerking:
Na invoer van een prompt wordt deze verwerkt via een combinatie van:
- Contextuele verrijking: de prompt wordt aangevuld met relevante informatie uit de werkomgeving van de gebruiker, zoals documenten, e-mails of agenda-items in dien deze gedeeld zijn.
- Toegangscontrole: Microsoft 365 Copilot gebruikt alleen gegevens waar de medewerker zelf toegang toe heeft en die actief worden ingezet. Er is geen toegang tot organisatiebrede data of externe bronnen.
- Modelverwerking: de verrijkte prompt wordt doorgestuurd naar het taalmodel, dat een gegenereerd antwoord produceert op basis van de context en opdracht.
De verwerking vindt plaats binnen de beveiligde Microsoft 365-omgeving van de organisatie. Microsoft 365 Copilot respecteert bestaande toegangsrechten, Conditional Access en MFA-instellingen. De gegenereerde output wordt niet gebruikt voor modeltraining en wordt tijdelijk opgeslagen voor functionele doeleinden.
Output:
De output is een gegenereerde tekst, samenvatting, voorstel, analyse of ander type inhoud, afhankelijk van de applicatie en het doel van de prompt. De medewerker behoudt altijd controle over het eindresultaat en kan de output aanpassen, aanvullen of negeren.
Architectuur en modelkeuze:
Microsoft 365 Copilot maakt gebruik van meerdere modellen, waaronder GPT-4, GPT-4 Turbo, GPT-5 en Claude Opus 4.1 (Anthropic), afhankelijk van de taak en het type agent.
Leverancier
Link naar broncode
Soortgelijke algoritmebeschrijvingen
- Medewerkers mogen Microsoft 365 CoPilot gebruiken als een slimme chatbot. Ze kunnen hiermee teksten laten maken en uitgebreide antwoorden op vragen krijgen. In onze regels staat dat medewerkers geen geheime of vertrouwelijke informatie mogen gebruiken. Ook moet de medewerker altijd goed controleren of de informatie klopt.Laatst gewijzigd op 16 september 2025 om 10:32 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik
- Medewerkers kunnen gebruikmaken van Microsoft 365 Copilot Chat (hierna Copilot Chat). Copilot Chat is een generatieve AI-tool aangeboden door Microsoft, waar medewerkers met een Microsoft-account van de gemeente vragen kunnen stellen, teksten en afbeeldingen kunnen genereren en vertalingen en samenvattingen kunnen maken.Laatst gewijzigd op 30 september 2025 om 12:24 | Publicatiestandaard 1.0
- Publicatiecategorie
- Impactvolle algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik
- Medewerkers kunnen gebruikmaken van Microsoft 365 Copilot Chat (hierna Copilot Chat). Copilot Chat is een generatieve AI-tool aangeboden door Microsoft, waar provinciemedewerkers met een Microsoft-account van de provincie vragen kunnen stellen, teksten en afbeeldingen kunnen genereren en vertalingen en samenvattingen kunnen maken.Laatst gewijzigd op 15 april 2025 om 9:56 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- DPIA, IAMA
- Status
- In gebruik
- Intern wordt gebruik gemaakt van Microsoft Copilot. Het is geïntegreerd in applicaties zoals Outlook, Word en Excel en wordt op aanvraag beschikbaar gemaakt aan medewerkers. Medewerkers gebruiken het voornamelijk voor het samenvatten of produceren van teksten.Laatst gewijzigd op 3 november 2025 om 13:20 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik
- Medewerkers kunnen gebruik maken van Microsoft 365 CoPilot als AI-chatbot om teksten te genereren en uitgebreid antwoord op vragen te krijgen. Enkele uitgangspunten beschreven in onze richtlijnen zijn dat er geen interne of vertrouwelijke informatie gebruikt mag worden en dat de informatie goed op juistheid moet worden gecontroleerd.Laatst gewijzigd op 27 maart 2025 om 13:24 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- DPIA, IAMA
- Status
- In gebruik