Microsoft 365 Copilot Chat
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- DPIA, IAMA
- Status
- In gebruik
Algemene informatie
Thema
Begindatum
Contactgegevens
Verantwoord gebruik
Doel en impact
Provinciemedewerkers kunnen Copilot Chat gebruiken voor het stellen van vragen, het genereren van teksten en afbeeldingen en het maken van vertalingen en samenvattingen. Copilot Chat kan gebruikt worden om dagelijkse werkzaamheden efficiënter te laten verlopen. Daarnaast is het van belang dat provinciemedewerkers kennis en ervaring opdoen met deze nieuwe technologie. Wel is het essentieel dat provinciemedewerkers kennis hebben van de risico's van het gebruik van generatieve AI-tools. Richtlijnen hieromtrent zijn vastgesteld en worden voortdurend uitgedragen.
Afwegingen
De provincie Groningen heeft in haar risicoafwegingen rekening gehouden met de DPIA en FRAIA van SLM-Rijk. Daarnaast zijn er richtlijnen opgesteld die voortdurend worden uitgedragen om verantwoord gebruik mogelijk te maken. Tevens wordt momenteel bewust geen gebruik gemaakt van Microsoft 365 Copilot, zodat onbedoelde toegang tot bepaalde vertrouwelijke informatie uitgesloten is.
Menselijke tussenkomst
De richtlijnen gaan ervan uit dat alle gegenereerde content altijd door de gebruiker wordt gecontroleerd en, indien nodig, tevens door een collega wordt gecontroleerd (het vierogen-principe) voordat deze wordt gebruikt.
Risicobeheer
Het bestaand beleid vanuit informatieveiligheid, privacy, informatiebeheer, inkoop en personeelsgedragscodes vormen het uitgangspunt voor risicobeheer rondom generatieve AI. Aanvullend zijn er richtlijnen voor verantwoord gebruik van generatieve AI opgesteld om duidelijkheid te geven naar medewerkers wat wel en niet mogelijk is. Verder wordt er voortdurend gewerkt aan interne bewustwording, communicatie en training in het kader van AI-geletterdheid.
Wettelijke basis
AI-verordening ligt aan de basis van deze analyse en onze beleid en richtlijnen.
Links naar wettelijke basis
Toelichting op impacttoetsen
De DPIA en FRAIA SLM-rijk zijn bestudeerd en de benoemde risico's zijn beoordeeld door CDO, CISO, PO en FG op relevantie en toepasselijkheid bij het gebruik van Copilot Chat.
Impacttoetsen
- Data Protection Impact Assessment (DPIA): https://slmmicrosoftrijk.nl/wp-content/uploads/2024/12/20241217-Memo-M365-Copilot-DPIA-en-FRAIA.pdf
- Impact Assessment Mensenrechten en Algoritmes (IAMA): https://slmmicrosoftrijk.nl/wp-content/uploads/2024/12/20241217-Memo-M365-Copilot-DPIA-en-FRAIA.pdf
Werking
Gegevens
Het bestaand beleid vanuit informatieveiligheid, privacy, informatiebeheer, inkoop en personeelsgedragscodes vormen het uitgangspunt voor de te gebruiken gegevens bij de input (prompts). Aanvullend zijn er richtlijnen voor verantwoord gebruik van generatieve AI opgesteld om duidelijkheid te geven naar medewerkers wat wel en niet mogelijk is.
Technische werking
Copilot Chat maakt gebruik van taalmodellen van OpenAI die als service worden gehost in een Microsoft Azure omgeving. De taalmodellen zijn getraind op enorme hoeveelheden tekstdata, wat hen in staat stelt mensachtige teksten te genereren en te begrijpen. Copilot kan deze taalmodellen aanroepen en met behulp van een internet-search vragen beantwoorden, teksten schrijven en relevante informatie verschaffen.
Leverancier
Link naar broncode
Soortgelijke algoritmebeschrijvingen
- Medewerkers kunnen gebruikmaken van Microsoft 365 Copilot Chat (hierna Copilot Chat). Copilot Chat is een generatieve AI-tool aangeboden door Microsoft, waar medewerkers met een Microsoft-account van de gemeente vragen kunnen stellen, teksten en afbeeldingen kunnen genereren en vertalingen en samenvattingen kunnen maken.Laatst gewijzigd op 30 september 2025 om 12:24 | Publicatiestandaard 1.0
- Publicatiecategorie
- Impactvolle algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik
- Medewerkers kunnen gebruik maken van Microsoft 365 CoPilot als AI-chatbot om teksten te genereren en uitgebreid antwoord op vragen te krijgen. Enkele uitgangspunten beschreven in onze richtlijnen zijn dat er geen interne of vertrouwelijke informatie gebruikt mag worden en dat de informatie goed op juistheid moet worden gecontroleerd.Laatst gewijzigd op 27 maart 2025 om 13:24 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- DPIA, IAMA
- Status
- In gebruik
- Medewerkers mogen Microsoft 365 CoPilot gebruiken als een slimme chatbot. Ze kunnen hiermee teksten laten maken en uitgebreide antwoorden op vragen krijgen. In onze regels staat dat medewerkers geen geheime of vertrouwelijke informatie mogen gebruiken. Ook moet de medewerker altijd goed controleren of de informatie klopt.Laatst gewijzigd op 16 september 2025 om 10:32 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik
- Medewerkers kunnen gebruikmaken van Microsoft CoPilot. Dit om teksten en afbeeldingen te genereren of een antwoord op vragen te krijgen. Daarbij mag geen vertrouwelijke informatie worden gebruikt, maar ook geen persoonsgegevens. Een belangrijke voorwaarde is dat de informatie goed en betrouwbaar is en op juistheid gecontroleerd wordt.Laatst gewijzigd op 7 april 2025 om 13:51 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- Veld niet ingevuld.
- Status
- In gebruik
- Een groep medewerkers experimenteert met Microsoft 365 Copilot om praktijkervaring op te doen met generatieve AI. Deze pilot heeft als doel kennis en ervaring te vergaren en middels cassussen te onderzoeken hoe het kan helpen bij overzicht, analyse, snelheid en kostenbesparing.Laatst gewijzigd op 17 maart 2025 om 17:20 | Publicatiestandaard 1.0
- Publicatiecategorie
- Overige algoritmes
- Impacttoetsen
- DPIA
- Status
- In ontwikkeling