Tink derom: De algoritmebeskriuwingen yn it Frysk binne automatysk oerset. Hjir kinne flaters yn sitte. Foar de orizjinele beskriuwingen geane jo nei de Nederlânske ferzje fan it Algoritmeregister.

ChatAmsterdam

ChatAmsterdam is in generative AI-assistint ûntwikkele foar de gemeente Amsterdam om AI-geletterdheid binnen de organisaasje te befoarderjen en it feilich en ferantwurdlik gebrûk fan AI as ark yn ús wurk mooglik te meitsjen.

Lêst feroare op 10 septimber 2025 om 9:44 | Publikaasjestandaard 1.0
Publicatiecategorie
Oare algoritmes
Impacttoetsen
DPIA, De Etyske Folder
Status
Yn gebrûk

Algemene ynformaasje

Tema

Organisaasje en bedriuwsfiering

Begjindatum

2024-11

Kontaktgegevens

algoritmen@amsterdam.nl

Link nei boarneregistraasje

Dit is een interne repository die alleen toegankelijk is voor medewerkers van de gemeente Amsterdam.

Ferantwurde gebrûk

Doel en impact

Generative AI biedt in protte mooglikheden om de wurkdruk te ferminderjen, lykas it finen fan ynformaasje, it gearfetten fan dokuminten, it analysearjen fan gegevens of it helpen by it skriuwen fan papers.

Mar dizze technology hat ek neidielen: it trainen fan AI kostet in soad enerzjy en natuerlike boarnen, eigners fan it boarnemateriaal foar it trainen fan 'e modellen wurde net betelle, en it model kin - ôfhinklik fan 'e boarnen - rasistyske of oare etysk ûnwinske resultaten produsearje.


Neist dizze algemiene krityk binne der ek risiko's foar de organisaasje. Dokuminten dy't oan in chatbot levere wurde, kinne troch de leveransier brûkt wurde om it model fierder te trainen. Wat as se gefoelige ynformaasje befetsje? Of wat as in amtner de bot rieplachtet foar ynformaasje om beslútfoarming te stypjen, wylst it model antwurden jout op basis fan ferâldere of gewoan ferkearde ynformaasje?

Om de wearde fan Generative AI foar Amsterdam te ûndersiikjen en tagelyk de praktyske risiko's te identifisearjen, is ûndersyk nedich. Dêrom sille meiwurkers yn Amsterdam foar in beheinde perioade in ynterne Generative AI-chatbot brûke: ChatAmsterdam. Dizze chatbot is boud mei it GPT4o-taalmodel fan Open AI en is net oanpast of oanfolle mei (ynterne) trainingsgegevens.

Tidens de ûndersyksperioade sille gebrûksgedrach, wearde en risiko's yn kaart brocht wurde om te bepalen oft wy dizze technology yn 'e takomst brûke sille.

Afwagings

Wy witte dat Generative AI al brûkt wurdt troch meiwurkers, en wy werkenne de kânsen en risiko's. Der binne ferskate tapassingen foarstelber foar de organisaasje, sawol yntern as ekstern. Mar foardat wy Generative AI (binnen neilibingseasken) tastean binnen de stêd Amsterdam, is ûndersyk nedich. Hoe kommunisearje minsken mei in bot? Hokker (gefoelige) ynformaasje wurdt opnommen yn 'e prompts? Wêrfoar wurde de resultaten brûkt? Hoe weardefol is de technology foar de stêd Amsterdam en har boargers en bedriuwen?


Dizze antwurden helpe de gemeente Amsterdam om de technology feilich, ferantwurde en op in doelgerichte manier yn te setten.

Minskele tuskenkomst

De chatbot en it ûnderlizzende taalmodel nimme gjin ûnôfhinklike besluten, en se binne ek net ûnderdiel fan in automatisearre beslútfoarmingsproses sûnder minsklike yntervinsje.

Alle generearre antwurden wurde beoardiele troch de brûker dy't de fraach/opdracht oan de chatbot yntsjinne hat. De brûker ynteraksjeart dan mei it antwurd, bygelyks troch it foar in part of folslein te kopiearjen of troch fierdere fragen oan de chatbot te stellen. De brûker is altyd posysjonearre tusken it generearre antwurd fan 'e chatbot en de taak of it proses wêrfoar it brûkt wurdt.

Risikobehear

ChatAmsterdam wurdt oanbean as in ynterne chatbot oan ynterne meiwurkers fan 'e gemeente Amsterdam.

De chatbot-applikaasje, gegevens en hostingomjouwing foldogge oan jildende BBN2-feiligensnormen om it risiko op datalekken en feiligensynsidinten te minimalisearjen.

Alle ynfierde prompts wurde opslein en mei de hân kontrolearre op potinsjele etyske risiko's, foaroardielen en datalekken.

Derneist is der in filterfunksje mei twa lagen. It promptfilter fan Microsoft filteret alle prompts op gefaarlike en ûnetyske ûnderwerpen lykas diskriminaasje, selsmoard of misbrûk. It twadde filter is in yntern ûntwikkele promptfilter dat spesifyk siket nei risikofolle ynhâld lykas it gebrûk fan gefoelige gegevens, rasiale profilering, ensafuorthinne.

Dizze risiko-prompts wurde apart opslein en presintearre oan de relevante Risiko/KI-amtners foar yngeande resinsje.

Taljochting op impacttoetsen

Amsterdam fiert op it stuit de etyske ynfloedbeoardieling út yn 'e foarm fan in Etyka-brosjuere. Dizze is foltôge foar dit algoritme.

Impacttoetsen

  • Data Protection Impact Assessment (DPIA)
  • De Etyske Folder

Wurking

Gegevens

ChatAmsterdam brûkt de Open AI LLM, spesifyk GPT4o. Dit is itselde taalmodel (algoritme) dat brûkt wurdt yn ChatGPT.

Dit taalmodel is net fierder traind mei ekstra (ynterne) gegevens. It taalmodel wurdt brûkt sa't it is, sûnder feroarings of fynôfstimming.

Technyske wurking

ChatAmsterdam, as in generative AI-chatbot, brûkt it GPT4o-taalmodel yn syn hjoeddeistige foarm sûnder (ynterne) trainingsgegevens of oare ynformaasje ta te foegjen. It is itselde taalmodel dat ChatGPT brûkt.

ChatAmsterdam wurket fergelykber mei ChatGPT. Meiwurkers kinne in fraach stelle of in prompt (in saneamde "prompt") útjaan oan de chat-applikaasje en dan in generearre antwurd ûntfange. In foarbyld hjirfan is it gearfetsjen of opnij skriuwen fan teksten.

It taalmodel ferwurket de ynfierde fraach of it kommando en alle opjûne ynformaasje en jout dan it generearre antwurd werom oan de brûker.

Leveransier

It algoritme (yn dit gefal it GPT4o-taalmodel) wurdt troch Microsoft levere fia it Azure-wolkplatfoarm.

Soartgelikense algoritme beskriuwingen

  • In útkearingsûntfanger kin allinnich bystân oanfreegje by de gemeente dêr't se ynskreaun steane. Bygelyks, fanwegen ferhuzing is it mooglik dat immen bystân krijt fan meardere gemeenten. It Ynformaasjeburo (IB)* ynformearret de gemeenten hjirfan. Yn sokke gefallen kinne de gemeenten ûnrjochtlik trochgeande útkearingen stopsette.

    Lêst feroare op 5 augustus 2025 om 11:23 | Publikaasjestandaard 1.0
    Publicatiecategorie
    Ympaktfolle algoritmes
    Impacttoetsen
    DPIA
    Status
    Yn gebrûk
  • Chatbot JAI is in chatbot dy't oplaat is yn Nederlânske wetjouwing. It stipet meiwurkers by it beantwurdzjen en stellen fan juridyske fragen.

    Lêst feroare op 26 juny 2025 om 10:39 | Publikaasjestandaard 1.0
    Publicatiecategorie
    Ympaktfolle algoritmes
    Impacttoetsen
    Fjild net ynfierd.
    Status
    Yn gebrûk
  • Dizze chatbot stipet meiwurkers fan 'e gemeente Rotterdam by it beantwurdzjen fan fragen fan ynwenners. De chatbot brûkt ynformaasje út 'e kennisbank fan RoWiKi.

    Lêst feroare op 5 desimber 2025 om 8:10 | Publikaasjestandaard 1.0
    Publicatiecategorie
    Oare algoritmes
    Impacttoetsen
    Fjild net ynfierd.
    Status
    Yn gebrûk
  • Amsterdammers mei lege ynkommens en sparjild kinne in kwytskelding fan gemeentlike belestingen krije. De gemeente beoardielet harren oanfragen. It algoritme analysearret de gegevens en selektearret de oanfragen dy't yn oanmerking komme foar kwytskelding. De definitive beslissing leit altyd by de oanfreger. De ark makket it proses rapper en makliker foar sawol meiwurkers as Amsterdammers.

    Lêst feroare op 2 oktober 2025 om 12:15 | Publikaasjestandaard 1.0
    Publicatiecategorie
    Ympaktfolle algoritmes
    Impacttoetsen
    DPIA
    Status
    Yn gebrûk
  • It is wichtich foar de provinsje om aktuele ynformaasje te hawwen oer wat der binnen de 50 gemeenten yn Súd-Hollân spilet. Ynsjoch yn trends is wichtich om goed en yn 'e tiid te reagearjen op relevante ûntjouwings. Dat wurdt presintearre op in tûk nijsportaal foar de provinsje Oog op Zuid-Holland.

    Lêst feroare op 22 novimber 2024 om 11:24 | Publikaasjestandaard 1.0
    Publicatiecategorie
    Ympaktfolle algoritmes
    Impacttoetsen
    Fjild net ynfierd.
    Status
    Yn gebrûk