Tink derom: De algoritmebeskriuwingen yn it Frysk binne automatysk oerset. Hjir kinne flaters yn sitte. Foar de orizjinele beskriuwingen geane jo nei de Nederlânske ferzje fan it Algoritmeregister.

ChatAmsterdam

ChatAmsterdam is in generative AI-assistint ûntwikkele foar de gemeente Amsterdam om AI-geletterdheid binnen de organisaasje te befoarderjen en AI feilich en ferantwurde te brûken as ark yn ús wurk.

Lêst feroare op 25 maart 2025 om 10:04 | Publikaasjestandaard 1.0
Publicatiecategorie
Oare algoritmes
Impacttoetsen
DPIA, ...
Status
Yn ûntwikkeling

Algemene ynformaasje

Tema

Organisaasje en bedriuwsfiering

Begjindatum

11-2024

Einddatum

03-2025

Kontaktgegevens

algoritmen@amsterdam.nl

Link nei boarneregistraasje

Dit is een interne repository die alleen toegankelijk is voor medewerkers van de gemeente Amsterdam.

Ferantwurde gebrûk

Doel en impact

Generative AI biedt in protte mooglikheden om de wurkdruk te ferljochtsjen, lykas ynformaasje fine, dokuminten gearfetsje, gegevens analysearje of helpe by it skriuwen fan papieren.

Mar dizze technology hat ek skaadkanten: it oplieden fan AI kostet in soad enerzjy en natuerlike boarnen, eigners fan it boarnemateriaal foar it oplieden fan de modellen wurde net betelle, en it model kin - ôfhinklik fan 'e boarnen - rasistyske of oare etysk net-winske resultaten produsearje.


Njonken dizze algemiene kritykpunten binne der ek risiko's foar de organisaasje. Dokuminten levere oan in chatbot kinne wurde brûkt troch de leveransier om it model fierder te trenen. Wat as d'r gefoelige ynformaasje yn is? Of wat as in amtner de bot konsultearret om ynformaasje te finen om beslútfoarming te stypjen, wylst it model antwurden jout op basis fan ferâldere of gewoan ferkearde ynformaasje?

Om de wearde fan Generative AI foar Amsterdam te ferkennen en tagelyk de praktyske risiko's yn kaart te bringen, is ûndersyk nedich. Meiwurkers fan Amsterdam sille dêrom foar in beheinde perioade in ynterne Generative AI chatbot brûke: ChatAmsterdam. Dizze chatbot is boud mei it GPT4.0-taalmodel fan Open AI en is net wizige of oanfolle mei (ynterne) trainingsgegevens.

Yn de ûndersyksperioade wurde gebrûksgedrach, wearde en risiko's yn kaart brocht om te bepalen oft wy dizze technology yn de takomst brûke sille.

Afwagings

Wy witte dat Generative AI al wurdt brûkt troch meiwurkers en wy erkenne de kânsen en risiko's. Der binne genôch tapassingen dy't betocht wurde kinne foar de organisaasje: sawol yntern as ekstern. Mar foardat wy Generative AI (binnen de neilibjenseasken) tastean binnen de Gemeente Amsterdam, is ûndersyk nedich. Hoe kommunisearje minsken mei in bot? Hokker soarte fan (gefoelige) ynformaasje wurdt tegearre mei de prompts ferstjoerd? Wêr wurde de resultaten foar brûkt? Hoe weardefol is de technology foar de gemeente Amsterdam en de boargers en ûndernimmers fan de stêd?


Dizze antwurden helpe de gemeente Amsterdam om de technyk feilich, ferantwurde en doelbewust yn te setten.

Minskele tuskenkomst

De chatbot en it ûnderlizzende taalmodel meitsje gjin selsstannige besluten, noch binne se diel út fan in automatysk beslútfoarmingproses sûnder minsklik yngripen.

Alle generearre antwurden wurde besjoen troch de brûker dy't de fraach/kommando oan de chatbot stelde. De brûker begjint dan mei it antwurd te wurkjen, bygelyks troch it foar in part of folslein te kopiearjen of troch fierdere fragen te stellen oan de chatbot. De brûker sit altyd fêst tusken it generearre antwurd fan de chatbot en de taak of proses wêrfoar it antwurd wurdt brûkt.

Risikobehear

ChatAmsterdam wurdt as ynterne chatbot oanbean oan ynterne meiwurkers fan de gemeente Amsterdam.

De chatbot-applikaasje, gegevens en hosting-omjouwing foldogge oan jildende BBN2-befeiligingsnoarmen om it risiko fan gegevenslekken en feiligensynsidinten te minimalisearjen.

Alle ynfierde prompts wurde opslein en mei de hân hifke foar potensjele etyske risiko's, bias en mooglike gegevenslekken.

Derneist is d'r in twa-laach filterfunksje. It promptfilter fan Microsoft filtert alle oanfragen foar gefaarlike en onetyske dingen lykas diskriminaasje, selsmoard of misbrûk. It twadde filter is in yntern ûntwikkele promptfilter dat spesifyk siket nei risikofolle ynhâld lykas it brûken fan gefoelige gegevens, etnyske profilearring, ensfh.

Dizze risiko-prompts wurde apart opslein en presintearre oan de oanbelangjende Risk / AI-offisieren foar ynhâldlike beoardieling.

Taljochting op impacttoetsen

Amsterdam fiert op it stuit de ethyske impact assessment út yn de foarm fan in Ethical Leaflet. Dit is foltôge foar dit algoritme.

Impacttoetsen

  • Data Protection Impact Assessment (DPIA)
  • Ethische Bijsluiter Amsterdam

Wurking

Gegevens

ChatAmsterdam brûkt de Open AI LLM, spesifyk GPT4.0. Dit is itselde taalmodel (algoritme) dat ek brûkt wurdt yn ChatGPT.

Dit taalmodel is net fierder traind mei ekstra (ynterne) gegevens. It taalmodel wurdt brûkt sa't it is, sûnder feroaringen of fine-tuning.

Technyske wurking

ChatAmsterdam as Generative AI chatbot brûkt it GPT4.0-taalmodel yn syn hjoeddeistige foarm sûnder (ynterne) trainingsgegevens of oare gegevens ta te foegjen. It is itselde taalmodel dat ChatGPT brûkt.

ChatAmsterdam wurket op in fergelykbere manier as ChatGPT. Meiwurkers kinne in fraach stelle of in kommando útjaan (in 'prompt' neamd) nei de petearapplikaasje en dan in generearre antwurd krije. In foarbyld dêrfan is it gearfetten of werskriuwen fan teksten.

It taalmodel ferwurket de ynfierde fraach of kommando en alle levere ynformaasje en jout dan it generearre antwurd werom nei de brûker.

Leveransier

It algoritme (yn dit gefal it GPT4.0-taalmodel) wurdt levere troch Microsoft fia it Azure-wolkplatfoarm.

Soartgelikense algoritme beskriuwingen

  • It is wichtich foar de provinsje om aktuele ynformaasje te hawwen oer wat der binnen de 50 gemeenten yn Súd-Hollân spilet. Ynsjoch yn trends is wichtich om goed en yn 'e tiid te reagearjen op relevante ûntjouwings. Dat wurdt presintearre op in tûk nijsportaal foar de provinsje Oog op Zuid-Holland.

    Lêst feroare op 22 novimber 2024 om 11:24 | Publikaasjestandaard 1.0
    Publicatiecategorie
    Ympaktfolle algoritmes
    Impacttoetsen
    Fjild net ynfierd.
    Status
    Yn gebrûk
  • In persoan dy't rjocht hat op bystân kin allinnich by de gemeente dêr't de ynwenner stiet ynskreaun om bystân oanfreegje. Sa kin immen as gefolch fan ferhuzing sosjale bystân krije fan meardere gemeenten. Stichting Inlichtingenbureau (IB) informearret de gemeenten dêroer. De gemeenten kinne dan ophâlde mei it yllegaal rinnende útkearings.

    Lêst feroare op 11 oktober 2024 om 8:40 | Publikaasjestandaard 1.0
    Publicatiecategorie
    Ympaktfolle algoritmes
    Impacttoetsen
    Fjild net ynfierd.
    Status
    Yn gebrûk
  • De gemeente Amsterdam bepaalt alle jierren de WOZ-wearde fan alle ûnreplik guod en brûkt dêrfoar in statistysk berekkeningsmodel.

    Lêst feroare op 21 novimber 2024 om 9:11 | Publikaasjestandaard 1.0
    Publicatiecategorie
    Ympaktfolle algoritmes
    Impacttoetsen
    Fjild net ynfierd.
    Status
    Yn gebrûk
  • De direksje V&OR hat it Computerfisyteam fan de Gemeente Amsterdam yn opdracht jûn om te ûndersykjen hoe't objektherkenning helpe kin foar te kommen dat kwetsbere brêgen en kaaimuorren ynstoarten troch dêrop swiere foarwerpen te pleatsen.

    Lêst feroare op 27 novimber 2024 om 15:11 | Publikaasjestandaard 1.0
    Publicatiecategorie
    Ympaktfolle algoritmes
    Impacttoetsen
    Fjild net ynfierd.
    Status
    Yn ûntwikkeling
  • WooChat is in AI keunstmjittige yntelliginsje, chatbot. De bot genereart nije teksten op basis fan boarnen dy't as ynfier oanbean wurde, lykas ferskate boeken en de juridyske tekst fan 'e Woo. De AI herkent patroanen yn teksten en brûkt foarôf ynfierde kennis om fragen te beantwurdzjen en komplekse oanfragen / ynformaasje effisjint te strukturearjen.

    Lêst feroare op 10 april 2025 om 9:46 | Publikaasjestandaard 1.0
    Publicatiecategorie
    Oare algoritmes
    Impacttoetsen
    Fjild net ynfierd.
    Status
    Yn gebrûk