Tink derom: De algoritmebeskriuwingen yn it Frysk binne automatysk oerset. Hjir kinne flaters yn sitte. Foar de orizjinele beskriuwingen geane jo nei de Nederlânske ferzje fan it Algoritmeregister.
ChatAmsterdam
- Publicatiecategorie
- Oare algoritmes
- Impacttoetsen
- DPIA, ...
- Status
- Yn ûntwikkeling
Algemene ynformaasje
Tema
Begjindatum
Einddatum
Kontaktgegevens
Link nei boarneregistraasje
Ferantwurde gebrûk
Doel en impact
Generative AI biedt in protte mooglikheden om de wurkdruk te ferljochtsjen, lykas ynformaasje fine, dokuminten gearfetsje, gegevens analysearje of helpe by it skriuwen fan papieren.
Mar dizze technology hat ek skaadkanten: it oplieden fan AI kostet in soad enerzjy en natuerlike boarnen, eigners fan it boarnemateriaal foar it oplieden fan de modellen wurde net betelle, en it model kin - ôfhinklik fan 'e boarnen - rasistyske of oare etysk net-winske resultaten produsearje.
Njonken dizze algemiene kritykpunten binne der ek risiko's foar de organisaasje. Dokuminten levere oan in chatbot kinne wurde brûkt troch de leveransier om it model fierder te trenen. Wat as d'r gefoelige ynformaasje yn is? Of wat as in amtner de bot konsultearret om ynformaasje te finen om beslútfoarming te stypjen, wylst it model antwurden jout op basis fan ferâldere of gewoan ferkearde ynformaasje?
Om de wearde fan Generative AI foar Amsterdam te ferkennen en tagelyk de praktyske risiko's yn kaart te bringen, is ûndersyk nedich. Meiwurkers fan Amsterdam sille dêrom foar in beheinde perioade in ynterne Generative AI chatbot brûke: ChatAmsterdam. Dizze chatbot is boud mei it GPT4.0-taalmodel fan Open AI en is net wizige of oanfolle mei (ynterne) trainingsgegevens.
Yn de ûndersyksperioade wurde gebrûksgedrach, wearde en risiko's yn kaart brocht om te bepalen oft wy dizze technology yn de takomst brûke sille.
Afwagings
Wy witte dat Generative AI al wurdt brûkt troch meiwurkers en wy erkenne de kânsen en risiko's. Der binne genôch tapassingen dy't betocht wurde kinne foar de organisaasje: sawol yntern as ekstern. Mar foardat wy Generative AI (binnen de neilibjenseasken) tastean binnen de Gemeente Amsterdam, is ûndersyk nedich. Hoe kommunisearje minsken mei in bot? Hokker soarte fan (gefoelige) ynformaasje wurdt tegearre mei de prompts ferstjoerd? Wêr wurde de resultaten foar brûkt? Hoe weardefol is de technology foar de gemeente Amsterdam en de boargers en ûndernimmers fan de stêd?
Dizze antwurden helpe de gemeente Amsterdam om de technyk feilich, ferantwurde en doelbewust yn te setten.
Minskele tuskenkomst
De chatbot en it ûnderlizzende taalmodel meitsje gjin selsstannige besluten, noch binne se diel út fan in automatysk beslútfoarmingproses sûnder minsklik yngripen.
Alle generearre antwurden wurde besjoen troch de brûker dy't de fraach/kommando oan de chatbot stelde. De brûker begjint dan mei it antwurd te wurkjen, bygelyks troch it foar in part of folslein te kopiearjen of troch fierdere fragen te stellen oan de chatbot. De brûker sit altyd fêst tusken it generearre antwurd fan de chatbot en de taak of proses wêrfoar it antwurd wurdt brûkt.
Risikobehear
ChatAmsterdam wurdt as ynterne chatbot oanbean oan ynterne meiwurkers fan de gemeente Amsterdam.
De chatbot-applikaasje, gegevens en hosting-omjouwing foldogge oan jildende BBN2-befeiligingsnoarmen om it risiko fan gegevenslekken en feiligensynsidinten te minimalisearjen.
Alle ynfierde prompts wurde opslein en mei de hân hifke foar potensjele etyske risiko's, bias en mooglike gegevenslekken.
Derneist is d'r in twa-laach filterfunksje. It promptfilter fan Microsoft filtert alle oanfragen foar gefaarlike en onetyske dingen lykas diskriminaasje, selsmoard of misbrûk. It twadde filter is in yntern ûntwikkele promptfilter dat spesifyk siket nei risikofolle ynhâld lykas it brûken fan gefoelige gegevens, etnyske profilearring, ensfh.
Dizze risiko-prompts wurde apart opslein en presintearre oan de oanbelangjende Risk / AI-offisieren foar ynhâldlike beoardieling.
Taljochting op impacttoetsen
Amsterdam fiert op it stuit de ethyske impact assessment út yn de foarm fan in Ethical Leaflet. Dit is foltôge foar dit algoritme.
Impacttoetsen
- Data Protection Impact Assessment (DPIA)
- Ethische Bijsluiter Amsterdam
Wurking
Gegevens
ChatAmsterdam brûkt de Open AI LLM, spesifyk GPT4.0. Dit is itselde taalmodel (algoritme) dat ek brûkt wurdt yn ChatGPT.
Dit taalmodel is net fierder traind mei ekstra (ynterne) gegevens. It taalmodel wurdt brûkt sa't it is, sûnder feroaringen of fine-tuning.
Technyske wurking
ChatAmsterdam as Generative AI chatbot brûkt it GPT4.0-taalmodel yn syn hjoeddeistige foarm sûnder (ynterne) trainingsgegevens of oare gegevens ta te foegjen. It is itselde taalmodel dat ChatGPT brûkt.
ChatAmsterdam wurket op in fergelykbere manier as ChatGPT. Meiwurkers kinne in fraach stelle of in kommando útjaan (in 'prompt' neamd) nei de petearapplikaasje en dan in generearre antwurd krije. In foarbyld dêrfan is it gearfetten of werskriuwen fan teksten.
It taalmodel ferwurket de ynfierde fraach of kommando en alle levere ynformaasje en jout dan it generearre antwurd werom nei de brûker.
Leveransier
Soartgelikense algoritme beskriuwingen
- It is wichtich foar de provinsje om aktuele ynformaasje te hawwen oer wat der binnen de 50 gemeenten yn Súd-Hollân spilet. Ynsjoch yn trends is wichtich om goed en yn 'e tiid te reagearjen op relevante ûntjouwings. Dat wurdt presintearre op in tûk nijsportaal foar de provinsje Oog op Zuid-Holland.Lêst feroare op 22 novimber 2024 om 11:24 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn gebrûk
- In persoan dy't rjocht hat op bystân kin allinnich by de gemeente dêr't de ynwenner stiet ynskreaun om bystân oanfreegje. Sa kin immen as gefolch fan ferhuzing sosjale bystân krije fan meardere gemeenten. Stichting Inlichtingenbureau (IB) informearret de gemeenten dêroer. De gemeenten kinne dan ophâlde mei it yllegaal rinnende útkearings.Lêst feroare op 11 oktober 2024 om 8:40 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn gebrûk
- De gemeente Amsterdam bepaalt alle jierren de WOZ-wearde fan alle ûnreplik guod en brûkt dêrfoar in statistysk berekkeningsmodel.Lêst feroare op 21 novimber 2024 om 9:11 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn gebrûk
- De direksje V&OR hat it Computerfisyteam fan de Gemeente Amsterdam yn opdracht jûn om te ûndersykjen hoe't objektherkenning helpe kin foar te kommen dat kwetsbere brêgen en kaaimuorren ynstoarten troch dêrop swiere foarwerpen te pleatsen.Lêst feroare op 27 novimber 2024 om 15:11 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn ûntwikkeling
- WooChat is in AI keunstmjittige yntelliginsje, chatbot. De bot genereart nije teksten op basis fan boarnen dy't as ynfier oanbean wurde, lykas ferskate boeken en de juridyske tekst fan 'e Woo. De AI herkent patroanen yn teksten en brûkt foarôf ynfierde kennis om fragen te beantwurdzjen en komplekse oanfragen / ynformaasje effisjint te strukturearjen.Lêst feroare op 10 april 2025 om 9:46 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Oare algoritmes
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn gebrûk