Tink derom: De algoritmebeskriuwingen yn it Frysk binne automatysk oerset. Hjir kinne flaters yn sitte. Foar de orizjinele beskriuwingen geane jo nei de Nederlânske ferzje fan it Algoritmeregister.
ChatAmsterdam
- Publicatiecategorie
- Oare algoritmes
- Impacttoetsen
- DPIA, ...
- Status
- Yn gebrûk
Algemene ynformaasje
Tema
Begjindatum
Kontaktgegevens
Link nei boarneregistraasje
Ferantwurde gebrûk
Doel en impact
Generative AI biedt in protte mooglikheden om de wurkdruk te ferminderjen, lykas it finen fan ynformaasje, it gearfetten fan dokuminten, it analysearjen fan gegevens of it helpen by it skriuwen fan papers.
Mar dizze technology hat ek neidielen: it trainen fan AI kostet in soad enerzjy en natuerlike boarnen, eigners fan it boarnemateriaal foar it trainen fan 'e modellen wurde net betelle, en it model kin - ôfhinklik fan 'e boarnen - rasistyske of oare etysk ûnwinske resultaten produsearje.
Neist dizze algemiene kritykpunten binne der ek risiko's foar de organisaasje. Dokuminten dy't oan in chatbot levere wurde, kinne troch de leveransier brûkt wurde om it model fierder te trainen. Wat as dêr gefoelige ynformaasje yn stiet? Of wat as in amtner de bot rieplachtet om ynformaasje te finen om beslútfoarming te stypjen, wylst it model antwurden jout basearre op ferâldere of gewoan ferkearde ynformaasje?
Om de wearde fan Generative AI foar Amsterdam te ûndersiikjen en tagelyk de praktyske risiko's yn kaart te bringen, is ûndersyk nedich. Meiwurkers fan Amsterdam sille dêrom foar in beheinde perioade in ynterne Generative AI-chatbot brûke: ChatAmsterdam. Dizze chatbot is boud mei it GPT4o-taalmodel fan Open AI en is net oanpast of oanfolle mei (ynterne) trainingsgegevens.
Tidens de ûndersyksperioade sille gebrûksgedrach, wearde en risiko's yn kaart brocht wurde om te bepalen oft wy dizze technology yn 'e takomst brûke sille.
Afwagings
Wy witte dat Generative AI al brûkt wurdt troch meiwurkers en wy werkenne de kânsen en risiko's. Der binne in soad tapassingen dy't foar de organisaasje betocht wurde kinne: sawol yntern as ekstern. Mar foardat wy Generative AI (binnen de neilibingseasken) tastean binnen de gemeente Amsterdam, is ûndersyk nedich. Hoe kommunisearje minsken mei in bot? Hokker soarte (gefoelige) ynformaasje wurdt mei de prompts ferstjoerd? Wêrfoar sille de resultaten brûkt wurde? Hoe weardefol is de technology foar de gemeente Amsterdam en de boargers en ûndernimmers fan 'e stêd?
Dizze antwurden helpe de gemeente Amsterdam om de technology feilich, ferantwurde en op in doelgerichte manier yn te setten.
Minskele tuskenkomst
De chatbot en it ûnderlizzende taalmodel nimme gjin ûnôfhinklike besluten, en se binne ek net ûnderdiel fan in automatysk beslútfoarmingsproses sûnder minsklike yntervinsje.
Alle generearre antwurden wurde besjoen troch de brûker dy't de fraach/opdracht oan de chatbot stelde. De brûker begjint dan mei it antwurd te wurkjen, bygelyks troch it foar in part of folslein te kopiearjen of troch fierdere fragen oan de chatbot te stellen. De brûker sit altyd fêst tusken it generearre antwurd fan 'e chatbot en de taak of it proses wêrfoar't it antwurd brûkt wurdt.
Risikobehear
ChatAmsterdam wurdt oanbean as in ynterne chatbot oan ynterne meiwurkers fan 'e gemeente Amsterdam.
De chatbot-applikaasje, gegevens en hostingomjouwing foldogge oan jildende BBN2-feiligensnormen om it risiko op datalekken en feiligensynsidinten te minimalisearjen.
Alle ynfierde prompts wurde opslein en mei de hân kontrolearre op potinsjele etyske risiko's, foaroardielen en mooglike datalekken.
Derneist is der in filterfunksje mei twa lagen. Microsoft's Prompt Filter filteret alle prompts út foar gefaarlike en ûnetyske dingen lykas diskriminaasje, selsmoard of misbrûk. It twadde filter is in yntern ûntwikkele promptfilter dat spesifyk siket nei risikofolle ynhâld lykas it gebrûk fan gefoelige gegevens, etnyske profilering, ensfh.
Dizze risiko-prompts wurde apart opslein en presintearre oan de relevante Risiko/KI-amtners foar yngeande resinsje.
Taljochting op impacttoetsen
Amsterdam fiert op it stuit de etyske gefolgenbeoardieling út yn 'e foarm fan in Etyske Brosjuere. Dit is foltôge foar dit algoritme.
Impacttoetsen
- Data Protection Impact Assessment (DPIA)
- Ethische Bijsluiter Amsterdam
Wurking
Gegevens
ChatAmsterdam brûkt de Open AI LLM, spesifyk GPT4o. Dit is itselde taalmodel (algoritme) dat brûkt wurdt yn ChatGPT.
Dit taalmodel waard net fierder oplaat mei ekstra (ynterne) gegevens. It taalmodel wurdt brûkt sa't it is, sûnder feroarings of fynôfstimming.
Technyske wurking
ChatAmsterdam as in generative AI-chatbot brûkt it GPT4o-taalmodel yn syn hjoeddeistige foarm sûnder (ynterne) trainingsgegevens of oare gegevens ta te foegjen. It is itselde taalmodel dat ChatGPT brûkt.
ChatAmsterdam wurket op in fergelykbere manier as ChatGPT. Meiwurkers kinne in fraach stelle of in kommando (in saneamde 'prompt') jaan oan de chat-applikaasje en dan in generearre antwurd ûntfange. In foarbyld hjirfan is it gearfetten of herskriuwen fan teksten.
It taalmodel ferwurket de ynfierde fraach of it kommando en alle opjûne ynformaasje en jout dan it generearre antwurd werom oan de brûker.
Leveransier
Soartgelikense algoritme beskriuwingen
- In persoan dy't rjocht hat op bystân kin allinnich by de gemeente dêr't de ynwenner stiet ynskreaun om bystân oanfreegje. Sa kin immen as gefolch fan ferhuzing sosjale bystân krije fan meardere gemeenten. Stichting Inlichtingenbureau (IB) informearret de gemeenten dêroer. De gemeenten kinne dan ophâlde mei it yllegaal rinnende útkearings.Lêst feroare op 11 oktober 2024 om 8:40 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn gebrûk
- It is wichtich foar de provinsje om aktuele ynformaasje te hawwen oer wat der binnen de 50 gemeenten yn Súd-Hollân spilet. Ynsjoch yn trends is wichtich om goed en yn 'e tiid te reagearjen op relevante ûntjouwings. Dat wurdt presintearre op in tûk nijsportaal foar de provinsje Oog op Zuid-Holland.Lêst feroare op 22 novimber 2024 om 11:24 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn gebrûk
- De direksje V&OR hat it Computerfisyteam fan de Gemeente Amsterdam yn opdracht jûn om te ûndersykjen hoe't objektherkenning helpe kin foar te kommen dat kwetsbere brêgen en kaaimuorren ynstoarten troch dêrop swiere foarwerpen te pleatsen.Lêst feroare op 27 novimber 2024 om 15:11 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn ûntwikkeling
- De gemeente Amsterdam bepaalt alle jierren de WOZ-wearde fan alle ûnreplik guod en brûkt dêrfoar in statistysk berekkeningsmodel.Lêst feroare op 21 novimber 2024 om 9:11 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn gebrûk
- Amsterdam wol in rêstiger strjitbyld en wol dêrom reklamebelesting ophelje. Der moat reklamebelesting betelle wurde foar útdrukkings dy't fan de iepenbiere dyk sichtber binne (lykas geveladvertinsjes, buorden en rútadvertinsjes).Lêst feroare op 9 desimber 2024 om 14:28 | Publikaasjestandaard 1.0
- Publicatiecategorie
- Ympaktfolle algoritmes
- Impacttoetsen
- Fjild net ynfierd.
- Status
- Yn gebrûk