
Artificiële intelligentie: van blind vertrouwen naar ‘in control’
Overheid en technologie hebben een moeilijk huwelijk. Kunnen inwoners er bijvoorbeeld op vertrouwen dat de overheid verantwoord omgaat met data en artificiële intelligentie (AI)? Niet altijd helaas. Denk aan de gevolgen voor burgers door de inzet van AI bij de Belastingdienst. Of aan privacyschendingen doordat data wordt gebruikt waarvoor deze niet is verzameld. Tegelijkertijd zijn data en AI te waardevol om te verwerpen. Het is daarom tijd om naast het reguleren van de techniek, ook de doelmatigheid van toepassingen te borgen.
Vertrouwens-paradox
Het wantrouwen in de manier waarop de overheid techniek gebruikt, komt mede door de oppervlakkige relatie die inwoners met overheidstechnologie hebben. Ze zien een pagina op het web of in een app, maar niet wat er op de achtergrond afspeelt. De werking en doelstellingen van algoritmes zijn onzichtbaar. De gebruikte data is niet van inwoners, maar gaat wel over hen. Hierdoor ontstaat er een paradox. De systemen zijn zo complex dat ze vragen om ‘blind’ vertrouwen, maar daarmee ontstaat er zoveel onzekerheid dat inwoners de systemen juist niet meer vertrouwen. Zeker omdat als het mis gaat de gevolgen uitermate voelbaar zijn.
Richtlijnen zijn niet voldoende
Er zijn goede richtlijnen en uitgangspunten omtrent ethiek, werking en transparantie gemaakt voor en door overheden die werken met data en AI. Zo zijn er de DEDA van de Utrecht Data School, de EU-richtlijnen omtrent data-ethiek en TADA.city van de gemeente Amsterdam. Het is belangrijk dat deze richtlijnen er zijn, maar om het vertrouwen van inwoners terug te winnen is meer nodig.
Creëer transparantie over doelmatigheid
Techniekregulatie gaat vaak over rechtmatigheid. Minstens zo belangrijk is echter transparantie over doelmatigheid. Je wilt ‘in control’ blijven bij de inzet van data en AI. Het gaat om het bepalen van de waarden achter je algoritmes, zicht houden op wat er gebeurt en kunnen ingrijpen in de uitkomsten als jij dat nodig vindt. Deze vragen helpen daarbij:
- Welke idealen en waarden hanteren we? Bijvoorbeeld: ‘we discrimineren niet’ of ‘onschuldig tot het tegendeel bewezen is.’
- Waarom doen we het? Bijvoorbeeld fraudebestrijding of betere toegang tot hulp.
- Welke politieke, sociale en maatschappelijke buffers zijn er ingebouwd voor sturing en bijsturing van het algoritme?
- Welke ruimte en mogelijkheden zijn er voor burgers en politiek om de gestelde idealen en doelen te bevragen en te toetsen?
Gebruik AI niet om je achter te verschuilen, maar zet het zo in dat het helpt het vertrouwen in de overheid te vergroten.
Meer informatie?
Dennis beantwoordt graag jouw vraag en denkt met je mee. Of laat een bericht achter in de chat.