Verantwoord beslissen: De rol van verantwoording bij gepast vertrouwen in AI-adviezen binnen de politie
Summary
AI-systemen worden steeds vaker ingezet om contactambtenaren te ondersteunen bij complexe besluitvormingsprocessen. Het gebruik van AI-systemen in besluitvormingsprocessen biedt risico's, waardoor het nog steeds gebruikelijk is dat contactambtenaren het beslissingsproces overzien en het uiteindelijke besluit nemen. Echter, net als het systeem is de mens niet feilloos. Mensen tonen zowel te veel vertrouwen in AI-systemen als te weinig vertrouwen. Het is van belang dat contactambtenaren streven naar een ‘gepaste’ hoeveelheid vertrouwen in AI systemen. In de context van politiewerk toetst dit onderzoek het effect van verantwoording afleggen op het bereiken van een gepast vertrouwen in AI-adviezen. Hiervoor is een surveyexperiment met een fictief AI-systeem uitgevoerd bij een steekproef van politieagenten (N=131). De resultaten van dit experiment laten zien dat: (1) gepast vertrouwen op AI-adviezen moeilijk te bereiken is, (2) verantwoording afleggen geen rol speelt in het voorkomen van te weinig vertrouwen in AI-adviezen, en (3) ervaring geen modererende factor is die de relatie tussen verantwoording afleggen en gepast vertrouwen versterkt. Deze resultaten hebben belangrijke implicaties voor het werk van contactambtenaren.