Show simple item record

dc.rights.licenseCC-BY-NC-ND
dc.contributor.advisorGrimmelikhuijsen, S.G.
dc.contributor.authorNieuwenhuizen, E.N.
dc.date.accessioned2020-12-10T19:00:13Z
dc.date.available2020-12-10T19:00:13Z
dc.date.issued2020
dc.identifier.urihttps://studenttheses.uu.nl/handle/20.500.12932/38324
dc.description.abstractIn de publieke sector vindt een verandering plaats waarbij steeds meer beslissingen die impact hebben op burgers met behulp van algoritmen tot stand komen. Hoewel algoritmische modellen geprezen worden om hun objectiviteit en nauwkeurigheid, kleeft er ook een gevaar aan het gebruik van zulke modellen. Door het gebruik van algoritmen bij besluitvormingsprocessen in de publieke sector bestaat het risico op gebrek aan transparantie, waardoor burgers hun vertrouwen in overheidsbesluiten kunnen verliezen. Om deze reden wordt zowel in de wetenschap als in de maatschappij gepleit voor uitlegbare AI, zodat burgers begrijpen waarom zij een bepaalde beslissing krijgen. In de wetenschap zijn al enkele onderzoeken gedaan over de relatie tussen uitlegbaarheid en het vertrouwen dat men heeft in een algoritmische beslissing. Deze onderzoeken richten zich echter niet op algoritmische besluiten in de publieke sector, waardoor nog onduidelijk is wat voor effect verschillende soorten uitleg kunnen hebben op het vertrouwen van burgers in zulke besluiten. Dit onderzoek probeert daar inzicht in te verkrijgen door de volgende vraag centraal te stellen: “Wat is het effect van uitlegbaarheid van algoritmische besluiten op het vertrouwen van burgers in deze besluiten?”. Uit bestaand onderzoek komt naar voren dat twee soorten uitleg bij kunnen dragen aan het vertrouwen in algoritmische besluiten, namelijk: ▪ Procedurele uitleg: informatie over de gehele beslisprocedure. ▪ Inhoudelijke uitleg: motivering van het specifieke besluit. Aan de hand van een surveyexperiment zijn de effecten van deze soorten uitleg onderzocht. Hiervoor is gebruik gemaakt van een casus: de slimme keuzehulp. Dit is een beslissysteem van de politie dat gebruik maakt van algoritmen om meldingen van internetfraude te beoordelen. 536 respondenten hebben in het surveyexperiment de slimme keuzehulp doorlopen. Hierbij zijn vier groepen onderscheiden, die ieder een andere uitleg kregen aangeboden. Vervolgens hebben de respondenten vragen ingevuld waaruit kon worden opgemaakt of zij vertrouwen hebben in het advies van de slimme keuzehulp. Hierdoor kon de causale relatie tussen uitlegbaarheid en vertrouwen in algoritmische besluiten worden onderzocht. Uit de resultaten komen drie belangrijke bevindingen naar voren: 1. Een procedurele uitleg heeft een klein, positief effect op vertrouwen. 2. Een inhoudelijke uitleg heeft een groot, positief effect op vertrouwen. 3. Een inhoudelijke uitleg maakt een procedurele uitleg overbodig. Mensen willen weten waarom zij in hun specifieke geval een afwijzing (‘geen aangifte doen’) krijgen. Een inhoudelijke motivering van een beslissing levert het meeste vertrouwen op in een algoritmische beslissing. Met de originele uitleg van de slimme keuzehulp kiest 72% van de mensen dat een afwijzend advies krijgt (‘geen aangifte doen’) ervoor om alsnog aangifte te doen. Dit onderzoek laat zien dat het geven van een inhoudelijke uitleg dit percentage kan terugbrengen naar 9,4%. Om verantwoord door te kunnen gaan met het gebruik van algoritmen bij publieke besluitvormingsprocessen is het dus van belang dat er -waar mogelijk- altijd een inhoudelijke uitleg wordt gegeven. Indien een inhoudelijke uitleg niet mogelijk is, kan een procedurele uitleg ook voor een toename in vertrouwen zorgen, al is dit effect veel kleiner. Het is daarom raadzaam om na te denken of het wel wenselijk is om algoritmische beslissystemen te gebruiken waarbij het niet mogelijk is om het besluit inhoudelijk toe te lichten.
dc.description.sponsorshipUtrecht University
dc.format.extent1312768
dc.format.mimetypeapplication/pdf
dc.language.isonl
dc.titleArtificiële intelligentie, is dat wel te vertrouwen? Een experimentele studie naar het effect van uitleg over beslissingen van het intelligente aangiftesysteem van de politie op het vertrouwen van burgers in deze beslissingen.
dc.type.contentMaster Thesis
dc.rights.accessrightsOpen Access
dc.subject.keywordstransparantie; vertrouwen; algoritmen; ai; politie; algoritmische besluitvorming;
dc.subject.courseuuPubliek management


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record