Show simple item record

dc.rights.licenseCC-BY-NC-ND
dc.contributor.advisorGrimmelikhuijsen, S.G.
dc.contributor.authorBok, Margot ten
dc.date.accessioned2022-07-30T00:00:38Z
dc.date.available2022-07-30T00:00:38Z
dc.date.issued2022
dc.identifier.urihttps://studenttheses.uu.nl/handle/20.500.12932/42031
dc.description.abstractArtificial Intelligence (AI) is overal om ons heen. Ook de Politie ziet mogelijkheden om werk op straat veiliger, vollediger en efficiënter te maken met behulp van AI. Door deze focus op efficiëntie komen echter andere waarden zoals transparantie, rechtvaardigheid en responsiviteit onder druk te staan (Schiff, Schiff & Pierson, 2021). Door onder andere deze gebrekkige transparantie verdampt de verantwoordelijkheid in de complexe relaties rondom algoritmes (De Fine Licht & De Fine Licht, 2020). Dit is zorgelijk, want om een organisatie verantwoordelijk te kunnen stellen moeten de individuen die in die organisatie werken zich ook verantwoordelijk voelen. Een mogelijk toekomstig hulpmiddel dat gebruik maakt van algoritmes is de bevragingsassistent. De bevragingsassistent is een digitaal hulpmiddel dat gebruik maakt van clusteralgoritmes, dat agenten ondersteunt doormiddel van het leveren van specifieke informatie over personen. Adequate informatievoorziening van agenten is belangrijk, omdat het kan voorkomen dat agenten of verdachten in gevaarlijke situaties belanden. Hoewel AI-systemen in staat zijn om objectieve ondersteuning te bieden, ze kunnen de beslissingen van de agent ook beïnvloeden (Zerilli et al., 2019). Dit doet de vraag rijzen waar precies tussen agent en algoritme de verantwoordelijkheid ligt. Om hier meer inzicht in te krijgen staat de volgende onderzoeksvraag in dit onderzoek centraal: Wat is het effect van algoritmische transparantie op de ervaren morele verantwoordelijkheid van gebiedsgebonden Politieagenten? Deze vraag is onderzocht doormiddel van een surveyexperiment. In het experiment werden twee groepen gescheiden: 1) een groep die scenario’s kregen te zien met een lage mate van algoritmische transparantie en 2) een groep die scenario’s kregen te zien met een hoge mate van algoritmische transparantie. Algoritmische transparantie is in dit experiment gerealiseerd door een combinatie van een tekstuele visualisatie en een korte uitleg. Aan dit experiment hebben 153 agenten deelgenomen. Na het doorlopen van de scenario’s moesten de agenten vragen beantwoorden die gingen over het toekennen van een juist of onjuist antwoord aan zichzelf of aan de bevragingsassistent. Deze schaal is gebruikt om het concept ervaren morele verantwoordelijkheid te operationaliseren. Uit de resultaten blijkt het antwoord op de onderzoeksvraag drieledig te zijn: 1. Algoritmische transparantie heeft geen effect op de ervaren morele verantwoordelijkheid 2. Algoritmische transparantie zorgt wel voor meer begrijpbaarheid van het systeem en het zorgt ervoor dat fouten in een AI systeem niet onopgemerkt blijven 3. Agenten baseren hun oordeelsvorming op basis van verschillende informatiebronnen. De oordeelsvorming van agenten en de ervaren morele verantwoordelijkheid die daaruit volgt moet daarom in een informatie-ecologie gezien worden. Op basis van deze bevindingen zijn inzichten opgedaan voor zowel de wetenschap als de praktijk. Zo schuilt er een risico voor toekomstig onderzoek dat onderzoekers in een ‘tunnelvisie’ alsmaar opzoek gaan naar een geschikt middel om algoritmische transparantie te realiseren, om ervaren morele verantwoordelijkheid te bewerkstelligen, terwijl het effect ervan er niet of nauwelijks lijkt te zijn. Daarnaast heerst er in de praktijk van de Politie een dominante focus op de technologie, waardoor de sociale context overschaduwd wordt. Het is belangrijk dat de bevragingsassistent uiteindelijk in de informatie-ecologie van de agent past. Deze inzichten worden tot slot meegenomen in concrete aanbevelingen voor vervolgonderzoek en de praktijk van de Politie.
dc.description.sponsorshipUtrecht University
dc.language.isoNL
dc.subjectEen experimentele studie naar het effect van algoritmische transparantie op de ervaren morele verantwoordelijkheid van gebiedsgebonden politieagenten in Nederland.
dc.titleAgent & Algoritme
dc.type.contentMaster Thesis
dc.rights.accessrightsOpen Access
dc.subject.keywordsAlgoritme, Artificial Intelligence, Transparantie, Morele verantwoordelijkheid
dc.subject.courseuuPublic Management
dc.thesis.id7343


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record