De opening van de ‘black box’ van open source gezichtsherkenningssoftware
Summary
Buolamwini ontdekte dat zij – als zwarte vrouw – niet herkend werd door open source gezichtsherkenningssoftware. Haar blanke vrienden werden daarentegen wel herkend. Dit kwam volgens haar door ‘the coded gaze’ binnen trainingsdatasets. Hierin zijn de zienswijzen van de programmeurs, over wat bijvoorbeeld de populatie is, gecodeerd in de trainingsdatasets die gebruikt worden voor het trainen van open source gezichtsherkenningssoftware. Daarom is in dit onderzoek ‘the coded gaze’ van drie trainingsdatasets (Face Detection Data Set and Benchmark, VGGFace2 en Labeled Faces in the Wild), die gebruikt zijn door open source gezichtsherkenningssoftware, onderzocht en hoe deze de ‘training data bias’ van de software vormen. Via een ‘qualitative content analysis’ is geprobeerd om de gezichten van verschillende kanten te analyseren om zo veel mogelijk vooroordelen te kunnen onderzoeken. In de resultaten zijn tussen de drie trainingsdatasets een overeenkomstige ‘gaze’ ontdekt, aangezien zij in de gevonden variabelen niet veel verschilden. Deze ‘gaze’ zorgt voor een ‘training data bias’ die bij het trainen van een algoritme bijdraagt aan de ‘algorithmic bias’ van gezichtsherkenningssoftware.