Gezichtsherkenning: Er zijn verschillende gevallen geweest waarbij gezichtsherkenningssystemen hebben geleid tot schade en onrechtvaardigheid. Bijvoorbeeld, in 2018 onthulde een onderzoek dat Amazon's gezichtsherkenningssysteem, Rekognition, een hogere foutenmarge had bij het identificeren van gezichten van donkere huidskleur dan bij gezichten van lichte huidskleur. Dit kan leiden tot discriminatie en onrechtvaardige behandeling van mensen van kleur.
Bewakingssystemen: Bewakingssystemen die zijn gebaseerd op AI, zoals slimme beveiligingscamera's en drones, kunnen ook leiden tot schade en onrechtvaardigheid. Bijvoorbeeld, in 2020 werd een zwarte man onterecht gearresteerd in Detroit, Michigan, omdat een gezichtsherkenningssysteem hem ten onrechte had geïdentificeerd als de verdachte in een zaak van winkeldiefstal.