Onderzoekers ontwikkelen algoritme voor identificatie seksuele geaardheid via gezichtsherkenning

Door arnovos op dinsdag 12 september 2017 20:04 - Reacties (8)
Categorie: -, Views: 2.449

Twee onderzoekers aan de Amerikaanse Stanford universiteit hebben een algoritme ontwikkeld dat door middel van gezichtsherkenning de seksuele geaardheid van proefpersonen kan bepalen. Volgens de wetenschappers Michael Kosinski en Yilun Wang presteert de software beduidend beter dan menselijke proefpersonen. In een opstelling met foto's van een heteroseksuele man en homoseksuele man herkende de software desgevraagd in 81% van de gevallen de homoseksuele man. In dezelfde opstelling met twee portretten van vrouwen identificeerde de software in 71% van de gevallen de lesbische vrouw correct. Menselijke herkenners kwamen in het experiment niet verder dan een juiste herkenningsscore van 64% bij mannen en 51% bij vrouwen.

De gebruikte foto's zijn afkomstig van een datingsite waarbij tevens de informatie over seksuele geaardheid is meegenomen. Met de in totaal 14.000 foto's van de uitsluitend blanke mannen en vrouwen werden vervolgens de experimenten uitgevoerd. Daarbij ontdekten Wang en Kosinski ook dat met vijf afbeelding van elke kandidaat de nauwkeurigheid van het algoritme steeg tot 91%. De bevindingen worden binnenkort gepubliceerd in een wetenschappelijk artikel in het Journal of Personality and Social Psychology.

Twee Amerikaans belangenorganisaties voor deLGBTQ gemeenschap (GLAAD en HRC) lieten op vrijdag 8 september in een persbericht weten zeer te zijn geschrokken van de informatie die Kosinski en Wang naar buiten brachten. In een persbericht sommen de organisaties een groot aantal minputen op van de studie en noemen deze gevaarlijk en vooringenomen. Daarnaast wordt Stanford opgeroepen om afstand te nemen van beide wetenschappers.

De auteurs van het artikel geven in hun voorpublicatie aan dat ook zij de gevaren zien van hun ontdekking: "Additionally, given that companies and governments are increasingly using computer vision algorithms to detect people’s intimate traits, our findings expose a threat to the privacy and safety of gay men and women." In een Google Docs document geven beide auteurs een reactie op de kritiekpunten die GLAAD en HRC aandragen. Stanford heeft niet gereageerd op de kritiek op het onderzoek.

Via

Volgende: Snapchat verwijdert nieuwsfilmpjes Al Jazeera op verzoek Saoedi-ArabiŽ 18-09 Snapchat verwijdert nieuwsfilmpjes Al Jazeera op verzoek Saoedi-ArabiŽ
Volgende: UberX rijdt vanaf 2020 in Londen niet meer met dieselauto's 10-09 UberX rijdt vanaf 2020 in Londen niet meer met dieselauto's

Reacties


Door Tweakers user zzattack, woensdag 13 september 2017 10:17

Ik heb zojuist een algoritme bedacht dat 100% herkent. Zitten wel wat false-positives tussen.

[Reactie gewijzigd op woensdag 13 september 2017 10:17]


Door Tweakers user Deurges, woensdag 13 september 2017 14:50

zzattack schreef op woensdag 13 september 2017 @ 10:17:
Ik heb zojuist een algoritme bedacht dat 100% herkent. Zitten wel wat false-positives tussen.
Precies dat.. En daarnaast, safety van gay men and women? Waarom en waar, zou je dit op grote schaal willen inzetten dan? Daar waar ze dit achterlijke idee gaan gebruiken, moeten ze sowieso stokslagen krijgen.

Een onderzoek doen, omdat het kan, prima, maar het zo neerzetten alsof je daadwerkelijk kunt/wilt toepassen, is te erg voor woorden.

Door Tweakers user arnovos, woensdag 13 september 2017 20:13

zzattack schreef op woensdag 13 september 2017 @ 10:17:
Ik heb zojuist een algoritme bedacht dat 100% herkent. Zitten wel wat false-positives tussen.
Dat klopt. Alleen is het nieuwswaardige aan dit algoritme dat het beduidend minder false-positives genereert dan menselijke beoordelaars.

Door Tweakers user H!GHGuY, woensdag 13 september 2017 20:23

Wat we dus niet weten is of de computer ook rekening hield met zaken die niet van het gezicht af te lezen zijn:
- accessoires (piercings)
- haartooi en andere begroeiing
- pose
- achtergrond
- kleur en soort van kledij

Anderzijds maakt dit niet uit, natuurlijk, want het staat op de foto, maar toch. We mogen niet concluderen dat homo of hetero nu gewoon uit iemands gezicht is af te lezen.

Door Tweakers user Waarnemer, donderdag 14 september 2017 12:26

Lijkt me wel een leuke test voor deze computer.

Herken de "leernicht".
De foto van het jaarlijks uitje van de Hells Angels insturen.... :)

Meer serieus. Een deel van de kunstmatige intelligentie die meer en meer op dat van de mens gaat lijken heeft dus als gevolg dat die techniek kan worden gebruikt, misbruikt, voor iets wat de meest intelligente diersoort, de mens, dagelijks doet. Bewust of onbewust.

Discriminatie.

Door Tweakers user JAVE, donderdag 14 september 2017 16:37

Foto's op een datingsite zijn over het algemeen gericht op de doelgroep van de persoon (Dus geen random kiekje). Dat is een beetje zeggen dat je programma man/vrouw goed uit elkaar kan houden (met foto's van mensen in badkleding)

Door Tweakers user wouterg00, donderdag 14 september 2017 19:55

JAVE schreef op donderdag 14 september 2017 @ 16:37:
Foto's op een datingsite zijn over het algemeen gericht op de doelgroep van de persoon (Dus geen random kiekje). Dat is een beetje zeggen dat je programma man/vrouw goed uit elkaar kan houden (met foto's van mensen in badkleding)
Nope, lees hun reactie maar eens:
“The study only looked at out gay men and women who are white, of a certain age, and are on dating sites. It is not surprising that gay people (out, white, similar age) who choose to go on dating sites post photos of themselves with similar expressions and hairstyles (one of the characteristics according to the study).”

This does not in any way invalidate our study. We looked at white men and women in a broad age range (between 18 and 40). The data was collected from a dating website as well as from Facebook profile images.

As we discuss at length in the paper, we were worried that dating website images might be particularly revealing of sexual orientation. However, this was not the case.

First, we tested our classifier on an external sample of Facebook profile images. It achieved comparable accuracy, suggesting that dating website images were not more revealing than Facebook profile images.

Second, we also asked humans to judge the sexual orientation of these same faces, and their accuracy was no better than in past studies where humans judged sexual orientation from carefully standardized images taken in a lab. This suggests that the dating website images were not particularly revealing of sexual orientation—at least, not to humans.

Finally, as mentioned before, the deep neural network used here was specifically trained to focus on fixed facial features that cannot be easily altered, such as structural facial elements. This reduced the risk of the classifier discovering a superficial and not face-related difference between facial images of gay and straight individuals used in this study.

Door Tweakers user smittiehz, donderdag 14 september 2017 21:54

computer says: no je loopt er bij als een homo

Reageren is niet meer mogelijk