Skip to content

Twitter Algorithms rasbias pekar på större tekniskt problem

17 de juni de 2021
1524657615449 e146ef6422be4ebaba817784b0947783

Viktiga takeaways

  • Twitter hoppas kunna avhjälpa vad användarna kallar rasbias i sin programvara för bildförhandsvisning.
  • Teknikjättens uppmaning kan vara den kulturella räkningen som industrin behöver för att ta itu med frågor om mångfald.
  • Techs brist på mångfald skadar effektiviteten i dess tekniska framsteg.

Twitter är inställd på att inleda en utredning om sin bildbeskärningsalgoritm efter att det blev ett trendigt ämne som fick en större konversation om mångfaldsfrågor i teknikindustrin. Social media juggernaut gjorde rubriker efter att användarna upptäckte uppenbar rasbias i sin bildförhandsgranskningsalgoritm. Upptäckten hände efter att Twitter-användaren Colin Madland använde plattformen för att utropa Zooms misslyckande med att känna igen sina svarta kollegor som använde den gröna skärmteknologin, men i en stor show av ironi fann han Twitters bildbeskärningsalgoritm uppförde sig på liknande sätt och deprioriserade svarta ansikten.

”Visst, det är en enorm fråga för alla minoriteter, men jag tror att det också finns en mycket bredare fråga.” Andra användare kom in på trenden som utlöste en serie virala tweets som visar att algoritmen konsekvent prioriterar vita och ljusare ansikten, allt från människor till seriefigurer och till och med hundar. Detta misslyckande är en indikation på en större kulturell rörelse inom teknikindustrin som konsekvent har misslyckats med att redogöra för minoritetsgrupper, som har spridit sig över på den tekniska sidan. ”Det får minoriteter att känna sig fruktansvärda, som om de inte är viktiga, och det kan användas för andra saker som kan orsaka allvarligare skador längs linjen”, säger Erik Learned-Miller, professor i datavetenskap vid University of Massachusetts, i en telefonintervju.

”När du väl har bestämt vad en mjukvara kan användas till och alla skador som kan uppstå, börjar vi prata om sätten att minimera risken för att de händer.”

Kanarieöarna på tidslinjen

Twitter använder neurala nätverk för att automatiskt beskära bilder inbäddade i tweets. Algoritmen ska upptäcka ansikten för att förhandsgranska, men den verkar ha en märkbar vit bias. Företagets taleskvinna Liz Kelley twittrade ett svar på alla bekymmer.

Kelley twittrade, ”tack till alla som tog upp detta. Vi testade för partiskhet innan vi skickade modellen och hittade inte bevis för ras- eller könsfördomar i våra tester, men det är uppenbart att vi har mer analys att göra. Vi kommer att göra öppen källkod vårt arbete så att andra kan granska och replikera. ” Medförfattare till vitboken ”Facial Recognition Technologies in The Wild: A Call for a Federal Office”, Learned-Miller är en ledande forskare om överdriven ansiktsbaserad AI-programvara. Han har diskuterat den potentiella negativa effekten av programvara för bildinlärning i flera år och har talat om vikten av att skapa en verklighet där dessa förspänningar mildras efter bästa förmåga. Många algoritmer för ansiktsigenkänningsteknik använder referensuppsättningar för data, ofta kända som träningsuppsättningar, som är en samling bilder som används för att finjustera beteendet hos programvara för bildinlärning.

Det gör det slutligen möjligt för AI att lätt känna igen ett brett utbud av ansikten. Dessa referensuppsättningar kan dock sakna en olika pool, vilket kan leda till problem som de som upplevs av Twitter-teamet. ”Visst, det är en enorm fråga för alla minoriteter, men jag tror att det finns en mycket bredare fråga också”, säger Learned-Miller. ”Det handlar om brist på mångfald inom tekniksektorn och behovet av en central, reglerande kraft för att visa rätt användning av denna typ av kraftfull programvara som är benägen att missbrukas och missbrukas.”

Teknisk bristande mångfald

Twitter kan vara det senaste tekniska företaget på huggblocket, men det här är långt ifrån ett nytt problem. Teknikfältet förblir ett övervägande vitt, ständigt mansdominerat fält och forskare har funnit att bristen på mångfald orsakar en replikering av systemiska, historiska obalanser i den utvecklade programvaran.

I en rapport från New York Universitys AI Now Institute från 2019 fann forskare att svarta människor utgör mindre än 6 procent av arbetskraften på de bästa tekniska företagen i landet. På samma sätt står kvinnor bara för 26 procent av arbetarna i fältet – en statistik som var lägre än deras andel 1960. ”Det får minoriteter att känna sig hemska, som om de inte är viktiga, och den kan användas för andra saker som kan orsaka allvarligare skada ner linjen. ” På ytan kan dessa representationsfrågor verka vardagliga, men i praktiken kan skadan orsakas djupgående. Forskare i AI Now Institute-rapporten föreslår att detta orsakligen relaterar till problem med programvara som ofta inte redogör för icke-vita och icke-manliga befolkningar.

Oavsett om det är infraröda tvålautomater som inte upptäcker mörkare hud eller Amazons AI-programvara som inte skiljer kvinnliga ansikten från deras manliga motsvarigheter, leder ett misslyckande med att ta itu med mångfalden i teknikindustrin till att tekniken misslyckas med att hantera en mångsidig värld. ”Det finns många människor som inte har tänkt igenom problemen och inte riktigt inser hur dessa saker kan orsaka skada och hur betydande dessa skador är,” föreslog Learned-Miller om AI-bildinlärning. ”Förhoppningsvis krymper det antalet människor!”.