Skip to content

Hur algoritmisk bias kan skada tonåringar

21 de juni de 2021
GettyImages 1249101964 22f30f347af046bbb47f8155bda4a4e4

Viktiga takeaways

  • Algoritmisk bias är skadlig för tonåringar som tillbringar mycket tid på internet, säger experter.
  • Twitter-användare stötte nyligen på ett problem där svarta ansikten dödades till förmån för vita.
  • Tonåringar som utvecklar hjärnor kan vara särskilt mottagliga för de skadliga effekterna av algoritmisk bias, säger forskare.

Fördomarna bakad i viss teknik, känd som algoritmisk bias, kan vara skadliga för många grupper, men experter säger att det är särskilt skadligt för tonåringar. Algoritmisk bias, när datorsystem visar fördomsfulla resultat, är ett växande problem. Twitter-användare hittade nyligen ett exempel på partiskhet på plattformen när en bilddetekteringsalgoritm som beskär foton klippte ut svarta ansikten till förmån för vita. Företaget bad om ursäkt för problemet, men har ännu inte släppt någon fix. Det är ett exempel på fördomar som tonåringar möter när de går online, vilket de gör mer än någon annan åldersgrupp, säger experter. ”De flesta tonåringar är inte medvetna om att sociala medieföretag har dem på plats för att marknadsföra specifikt innehåll som de tror att användare kommer att gilla [in order] för att få dem att stanna så länge som möjligt på plattformen, säger Dr. Mai-Ly Nguyen Steers, biträdande professor vid vårdhögskolan vid Duquesne University som studerar användning av sociala medier bland ungdomar / studenter, i en e-postintervju. Även om det finns en viss medvetenhet om algoritmen, är effekten av att inte få tillräckligt med gillanden och kommentarer fortfarande kraftfull och kan påverka tonåringernas självkänsla, ”tillade Steers.

Utveckla hjärnor

Algoritmisk bias kan påverka tonåringar på oförutsedda sätt eftersom deras prefrontala cortex fortfarande utvecklas, förklarade Mikaela Pisani, Chief Data Scientist på Rootstrap, i en e-postintervju. ”Effekten av att inte få tillräckligt med gillanden och kommentarer är fortfarande kraftfull och kan påverka tonårs självkänsla.” ”Tonåringar är särskilt utsatta för fenomenet” Social Factory ”, där algoritmer skapar samhällskluster på onlineplattformar, vilket leder till ångest och depression om tonåringens behov av socialt godkännande inte tillgodoses, säger Pisani. ”Algoritmer förenklar baserat på tidigare ofullkomliga data – vilket leder till en överrepresentation av stereotyper på bekostnad av mer nyanserade tillvägagångssätt för att bilda identitet.” Med den bredare synvinkeln får vi också, som samhälle, ifrågasätta om vi vill att algoritmer ska forma våra tonåringar resor till vuxenlivet, och stöder detta system till och med snarare än att kväva individuell personlig tillväxt? ”

På grund av dessa problem finns det ett växande behov av att hålla tonåringar i åtanke när de utformar algoritmer, säger experter. ”Baserat på input från utvecklingsspecialister, dataforskare och ungdomsförespråkare, kan 2000-talets policy kring dataskydd och algoritmisk design också konstrueras med tanke på ungdomars särskilda behov”, skrev Avriel Epps-Darling, doktorand vid Harvard. nyligen. ”Om vi ​​istället fortsätter att bagatellisera eller ignorera de sätt som tonåringar är utsatta för algoritmisk rasism, kommer skadorna sannolikt att återkomma genom kommande generationer.”

Bekämpa bias

Innan det finns en lösning försöker vissa forskare hitta sätt att minska skadorna på unga människor genom förspända algoritmer. ”Interventioner har fokuserats på att få tonåringar att känna igen att deras sociala mediamönster påverkar deras mentala hälsa negativt och försöker komma med strategier för att mildra detta (t.ex. minskad användning av sociala medier)”, sa Steers. ”Några av de högskolestudenter som vi har intervjuat har angett att de känner sig tvungna att generera innehåll för att förbli” relevanta ”, även om de inte vill gå ut eller lägga upp inlägg, fortsatte hon. ”De känner emellertid att de behöver skapa innehåll för att behålla sina kontakter med sina följare eller vänner.”

Det ultimata svaret kan vara att ta bort mänskliga fördomar från datorer. Men eftersom programmerare bara är mänskliga är det en tuff utmaning, säger experter. En möjlig lösning är att utveckla datorer som är decentraliserade och programmerade för att glömma saker som de har lärt sig, säger John Suit, Chief Technology Officer på robotföretaget KODA. ”Genom ett decentraliserat nätverk sammanställs och analyseras data och analyser av dessa data från flera punkter,” sa Suit i en e-postintervju. ”Data samlas in och behandlas inte från en enda AI-bearbetning inom algoritmens gränser, utan hundratals eller till och med tusentals.”

Eftersom den informationen samlas in och analyseras glöms gamla ”slutsatser” eller överflödiga data. Genom detta system kommer en algoritm som kan ha börjat med bias så småningom att korrigera och ersätta den bias om den visar sig vara fel. ”Även om bias kan vara ett gammalt problem kan det finnas sätt att bekämpa det, åtminstone online. Designa datorer som tappar våra fördomar är det första steget.