Skip to content

Hur AI kan manipulera dina val

8 de augusti de 2021
GettyImages 1166695965 6ab09afd07e44700a2dc6c303d39fd63

Viktiga takeaways

  • AI- och maskininlärningsalgoritmer tittar på mänskligt beteende och kan lära sig att manipulera det, säger experter.
  • Forskare skapade nyligen ett sätt att hitta och utnyttja sårbarheter på sätt som människor gör val med AI.
  • Den mest sofistikerade algoritmen för sociala medier just nu är TikTok, säger en observatör.
Artificiell intelligens (AI) och algoritmer för maskininlärning lär sig alltmer hur man påverkar användarnas beteende, säger experter. Forskare vid Australiens nationella vetenskapsbyrå skapade nyligen ett sätt att hitta och utnyttja sårbarheter på sätt som människor gör val med hjälp av AI. Den senaste forskningen är bara en av en våg av AI-drivna system som är utformade för att manipulera mänskligt beslutsfattande. ”Det finns inget slut på de många sätt på vilka AI redan påverkar beteende”, säger Kentaro Toyama, professor vid University of Michigan School of Information och författare till Geek Heresy: Rädda social förändring från teknikens kult, sa i en e -postintervju. ”Faktum är att om du någonsin har gjort en Google-sökning och följt upp en länk påverkades du av ett AI-system som gissade dina intressen och gav resultat som det tyckte var mest relevant för dig.”

AI mot människor

I den australiensiska forskningen som publicerades i en nyligen publicerad tidning spelade mänskliga deltagare spel mot en dator i olika experiment. Det första experimentet fick deltagarna att klicka på röd- eller blåfärgade rutor för att vinna pengar. AI var framgångsrik ungefär 70% av tiden, lärde sig deltagarens valmönster och vägleder dem mot ett specifikt val. I ett annat experiment tittade deltagarna på en skärm och tryckte på en knapp när de visade en viss symbol, eller tryckte inte på den när de erbjöds en annan. AI lärde sig att ordna om symbolerna, så deltagarna gjorde fler fel.

En gigantisk robothand som omdirigerar en affärspersons väg.

Resultatet av experimenten, enligt forskare, var att AI lärt sig av deltagarnas svar. Maskinen identifierade och riktade sedan sårbarheter i människors beslutsfattande. I själva verket kan AI manipulera deltagarna till att göra särskilda åtgärder. Det faktum att AI eller maskininlärning kan manipulera människor borde inte vara någon överraskning, säger observatörer. ”AI påverkar vårt beteende varje dag”, sa Tamara Schwartz, biträdande professor i cybersäkerhet och företagsadministration vid York College of Pennsylvania, i en e -postintervju. ”Vi hör hela tiden om algoritmerna i sociala medieapplikationer som Facebook eller Twitter. Dessa algoritmer riktar vår uppmärksamhet på relaterat innehåll och skapar” ekokammaren ”-effekten, vilket i sin tur påverkar vårt beteende.”

TikTok tittar

Den mest sofistikerade algoritmen för sociala medier just nu är TikTok, sa Schwartz. Appen analyserar vad du är intresserad av, hur länge du tittar på något och hur snabbt du hoppar över något och förfinar sedan dess erbjudanden för att hålla dig tittad. ”TikTok är mycket mer beroendeframkallande än andra plattformar på grund av denna AI -algoritm, som förstår vad du gillar, hur du lär dig och hur du väljer information”, tillade hon. ”Vi vet detta eftersom den genomsnittliga tiden som användare spenderar på TikTok är 52 minuter.” Manipulering av mänskligt beteende med artificiell intelligens kan ha positiva användningsområden, hävdade Chris Nicholson, VD för AI -företaget Pathmind, i en e -postintervju. Folkhälsomyndigheter kan till exempel använda AI för att uppmuntra människor att fatta bättre beslut.

En tonåring som låg på sängen och rullade genom sociala medier på en smartphone.

”Men sociala medier, videospelare, annonsörer och auktoritära regimer letar efter sätt att få människor att fatta beslut som inte är i deras bästa intresse, och det kommer att ge dem nya verktyg för att göra det”, tillade han. De etiska frågorna med AI -påverkande beteende är ofta av grad, sa Toyama. AI tillåter fokuserad reklam där individuella preferenser och svagheter kan utnyttjas. ”Det är till exempel möjligt för ett AI -system att identifiera människor som försöker sluta röka och peppra dem med lockande cigarettannonser”, tillade han. Alla är inte överens om att AI -manipulation av mänskligt beteende är problematisk. Klassisk psykologi och AI observerar båda data, påpekade Jason J. Corso, chef för Stevens Institute for Artificial Intelligence, i en e -postintervju. ”Mänskliga forskare är förmodligen bättre på att generalisera observationer och destillera teorier om mänskligt beteende som kan vara mer allmänt tillämpliga medan AI-modellerna skulle vara mer mottagliga för att identifiera problemspecifika nyanser,” sa Corso. ”Ur etisk synvinkel ser jag ingen skillnad mellan dessa.”