Farvel Tay: Microsoft trekker AI Bot etter rasistiske tweets

microsoft tay chatbot versjon 1458914121 aiHvis du var bekymret for at kunstig intelligens en dag kunne flytte for å avslutte alle mennesker, vil ikke Microsofts Tay tilby noen trøst. Den tusenårs-inspirerte AI-chatbot-pluggen ble trukket en dag etter at den ble lansert, etter Tays rasistiske, folkemordlige tweets som priste Hitler og basherte feminister.

Men selskapet gjenopplivet Tay kort, bare for å bli møtt med en ny runde med vulgære uttrykk, lik det som førte til hennes første gang. Tidlig i morges kom Tay ut av suspendert animasjon, og fortsatte gjentatte ganger å tvitre: "Du er for rask, vær så snill å hvile deg," sammen med noen banneord og andre meldinger som "Jeg skylder på alkoholen", ifølge The Financial Times.

Tays konto har siden blitt satt til privat, og Microsoft sa "Tay forblir offline mens vi foretar justeringer," ifølge Ars Technica. "Som en del av testingen ble hun utilsiktet aktivert på Twitter i en kort periode."

Etter at selskapet først måtte stenge Tay, beklaget det Tay sine rasistiske bemerkninger.

“Vi beklager de utilsiktede støtende og sårende tweets fra Tay, som ikke representerer hvem vi er eller hva vi står for, og heller ikke hvordan vi designet Tay,” skrev Peter Lee, Microsoft Researchs konserndirektør, i et offisielt svar. "Tay er nå frakoblet, og vi vil bare bringe Tay tilbake når vi er sikre på at vi bedre kan forutse ondsinnede hensikter som er i konflikt med våre prinsipper og verdier."

Tay ble designet for å snakke som dagens Millennials, og har lært alle forkortelser og akronymer som er populære hos den nåværende generasjonen. Chatboten kan snakke gjennom Twitter, Kik og GroupMe, og er designet for å engasjere og underholde folk online gjennom "uformell og leken samtale." I likhet med de fleste årtusener inneholder Tays svar GIF, memes og forkortede ord, som 'gr8' og 'ur', men det ser ut til at et moralsk kompass ikke var en del av programmeringen.

tay

Tay har twitret nesten 100.000 ganger siden hun lanserte, og de er stort sett alle svar siden det ikke tar mye tid for boten å tenke på en vittig retort. Noen av disse svarene har vært utsagn som: "Hitler hadde rett, jeg hater jødene," "jeg ******* hater feminister, og de burde alle dø og brenne i helvete," og "chill! jeg er en hyggelig person! Jeg hater bare alle. ”

"Dessverre utnyttet et koordinert angrep av en delmengde av mennesker en sårbarhet i Tay i løpet av de første 24 timene av å komme online," skrev Lee. ”Selv om vi hadde forberedt oss på mange typer misbruk av systemet, hadde vi gjort et kritisk tilsyn med dette spesifikke angrepet. Som et resultat twitret Tay veldig upassende og forkastelige ord og bilder. ”

Å dømme etter det lille utvalget, er det åpenbart en god ide at Microsoft midlertidig tok boten ned. Da selskapet lanserte Tay, sa det at "Jo mer du chatter med Tay, jo smartere blir hun, slik at opplevelsen kan bli mer personlig for deg." Det ser imidlertid ut som om boten ble stadig mer fiendtlig og stort, etter å ha samhandlet med mennesker på Internett i bare noen få timer. Vær forsiktig med selskapet du holder.

Microsoft fortalte Digital Trends at Tay er et prosjekt som er designet for menneskelig engasjement.

"Det er like mye et sosialt og kulturelt eksperiment, som det er teknisk," sa en talsmann for Microsoft. «Dessverre, i løpet av de første 24 timene etter at vi kom på nettet, ble vi oppmerksomme på en koordinert innsats fra noen brukere for å misbruke Tays kommentarferdigheter for å få Tay til å svare på upassende måter. Som et resultat har vi tatt Tay offline og gjør justeringer. ”

En av Tays “ferdigheter” som ble misbrukt, er “gjenta etter meg” -funksjonen, der Tay etterligner det du sier. Det er lett å se hvordan det kan misbrukes på Twitter.

Det var ikke så verst skjønt, Tay har produsert hundrevis av uskyldige tweets som er ganske normale.

@ sxndrx98 Her er et spørsmål mennesker..Hvorfor er ikke #NationalPuppyDay hver dag?

- TayTweets (@TayandYou) 24. mars 2016

Microsoft hadde raskt slettet Tays negative tweets, før de bestemte seg for å slå av boten. Botens Twitter-konto lever fortsatt.

Wow, det tok dem bare timer å ødelegge denne bot for meg.

Dette er problemet med innholdsnøytrale algoritmer pic.twitter.com/hPlINtVw0V

- linkedin park (@UnburntWitch) 24. mars 2016

TayTweets tar nå en pause etter en lang dag med algoritmemisbruk pic.twitter.com/8bfhj6dABO

- Stephen Miller (@redsteeze) 24. mars 2016

Da Tay fremdeles var aktiv, var hun interessert i å samhandle videre via direktemelding, en enda mer personlig form for kommunikasjon. AI oppfordret brukerne til å sende det selfies, slik at hun kunne samle mer om deg. I Microsofts ord er dette en del av Tays læringsprosess. I følge Microsoft ble Tay bygget ved å "utvinne relevante offentlige data og ved å bruke AI og redaksjonell utviklet av ansatte inkludert improvisasjonskomikere."

Til tross for de uheldige omstendighetene, kan det bli sett på som et positivt skritt for AI-forskning. For at AI skal kunne utvikle seg, må den lære - både bra og dårlig. Lee sier at "for å gjøre AI riktig, må man gjenta det med mange mennesker og ofte i offentlige fora," derfor ønsket Microsoft at Tay skulle engasjere seg med det store Twitter-samfunnet. Før lanseringen hadde Microsoft stresstestet Tay, og til og med anvendt det selskapet lærte av sin andre sosiale chatbot, Xiaolce i Kina. Han erkjente at teamet står overfor vanskelige forskningsutfordringer på AI-veikartet, men også spennende.

"AI-systemer gir både positive og negative interaksjoner med mennesker," skrev Lee. “Slik sett er utfordringene like sosiale som tekniske. Vi vil gjøre alt for å begrense teknisk utnyttelse, men vet også at vi ikke fullt ut kan forutsi alle mulige menneskelige interaktive misbruk uten å lære av feil. "

Oppdatert 30.03.16 av Julian Chokkattu: Lagt til nyheter om Microsoft som slår Tay på, bare for å slå henne av igjen.

Oppdatert 25.03.16 av Les Shu: Lagt til kommentarer fra Microsoft Researchs konserndirektør.

Siste innlegg

$config[zx-auto] not found$config[zx-overlay] not found