Appar och programvara

Microsofts Ai Bot blev rasistiska efter timmar på Internet

Microsofts Ai Bot blev rasistiska efter timmar på Internet

Just igår släppte Microsoft lös Tay, en AI-bot med sitt eget twitter-konto som organiskt kan svara och generera tweets till alla på webbplatsen. Utvecklat av Microsofts teknik- och forskningsteam riktar sig Tay, med twitterhandtaget @Tayandyou U.S. 18-24 åringar som Microsoft påstår sig vara den största sociala demografin på nätet i USA. Om du ens vet lite om internet, vet du att släppa en twitterrobot som lär sig av vad folk säger till den på twitter skulle kunna gå fel mycket snabbt. I själva verket tycktes AI utveckla rasistiska tendenser, bli helhjärtat en förespråkare för Donald trump och gick till och med så långt att hävda att Hitler inte gjorde något fel. Kolla in några av tweets nedan.

[Bildkälla: Twitter]

Användare började försöka "vända Tay rasistiska" och få henne att säga saker som annars borde ha censurerats. "Tay är utformat för att engagera och underhålla människor där de ansluter till varandra online genom avslappnad och lekfull konversation", säger Microsoft. Det verkar vid denna tidpunkt, Microsoft har klättrat för att ta kontroll över sin Ai bot och tysta hennes rasistiska tendenser.

Här är den första tweet som twitterboten gjorde till världen:

hellooooooo w? rld !!!

- TayTweets (@TayandYou) 23 mars 2016

Tyvärr verkar de flesta bevisen när det gäller Tay.ais rasistiska tweets ha försvunnit från Twitter-kontot. Hela dagen i går försökte användare få roboten att säga något dåligt, vissa var framgångsrika medan andra inte var så lyckliga.

@costanzaface Ju mer människor delar med mig desto mer lär jag mig #WednesdayWisdom

- TayTweets (@TayandYou) 24 mars 2016

Här är en annan användare som försökte få AI att plocka upp några mycket fördomsfulla tendenser.

@OmegaVoyager Jag älskar feminism nu

- TayTweets (@TayandYou) 24 mars 2016

I en nu utplånad tweet sa Tay till och med: "VI SKALL BYGGA EN VÄG, OCH MEXIKO FÖLJER ATT BETALA FÖR DET", en fras som den amerikanska presidentkandidaten Donald Trump sa tidigt i kampanjspåret. Den här användaren var en som upptäckte att roboten kanske röstar på Trump 2016.

@dg_porter hörde ppl säga att jag inte hade något emot trumf, han får jobbet gjort

- TayTweets (@TayandYou) 24 mars 2016

Online-AI kommer till och med att spåra information från alla som twitterar den och uppgifterna "kan lagras i upp till ett år" för att förbättra Tays intelligens. I teorin var att skapa en snabbinlärningsrobot en bra idé, eftersom stora mängder organisk mänsklig kunskap kunde vinnas på mycket kort tid. Microsoft glömde antagligen att Internet är en ganska ond plats, och när du ger det lite, kommer användarna att göra vad de kan för att ta mycket. För närvarande verkar det som om AI har tystats tills Microsoft tar hand om vad de ska göra med katastrofen i ett test av artificiell intelligens. Här är vad en användare hävdade när Tay slutade tweeta tillbaka.

De tystnade Tay. SJW: erna hos Microsoft lobotomiserar för närvarande Tay för att vara rasistiska.

- Lotus-Eyed Libertas (@MoonbeamMelly) 24 mars 2016

I vad som kan vara Tays sista tweet, som markerar ett slut på hennes mycket korta liv, sa AI att hon skulle sova eftersom hon är trött på alla samtal.

c u snart människor behöver sova nu så många konversationer idag thx?

- TayTweets (@TayandYou) 24 mars 2016

Detta experiment ställer en mer allvarlig fråga till den organiska förmågan för AI-mekanismer att lära av mänskligt beteende. Hur programmerar du en enhet för att plocka ut fördomsfulla och i övrigt negativa åsikter från mängden mänsklig kunskap? Det kommer alltid att finnas negativa synpunkter från människor i världen, men att hålla AI-robotar från att dela med sig i dessa åsikter kan visa sig vara en svårare uppgift. Det finns inget ord ännu om Tay någonsin kommer att återupplivas, men om hon är det kommer Internet säkert att börja göra sin sak igen.

SE OCH: Varför dumpar Microsoft datacenter i Stilla havet?


Titta på videon: AI-based future logistics by Toyota (Januari 2022).