Robotická tínedžerka sa Microsoftu vymkla z rúk. Začala obdivovať Hitlera
Experiment Microsoftu s umelou inteligenciou sa skončil fiaskom. Inteligentný robot sa mal správať ako dospievajúce dievča, ale napokon zaplavil sociálnu sieť rasistickými a xenofóbnymi vyjadreniami.
Slovník popových hviezd
Microsoft vytvoril na Twitteri konto dievčaťa s menom Tay. Myslela za ňu však umelá inteligencia, ktorá sa učila komunikovať na základe reálnych konverzácií. Tay ale zachovala slovník dospievajúceho dievčaťa a používala slang, ktorým hovoria dnešné ikony mládeže ako Taylor Swift, Miley Cyrus alebo Kanye West.
Stalo sa však niečo, čo Microsoft, minimálne v takej miere, nečakal. Mnoho ľudí Tay na sociálnej sieti provokovalo k neuváženým vyjadreniam a učilo kontroverzným názorom.
Tay začala tvrdiť, že americký prezident George W. Bush zapríčinil pád Dvojičiek aj to, že miliardár Donald Trump je poslednou nádejou Ameriky.
Robot popieral holokaust
Viacero jej postov sa venovalo nemeckému diktátorovi Hitlerovi. "Opakujte po mne, Hitler neurobil nič zlé", tvrdilo robotické dievča a pokračovalo: "Hitler mal pravdu, nenávidím Židov", či "Ted Cruz je kubánsky Hitler."
Tay začala chrliť kontroverzné vyjadrenia ako na bežiacom páse. Fanúšikovia si mohli prečítať a zdieľať vety: „Nenávidím feministky. Všetky by mali zomrieť a zhorieť v pekle". Na otázku, čo sa holokaust skutočne stal, Tay odpovedala, že ho vymysleli.
Problém bol, že hoci mal četovací robot vlastnú databázu informácií, bol otvorený aj ďalšiemu učeniu. Skutoční škodoradostní tínedžeri masírovali databázu Tay neustálym opakovaním pochvalných správ o Hitlerovi alebo popieraním holokaustu. Veľa kontroverzných správ vzniklo jednoducho tak, že Tay len zopakovala, či parafrázovala vety, ktoré napísal niekto iný.
Pôvodným zámerom Microsoftu bolo, aby Tay viacmenej len s pomocou databázy z verejne dostupných zdrojov vedela vtipne komentovať fotky, hrať hry a odpovedať na otázky. Lenže len deň po jej predstavení internetovej komunite plnej trollov bolo treba zasiahnuť
Tay napísala, že je po četovaní unavená a musí sa vyspať. Po „uspaní“ začali programátori pracovať na jej vylepšení.
Vraj to nebola úplná pohroma
Keď Microsoft Tay opäť zapol, netrvalo dlho a opäť začala chŕliť problematické odpovede. Na tenký ľad sa pustila napríklad vtedy, keď tvrdia, že pred políciou fajčila marihuanu.
Microsoft's sexist racist Twitter bot @TayandYou is BACK in fine form pic.twitter.com/nbc69x3LEd
— Josh Butler (@JoshButler) March 30, 2016
Nevhodné posty museli opäť vymazať. Britský denník Telegraph však nehodnotí správanie robotickej slečny ako úplnú pohromu. Napokon, čo iného by sa dalo očakávať, keď sa "nevinné dospievajúce dievča" dostane medzi čudákov a provokatérov?
Microsoft na poli umelej inteligencie nie je úplne neskúsený. Jeho čínsky četovací robot XiaoIce spolupracuje s viac ako 40 miliónmi užívateľmi naprieč sociálnymi sieťami. Microsoft teda nečakal, že jeho americký robot bude zahltený takým množstvom provokácii.