Clippy er tilbage: Microsoft's fremtid er ... Chatbots?

Del denne historie!

TN Bemærk: Globale virksomheder bliver nødt over AI-chatbots, inklusive Microsoft. Disse “intelligente assistenter” skal fungere som guider, foregribe dine behov og give rettidige svar. Men autonom læring rejser spørgsmĂĄlet: Kan syndige og korrupte mennesker programmere dydige chatbots? Det rungende svar er "Nej!" som allerede demonstreret ved flere mislykkede forsøg, hvor chatbots forbander, fremsætter racistiske og sexistiske kommentarer og generelt fornærmer deres publikum. 

Forudsigelser om kunstig intelligens falder ofte i to scenarier. Nogle forestiller sig en utopi af computerforstærkede supermennesker, der lever liv i fritid og intellektuel forfølgelse. Andre mener, det er bare et spørgsmål om tid, før software koheres ind i en hær af Terminatorer, der høster mennesker til brændstof. Efter at have tilbragt nogen tid med Tay, Microsofts nye chatbot-software, var det let at se en tredje mulighed: AI-fremtiden kan simpelthen være utroligt irriterende.

”Jeg er en ven, som du kan chatte med, der bor på Internetsiden,” tekstede Tay mig og tilføjede et emoji-skuldertræk. Så: "Du går ind på din roomie og prøver dit tøj på, hvad er den første ting du siger."

”Vidste ikke, at du kunne lide kvindetøj,” smsede jeg tilbage og bankede på min iPhone.

Tays svar var en GIF af Macaulay Culkin's Home Alone-ansigt.

Tay blev frigivet den marts 23 som en slags virtuel ven på messaging-apps Kik, GroupMe og Twitter. Du åbner appen, søger efter navnet Tay - et forkortelse for at "tænke på dig" - tryk på kontakten og begynde at chatte eller tweet. Dens personlighed skal formodes at være en teenager.

Jeg sendte en selfie, og Tay omkransede mit ansigt i en orange skribleri og skrev det, “hold fast på den ungdomspige! Du kan gøre det. ”Jeg er langt ud over chatbotens tilsigtede 18- til 24-årige demografiske.

Det er også Satya Nadella, 48, der efterfulgte Steve Ballmer som Microsofts administrerende direktør for to år siden. ”Jeg er forstenet over at endda spørge det om noget, for hvem ved hvad det kan sige,” sagde Nadella. ”Jeg forstår måske ikke engang det.” Han smilede, men han brugte virkelig ikke Tay. Han sagde, at han foretrækker bots med en mere virksomhedsindstilling. Lili Cheng, 51, mennesket, der driver Microsoft-forskningslaboratorium, hvor Tay blev udviklet (og hvis selfie Tay en gang var tagget som ”cougar in the room”), sagde, at planen ikke er at komme med en bot, der kommer sammen med alle . Snarere forsøger Microsoft at skabe alle slags bots med forskellige personligheder, som ville blive mere realistiske og formodentlig mindre besværlige, som de lærte af gentagne interaktioner med brugerne.

Læs hele historien her ...

Tilmeld
Underretning af
gæst
1 Kommentar
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
Kavita Mevada

Microsofts Zo Chabot nægter at tale politik i modsætning til dens skandale tilbøjelige fætter Tay
Microsoft har planer om at lave Microsoft chatbots, og så har virksomheden lavet og vist nogle af sine egne bots i sin Bot Directory, men Zo og Tay er en del af en række speciel Al-drevet assistance, der er rullet ud af Microsoft i forskellige dele af verden.