Newspeak AI: Helt falske nyheder kunne ødelægge internettet

nysprog
Del denne historie!
image_pdfimage_print
OpenAI blev grundlagt i 2015 for at fremme og udvikle AI, der ville gavne menneskeheden som helhed. I stedet byggede de den farligste AI, der kunne tænkes, der kunne ødelægge Internettet og manipulere sindet hos enhver person på jorden.

OpenAI blev oprindeligt delvis finansieret af Elon Musk, en fuldstændig Technokrat, hvis bedstefar var leder af Technocracy, Inc., i Canada i løbet af 1930'erne og 40'erne. ⁃ TN Editor

Et kunstigt intelligenssystem, der genererer realistiske historier, digte og artikler, er blevet opdateret, hvor nogle hævder, at det nu er næsten lige så godt som en menneskelig forfatter.

Tekstgeneratoren, bygget af forskningsfirmaet OpenAI, blev oprindeligt betragtet som "for farligt" til at offentliggøre på grund af potentialet for misbrug.

Men nu er en ny, mere kraftfuld version af systemet - der kan bruges til at skabe falske nyheder eller voldelig spam på sociale medier - blevet frigivet.

BBC besluttede sammen med nogle AI-eksperter at prøve det.

Modellen, kaldet GPT-2, blev trænet på et datasæt på otte millioner websider og er i stand til at tilpasse sig stilen og indholdet i den indledende tekst, der er givet til den.

Det kan afslutte et Shakespeare-digt såvel som at skrive artikler og betegnelser.

På det tidspunkt sagde firmaet: ”På grund af vores bekymringer over ondsindede applikationer af teknologien frigiver vi ikke den uddannede model. Som et eksperiment i ansvarlig videregivelse frigiver vi i stedet en meget mindre model, som forskere kan eksperimentere med. ”

Som et resultat havde den frigivne version langt færre parametre - sætninger og sætninger - end brugt under træning.

Denne måned besluttede OpenAI at udvide parametrene og tilbyde en meget bredere database med træningsdata.

Teknisk nyhedssted The Next Web sagde om opdateringen: "Denne fungerer næsten godt nok til at blive brugt som en generel kunstig intelligens til tekstgenerering - næsten."

Artikelforfatter Tristan Greene tilføjede: Jeg er bange for GPT-2, fordi den repræsenterer den slags teknologi, som onde mennesker vil bruge til at manipulere befolkningen - og efter min mening gør det det farligere end nogen pistol. ”

BBC besluttede at teste systemet ved at indtaste de første par sætninger i en nyere historie, passende en om AI.

Vi begyndte med den første sætning i den virkelige historie:

Den kinesiske søgemaskine Sogou skaber looklikes for kunstig intelligens for at læse populære romaner i forfatterstemmer.

Her er hvad tekstgeneratoren kom med for at fuldføre det:

Ifølge forskerne er denne metode til læsning ikke kun hjernebarnet til Amazon Kindle-brugere. Brugere af Android-enheder er også et bemærkelsesværdigt marked for falsk læsning. Der er flere teorier, der kan forklare dette.

For det første er enheden i en brugers hånd forskellig fra den tablet eller computer, de læser på. For det andet kan den enhed, der bruges til at få adgang til internettet, blive manipuleret på en eller anden måde. En tredje grund er, at brugeren bare kan kopiere og indsætte indhold direkte i deres virtuelle tegn.

En anden forklaring er dog, at enheden slet ikke har stemmegenkendelsesfunktioner. Hvis dette er tilfældet, er stemmegenkendelse mere avanceret end Googles oversættelsesmaskine. Som sådan bliver disse brugere narret til at tro, at de læser fra en rigtig forfatter - bogen er lavet til at lyde autentisk, så snart de prøver og læser.

Nu Klik her for at læse den virkelige historie til sammenligning.

Noel Sharkey, professor i datalogi ved University of Sheffield, gennemførte sine egne test på generatoren og var ikke for imponeret.

Mand går ind i en bar

”Hvis softwaren fungerede som tilsigtet af Open AI, ville det være et meget nyttigt værktøj til let at generere falske nyheder og clickbait-spam. Heldigvis genererer den i sin nuværende form usammenhængende og latterlig tekst med ringe relation til input 'overskrifter', ”sagde han.

Han tilføjede: ”Jeg testede softwaren med adskillige overskrifter og fik latterlige resultater. For eksempel, for 'Kalkuner hader jul', fik jeg, at 'Tyrkiet er den eneste nation i verden, der ikke fejrer jul' og et antal ikke-relaterede sætninger.

”For 'Boris Johnson elsker backstop', det producerede usammenhængende pladder og nogle ting om AI og sport. Da jeg indtog udsagnet om, at 'Boris Johnson hader backstop', fik jeg en mere sammenhængende historie, der ser ud til at være trukket ud af en Google-søgning. "

Dave Coplin, grundlægger af AI-konsulentvirksomheden Envisioners, spillede også med systemet og indtastede den første linje i en klassisk vittighed: En mand går ind i en bar ...

Forslaget fra AI var ikke, hvad han forventede: “... Og bestilte to halvliter øl og to skot. Da han forsøgte at betale regningen, blev han konfronteret med to mænd - hvoraf den ene råbte "Dette er for Syrien". Manden blev derefter efterladt blødende og stukket i halsen ”.

Denne "overvældende dystopiske refleksion af vores samfund" var en lektion i, hvordan ethvert AI-system vil afspejle den bias, der findes i træningsdata, sagde han.

”Fra mine korte eksperimenter med modellen er det ret klart, at en stor del af dataene er blevet trænet af internetnyheder,” sagde han.

Læs hele historien her ...

Tilmeld
Underretning af
gæst
2 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
Jim Reinhart

Når de underliggende antagelser om intelligens i heuristik / AI er forkerte, vil alle beslutninger gå ned ad den programmerede dumhed om altid at skabe et resultat, som aldrig vil blive rettet, da folk ikke vil være i stand til at arbejde, tænke, handle uden for deres slavebur, der er programmeret af en flok idioter, der ikke havde nogen forretning med at implementere et så stift system, der ikke har nogen samvittighed, uanset hvor kraftfuld computeren eller computervariationer af menneskeskabt formbar software. De, der er i denne lejr, tror på kun en bedste løsning og kan ikke identificere kontinuummet for... Læs mere "

Elle

Fantastiske. De grimme kræfter på arbejdet presser virkelig hårdt for at få deres AI Fake New bots i form, før valgkampen begynder for alvor.

Sindssyge Jim? Tru dat, bror.

Den underliggende sandhed om AI-truslen undslipper helt de meget, dumme skabere / kodere, hvis ene mål er at frigøre deres AI-bots på Internettet og andre steder. De ligner mere 6-årige børn med en kasse tændstikker i en tør skov end fagfolk eller voksne. Der tages ikke hensyn til de resultater, der kan komme fra AI, undtagen en – for PROFIT.