Eric Schmidt: AI er lige så kraftfuld som atomvåben

Del denne historie!
Eric Schmidt er en top global teknokrat og arving efter Henry Kissinger, begge medlemmer af den elitære Trilaterale Kommission, der er hovedvandet til moderne teknokrati. At sammenligne AI med atombomber er en forkert betegnelse, fordi atombomber faktisk ødelægger stof, mens AI stadig kæmper for at køre en bil i en lige linje. Signalerer Schmidt, at kunstig intelligens bliver et masseødelæggelsesvåben? ⁃ TN-redaktør

Tidligere Google-chef Eric Schmidt sammenlignede AI med atomvåben og opfordrede til et afskrækkelsesregime, der ligner den gensidigt sikrede ødelæggelse, der afholder verdens mest magtfulde lande fra at ødelægge hinanden.

Schmidt talte om farerne ved AI på Aspen Security Forum på et panel om national sikkerhed og kunstig intelligens den 22. juli. Mens han stillede et spørgsmål om værdien af ​​moral i teknologien, forklarede Schmidt, at han selv havde været naiv med hensyn til informationens magt i Googles tidlige dage. Han opfordrede derefter til, at teknologien skulle være bedre i overensstemmelse med etikken og moralen hos de mennesker, den tjener, og lavede en bizar sammenligning mellem kunstig intelligens og atomvåben.

Schmidt forestillede sig en nær fremtid, hvor Kina og USA skulle cementere en traktat omkring kunstig intelligens. "I 50'erne og 60'erne udarbejdede vi til sidst en verden, hvor der var en 'ingen overraskelse'-regel om atomprøvesprængninger, og til sidst blev de forbudt," sagde Schmidt. "Det er et eksempel på en balance mellem tillid eller mangel på tillid, det er en regel om 'ingen overraskelser'. Jeg er meget bekymret over, at USA's syn på Kina som korrupt eller kommunistisk eller hvad som helst, og det kinesiske syn på Amerika som fiasko... vil tillade folk at sige 'Åh min gud, de er i gang med noget' og så begynde en slags af gåde. Begynd en slags ting, hvor du, fordi du er ved at bevæbne eller gør klar, så udløser den anden side. Vi har ikke nogen, der arbejder på det, og alligevel er AI så kraftfuld."

AI og maskinlæring er en imponerende og ofte misforstået teknologi. Det er stort set ikke så smart, som folk tror, ​​det er. Det kan vælte ud kunst på mesterværksniveau, slå mennesker kl Starcraft II, og foretage rudimentære telefonopkald til brugere. Forsøg på at få den til at udføre mere komplicerede opgaver, som at køre bil gennem en større by, det er ikke gået så godt.

Schmidt forestillede sig en nær fremtid, hvor både Kina og USA ville have sikkerhedsproblemer, der fremtvinger en slags afskrækkelsesaftale mellem dem omkring AI. Han taler om 1950'erne og 60'erne, hvor diplomatiet skabte en række kontroller omkring de mest dødbringende våben på planeten. Men for verden at komme til et sted, hvor den indførte traktaten om forbud mod atomprøvesprængninger, SALT II og andre skelsættende lovgivninger, tog det årtier med nukleare eksplosioner og, kritisk, ødelæggelsen af ​​Hiroshima og Nagasaki.

De to japanske byer, som Amerika ødelagde i slutningen af ​​Anden Verdenskrig, dræbte titusinder af mennesker og beviste for verden den evige rædsel ved atomvåben. Regeringerne i Rusland og Kina skyndte sig derefter at erhverve våbnene. Den måde, vi lever med muligheden for, at disse våben vil blive brugt, er gennem noget, der kaldes mutual assured destruction (MAD), en teori om afskrækkelse, der sikrer, at hvis et land lancerer en atombombe, er det muligt, at alle andre lande også vil. Vi bruger ikke det mest destruktive våben på planeten på grund af muligheden for, at det vil ødelægge, i det mindste, civilisationen rundt om på kloden.

På trods af Schmidts farverige kommentarer, ønsker eller har vi ikke brug for MAD til AI. For det første har AI ikke vist sig nær så destruktiv som atomvåben. Men folk i magtpositioner frygt denne nye teknologi og typisk af alle de forkerte årsager. Folk har endda foreslået giver kontrol af atomvåben over til kunstig intelligens, og teoretiserede, at de ville være bedre dommere over deres brug end mennesker.

Problemet med AI er ikke, at det har den potentielt verdensødelæggende kraft af et atomvåben. Det er, at AI kun er så god som de mennesker, der har designet den, og at de afspejler deres skaberes værdier. AI lider af det klassiske "skrald ind, skrald ud"-problem: Racistiske algoritmer gør racistiske robotter, al AI bærer fordomme fra sine skabere, og en chatbot trænet på 4chan bliver modbydeligt.

Dette er noget Demis Hassabis - CEO for DeepMind, som trænede den AI, der slår Starcraft II spillere - ser ud til at forstå bedre end Schmidt. I et juli-interview på Lex Fridman-podcasten spurgte Fridman Hassabis, hvordan en teknologi så stærk som AI kunne kontrolleres, og hvordan Hassabis selv kunne undgå at blive korrumperet af magten.

Læs hele historien her ...

Om redaktøren

Patrick Wood
Patrick Wood er en førende og kritisk ekspert på bæredygtig udvikling, grøn økonomi, Agenda 21, 2030 Agenda og historisk teknokrati. Han er forfatter af Technocracy Rising: The Trojan Horse of Global Transformation (2015) og medforfatter til Trilaterals Over Washington, bind I og II (1978-1980) med afdøde Antony C. Sutton.
Tilmeld
Underretning af
gæst

4 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer

[…] Eric Schmidt: AI er lige så kraftfuld som Nukes […]

[…] Eric Schmidt: AI er lige så kraftfuld som Nukes […]

[…] er et godt stykke arbejde om at lytte. Af hij de løsning har, er en anden spørgsmål. Technocracy News, denne besked fra Vice har overtaget, omskrivet den store tech-spiller som en […]