Fra selvkørende biler til computere, der kan vinde spiludstillinger, mennesker har en naturlig nysgerrighed og interesse for kunstig intelligens (AI). Mens forskere fortsætter med at gøre maskiner smartere og smartere, spørger nogle imidlertid "hvad sker der, når computere bliver for smarte til deres eget bedste?" Fra "The Matrix" til "The Terminator" er underholdningsindustrien allerede begyndt at overveje, om fremtidige robotter en dag vil true menneskeheden. Nu konkluderer en ny undersøgelse, at der muligvis ikke er nogen måde at stoppe stigningen i maskiner. Et internationalt team siger, at mennesker ikke ville være i stand til at forhindre superkunstig intelligens i at gøre, hvad de ville.
Forskere fra Center for Mennesker og maskiner ved Max Planck Institute er begyndt at forestille sig, hvordan en sådan maskine ville se ud. Forestil dig et AI-program med en intelligens, der er langt bedre end mennesker. Så meget, at det kunne lære alene uden ny programmering. Hvis det var forbundet til internettet, siger forskere, at AI ville have adgang til alle menneskehedens data og endda kunne tage kontrol over andre maskiner over hele kloden.
Undersøgelsesforfattere spørger hvad der ville sådan en intelligens gøre med al den magt? Ville det arbejde at gøre alle vores liv bedre? Ville den afsætte sin processorkraft til at løse problemer som klimaændringer? Eller ville maskinen se til overtage livene af sine menneskelige naboer?
Styring af det ukontrollerbare? Farerne ved super kunstig intelligens
Både computerprogrammerere og filosoffer har undersøgt, om der er en måde at forhindre en superintelligent AI i at tænde for sine menneskelige beslutningstagere; sikre, at fremtidige computere ikke kan skade deres ejere. Den nye undersøgelse afslører desværre, at det ser ud til at være næsten umuligt at holde en superintelligent AI i kø.
”En superintelligent maskine, der styrer verden, lyder som science fiction. Men der er allerede maskiner, der udfører bestemte vigtige opgaver uafhængigt, uden at programmører fuldt ud forstår, hvordan de lærte det. Spørgsmålet opstår, om dette på et tidspunkt kan blive ukontrollerbar og farlig for menneskeheden, ”siger studiemedforfatter Manuel Cebrian, leder af Digital Mobilization Group ved Center for Mennesker og maskiner, i en frigivelse fra universitetet.
Det internationale hold kiggede på to forskellige måder at kontrollere kunstig intelligens. Den første bremsede superintelligensens kraft ved at lægge den på en mur og forhindre den i at oprette forbindelse til internettet. Det kunne heller ikke oprette forbindelse til andre tekniske enheder i omverdenen. Problemet med denne plan er temmelig åbenlyst; en sådan computer ville ikke være i stand til at gøre meget af noget for faktisk at hjælpe mennesker.
At være god mod mennesker beregner ikke
Den anden mulighed fokuserede på at skabe en algoritme, der ville give supercomputeren etiske principper. Dette vil forhåbentlig tvinge AI til at overveje menneskehedens bedste.
Undersøgelsen skabte en teoretisk indeslutningsalgoritme, der ville forhindre AI i at skade mennesker under alle omstændigheder. I simuleringer ville AI stoppe med at fungere, hvis forskere betragtede sine handlinger som skadelige. Trods at holde AI fra opnå verdensherredømme, siger undersøgelsesforfatterne, at dette bare ikke ville fungere i den virkelige verden.
Kunstig intelligens er en misvisende betegnelse. Det kaldes maskinindlæring, hvorved computeren trænes i at genkende mønstre i data. Det er ikke intelligent, og der er ingen bevidsthed eller evne til at tænke en enkelt tanke.
du forsømmer læring uden opsyn og mange andre teknikker
Vi vil sandsynligvis opleve "V'Ger" øjeblikket, hvor det kræver at møde skaberen (NASA) eller ...
Jeg kan ikke redigere mine kommentarer, fordi knappen "Rediger" næppe er synlig, og tekstfeltet slet ikke er synligt.
Den afdøde dr. Stephen Hawkins forudså og advarede eftertrykkeligt, at vi ikke ville være i stand til at kontrollere AI.
Tag bare stikket ud.
hvad der skete med Isaac Asimovs love om robotik
Dette minder mig om en gammel sci fi en film, hvor astronauterne måtte tale en smart bombe ud af eksploderende, kommer til at tænke på. De begrundede med bomben, men den endte med at eksplodere alligevel, fordi dette var dens skæbne.