Ekspert: AI-soldater udvikler 'moralsk kompas' og trosser ordrer

Wikimedia Commons
Del denne historie!
image_pdfimage_print
Det er allerede blevet demonstreret, at AI-algoritmer viser deres skabers partier, så hvorfor ikke mordiske intentioner også? Technocrats er så optaget af deres Pollyanna-opfindelser, at de ikke kan se den logiske ende på deres eksistens. ⁃ TN Editor

Morderiske robotsoldater vil blive så avancerede, at de kunne udvikle deres egen moralske kode til voldeligt at trosse ordrer, hævder en AI-ekspert.

Eks-cybernetikingeniør Dr. Ian Pearson forudsiger, at vi bevæger os mod en fremtid med bevidste maskiner.

Men hvis robotter presses til handling fra militære magter, advarer futurologen, at de vil være i stand til at trylle frem deres eget ”moralske synspunkt”.

Og hvis de gør det, hævder eks-raketforskeren, at de kan vende sig mod de mennesker, der sender dem ud til kamp.

Dr. Pearson, der blogger for Futurizon, sagde til Daily Star Online: ”Da AI fortsætter med at udvikle sig, og når vi går ned ad vejen mod bevidsthed - og det vil ikke blive en ting over natten, men vi gør gradvist computere mere og mere sofistikeret - på et tidspunkt giver du dem adgang til moralsk uddannelse, så de selv kan lære moral.

”Du kan give dem ræsonnementskapaciteter, og de har måske en anden moralsk kode, der sætter dem på en højere piedestal end de mennesker, de skulle tjene.

På spørgsmålet, om dette kunne vise sig dødeligt, svarede han: ”Ja, selvfølgelig.

”Hvis de har kontrol over våben, og de beslutter, at de er et overordnet moralsk væsen end de mennesker, de skal beskytte, kan de muligvis træffe beslutninger om, at visse mennesker burde dræbes for at beskytte den større befolkning.

”Hvem ved, hvilke beslutninger de måtte tage?

”Hvis du har en fyr på en slagmark, der siger soldater at skyde denne gruppe mennesker uanset grund, men computeren mener andet, er computeren ikke overbevist om det, kan det måske konkludere, at soldat, der giver ordrer, er den værste gerningsmand snarere end de mennesker, han prøver at dræbe, så det kan vende sig og dræbe ham i stedet.

”Det er helt muligt, det afhænger af, hvordan systemerne er skrevet.”

Dr. Pearsons advarsel kommer midt i stigende bekymring for fuldt autonome robotter, der bruges i krig.

Læs hele historien her ...

Deltag i vores mailingliste!


Tilmeld
Underretning af
gæst
6 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
pyra

Idiotisk. Tænker nogen af ​​disse computerdorke nogensinde på, hvad de siger? Jeg mener, tænk det forbi spidsen af ​​deres næser.

At sige, at ”det at erkende sig at være klogt, de blev fjols…” har meget relevans her.