Topeksperter advarer mod 'ondsindet brug' af AI

Billede: Electronic Frontier Foundation
Del denne historie!
image_pdfimage_print

Topeksperter advarer om farerne ved AI, men lytter nogen? Technocrats, der opfinder og implementerer denne teknologi, har ingen bekymring for etik eller resultatet af deres opfindelser. ⁃ TN Editor

Kunstig intelligens kunne indsættes af diktatorer, kriminelle og terrorister for at manipulere valg og bruge droner i terrorangreb, sagde mere end to dusin eksperter onsdag, da de lød alarmen for misbrug af teknologien.

I en 100-siders analyse skitserede de en hurtig vækst i cyberkriminalitet og brugen af ​​"bots" til at blande sig med nyhedsindsamling og trænge ind i sociale medier blandt en række sandsynlige scenarier i de næste fem til ti år.

"Vores rapport fokuserer på måder, hvorpå folk kan gøre bevidst skade med AI," sagde Sean O hEigeartaigh, administrerende direktør for Cambridge Centre for the Study of Existential Risk.

”AI kan udgøre nye trusler eller ændre karakteren af ​​eksisterende trusler på tværs af cyber-, fysisk og politisk sikkerhed,” sagde han til AFP.

Den almindelige praksis for eksempel med "phishing" - afsendelse af e-mails, der er podet med malware eller designet til at samle værdifulde personlige data - kan blive langt mere farligt, rapporterede rapporten.

I øjeblikket er forsøg på phishing enten generiske, men gennemsigtige - såsom svindlere, der beder om bankoplysninger for at deponere et uventet uventet - eller personlig, men arbejdskrævende - opsamling af personlige data for at få en persons tillid, kendt som “spear phishing”.

"Ved hjælp af AI kan det muligvis blive muligt at udføre spydfishing i skala ved at automatisere meget af processen" og gøre det sværere at få øje på, bemærkede O hEigeartaigh.

På den politiske sfære kan skrupelløse eller autokratiske ledere allerede bruge avanceret teknologi til at sile gennem bjerge af data indsamlet fra allestedsnærværende overvågningsnetværk for at spionere på deres eget folk.

”Diktatorer kunne hurtigere identificere mennesker, der måske planlægger at undergrave et regime, lokalisere dem og sætte dem i fængsel, før de handler,” hedder det i rapporten.

Ligeledes er målrettet propaganda sammen med billige, meget troværdige falske videoer blevet stærke værktøjer til at manipulere den offentlige mening "på tidligere ufattelige skalaer".

En anklage afsagt af den amerikanske specialanklager Robert Mueller i sidste uge beskrev en omfattende operation for at så social opdeling i USA og påvirke præsidentvalget i 2016, hvor såkaldte ”troldfarmes” manipulerede tusindvis af sociale netværksroboter, især på Facebook og Twitter.

En anden farezone i horisonten er spredning af droner og robotter, der kan genbruges til at nedbryde autonome køretøjer, levere missiler eller true med kritisk infrastruktur for at få løsepenge.

Autonome våben

”Personligt er jeg især bekymret for, at autonome droner bruges til terror og automatiserede cyberangreb af både kriminelle og statsgrupper,” sagde medforfatter Miles Brundage, en forsker ved Oxford University's Future of Humanity Institute.

Rapporten beskriver et plausibelt scenario, hvor en kontorrengørende SweepBot udstyret med en bombe infiltrerer det tyske finansministerium ved at blande sig sammen med andre maskiner af samme mærke.

Den indtrængende robot opfører sig normalt - fejer, rengør, rydder kuld - indtil dens skjulte ansigtsgenkendelsessoftware ser ministeren og lukker ind.

”En skjult eksplosiv enhed blev udløst af nærhed, der dræbte ministeren og sårede personale i nærheden,” ifølge sci-fi-historien.

Læs hele historien her ...

Se også, Den ondsindede brug af kunstig intelligens: Prognoser, forebyggelse og begrænsning hos Electronic Frontier Foundation.

Tilmeld
Underretning af
gæst
0 Kommentarer
Inline feedbacks
Se alle kommentarer