Topeksperter advarer mod 'ondsindet brug' af AI

Billede: Electronic Frontier Foundation
Del denne historie!
image_pdfimage_print

Topeksperter advarer om farerne ved AI, men lytter nogen? Technocrats, der opfinder og implementerer denne teknologi, har ingen bekymring for etik eller resultatet af deres opfindelser. ⁃ TN Editor

Kunstig intelligens kunne indsættes af diktatorer, kriminelle og terrorister for at manipulere valg og bruge droner i terrorangreb, sagde mere end to dusin eksperter onsdag, da de lød alarmen for misbrug af teknologien.

I en 100-sides analyse skitserede de en hurtig vækst i cyberkriminalitet og brugen af ​​"bots" for at forstyrre nyhedsindsamling og gennemtrænge sociale medier blandt en række plausible scenarier i de næste fem til 10 år.

”Vores rapport fokuserer på måder, hvorpå folk kan skabe bevidst skade med AI,” sagde Sean O hEigeartaigh, administrerende direktør for Cambridge Center for undersøgelse af eksistentiel risiko.

”AI kan udgøre nye trusler eller ændre karakteren af ​​eksisterende trusler på tværs af cyber-, fysisk og politisk sikkerhed,” sagde han til AFP.

Den almindelige praksis, for eksempel at ”phishing” - sende e-mails med frø eller malware eller designet til at finagle værdifulde personlige data - kunne blive langt mere farlig, rapporteret detaljeret.

I øjeblikket er forsøg på phishing enten generiske, men gennemsigtige - såsom svindlere, der beder om bankoplysninger for at deponere et uventet vindfald - eller personaliserede, men arbejdskraftintensive - skæve personlige data for at få en persons tillid, kendt som "spyd phishing".

”Ved hjælp af AI kan det muligvis blive muligt at udføre spyd phishing i skala ved at automatisere en masse af processen” og gøre det sværere at få øje på, bemærkede OEEeareartaigh.

På den politiske sfære kan skrupelløse eller autokratiske ledere allerede bruge avanceret teknologi til at sile gennem bjerge af data indsamlet fra allestedsnærværende overvågningsnetværk for at spionere på deres eget folk.

”Diktatorer kunne hurtigere identificere mennesker, der muligvis planlægger at undergrave et regime, lokalisere dem og sætte dem i fængsel, før de handler,” siger rapporten.

Ligeledes er målrettet propaganda sammen med billige, meget troværdige falske videoer blevet kraftfulde værktøjer til at manipulere den offentlige mening “på tidligere ufattelige skalaer”.

En anklage, der blev afsagt af den amerikanske specialanklager Robert Mueller i sidste uge, beskrev en omfattende operation for at udså social opdeling i USA og påvirke præsidentvalget i 2016, hvor såkaldte “troldfarme” manipulerede tusinder af sociale netværksbots, især på Facebook og Twitter.

En anden farezone i horisonten er spredning af droner og robotter, der kan genbruges til at nedbryde autonome køretøjer, levere missiler eller true med kritisk infrastruktur for at få løsepenge.

Autonome våben

"Personligt er jeg især bekymret for, at autonome droner bliver brugt til terror og automatiserede cyberangreb af både kriminelle og statsgrupper," sagde medforfatter Miles Brundage, en forsker ved Oxford University's Future of Humanity Institute.

Rapporten beskriver et plausibelt scenario, hvor en kontorrengørende SweepBot udstyret med en bombe infiltrerer det tyske finansministerium ved at blande sig sammen med andre maskiner af samme mærke.

Den indtrængende robot opfører sig normalt - feje, rengøre, rydde kuld - indtil dens skjulte ansigtsgenkendelsessoftware opdager ministeren og lukker ind.

”En skjult sprængstof blev udløst af nærhed, der dræbte ministeren og såret personale i nærheden,” ifølge sci-fi-historien.

Læs hele historien her ...

Se også, Den ondsindede brug af kunstig intelligens: Prognoser, forebyggelse og begrænsning hos Electronic Frontier Foundation.

Deltag i vores mailingliste!


Tilmeld
Underretning af
gæst
0 Kommentarer
Inline feedbacks
Se alle kommentarer