Officiel robotetik udgivet: Må ikke skade, overhold ordrer

Del denne historie!
image_pdfimage_print

En professor i robotik i England siger ”Problemet med AI-systemer lige nu, især disse dybe læringssystemer, er det det er umuligt at vide, hvorfor de træffer de beslutninger, de træffer.”Hvis dette er sandt, er robotter allerede ude af kontrol. TN Editor

Isaac Asimov gav os de grundlæggende regler for god robotadfærd: må ikke skade mennesker, adlyde ordrer og beskytte dig selv. Nu har British Standards Institute udstedt en mere officiel version sigter mod at hjælpe designere med at oprette etisk gode robotter.

Dokumentet, BS8611 Robotter og robotanordninger er skrevet på det tørre sprog i en sundheds- og sikkerhedsmanual, men de uønskede scenarier, det fremhæver, kunne tages direkte fra fiktion. Robot bedrag, robot afhængighed og muligheden for selvlærende systemer, der overskrider deres opgaver, bemærkes alle som farer, som producenterne bør overveje.

Velkommen til retningslinjerne på Social Robotics og AI konference i Oxford sagde Alan Winfield, en professor i robotik ved University of the West of England, at de repræsenterede ”det første skridt hen imod indlejring af etiske værdier i robotik og AI”.

”Så vidt jeg ved er dette den første offentliggjorte standard for etisk design af robotter,” sagde Winfield efter begivenheden. ”Det er lidt mere sofistikeret end Asimovs love - det beskriver dybest set, hvordan man foretager en etisk risikovurdering af en robot.”

BSI-dokumentet begynder med nogle brede etiske principper: ”Robotter bør ikke udelukkende eller primært designes til at dræbe eller skade mennesker; mennesker, ikke robotter, er de ansvarlige agenter; det skal være muligt at finde ud af, hvem der er ansvarlig for enhver robot og dens opførsel. ”

Det fortsætter med at fremhæve en række mere omstridte problemer, såsom om en følelsesmæssig bånd med en robot er ønskelig, især når roboten er designet til at interagere med børn eller ældre.

Noel Sharkey, emeritus-professor i robotik og AI ved University of Sheffield, sagde, at dette var et eksempel på, hvor robotter utilsigtet kunne narre os. ”Der var en nylig undersøgelse, hvor små robotter var indlejret i en børnehaveskole,” sagde han. ”Børnene elskede det og bundede sig faktisk med robotterne. Men da de blev spurgt bagefter, troede børnene tydeligt, at robotterne var mere kognitive end deres familiekæledyr. ”

Læs hele historien her ...

Deltag i vores mailingliste!


Tilmeld
Underretning af
gæst
1 Kommentar
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
Jerry Day

Robotter skal vide, hvad et menneske betragter som ”skade” for at gøre det. Det kan være alt fra at eliminere vores job til mikro-aggressive kommentarer. Politiet har allerede brugt robotter til at sprænge en ”mistænkt” for bits, så ligesom alt andet får regeringen og deres robotter til at ignorere reglerne, mens vi og vores robotter skal adlyde dem.