Da en selvmordsbomber angreb Kabuls internationale lufthavn i august sidste år, var døden og ødelæggelserne overvældende: Volden efterlod 183 mennesker døde, herunder 13 amerikanske soldater.
Denne form for masseulykke kan være særligt skræmmende for feltarbejdere. Hundredvis af mennesker har brug for pleje, hospitalerne i nærheden har begrænset plads, og beslutninger om, hvem der får pleje først, og hvem der kan vente, skal tages hurtigt. Ofte er svaret ikke klart, og folk er uenige.
Defence Advanced Research Projects Agency (DARPA) – det amerikanske militærs innovationsarm – sigter mod at besvare disse vanskelige spørgsmål ved at outsource beslutningsprocessen til kunstig intelligens. Gennem et nyt program, kaldet In the Moment, ønsker det at udvikle teknologi, der ville træffe hurtige beslutninger i stressede situationer ved hjælp af algoritmer og data, og argumenterer for, at fjernelse af menneskelige skævheder kan redde liv, ifølge detaljer fra programmets lancering i denne måned.
Selvom programmet er i sin vorden, kommer det, mens andre lande forsøger at opdatere et århundreder gammelt system med medicinsk triage, og da det amerikanske militær i stigende grad læner sig op af teknologi for at begrænse menneskelige fejl i krig. Men løsningen rejser røde flag blandt nogle eksperter og etikere, der spekulerer på, om AI skal involveres, når liv er på spil.
"AI er fantastisk til at tælle ting," sagde Sally A. Applin, en forskningsstipendiat og konsulent, der studerer krydsfeltet mellem mennesker, algoritmer og etik, med henvisning til DARPA-programmet. "Men jeg tror, det kan skabe præcedens, hvorved beslutningen om nogens liv lægges i hænderne på en maskine."
DARPA, der blev grundlagt i 1958 af præsident Dwight D. Eisenhower, er blandt de mest indflydelsesrige organisationer inden for teknologiforskning, og har affødt projekter, der har spillet en rolle i adskillige innovationer, herunder internettet, GPS, vejrsatellitter og for nylig Modernas coronavirus-vaccine.
Men dens historie med AI har afspejlet feltets op- og nedture. I 1960'erne gjorde agenturet fremskridt inden for naturlig sprogbehandling og fik computere til at spille spil såsom skak. I løbet af 1970'erne og 1980'erne gik fremskridtet i stå, især på grund af begrænsningerne i computerkraft.
Siden 2000'erne, efterhånden som grafikkort er blevet forbedret, computerkraft er blevet billigere og cloud computing har boomet, har agenturet set en genopblussen i brugen af kunstig intelligens til militære applikationer. I 2018 dedikerede det 2 milliarder dollars gennem et program kaldet AI Next til at inkorporere AI i over 60 forsvarsprojekter, hvilket betyder, hvor central videnskaben kan være for fremtidige jagerfly.
"DARPA forestiller sig en fremtid, hvor maskiner er mere end bare værktøjer," sagde agenturet i annonceringen af AI Next-programmet. "De maskiner, DARPA forestiller sig, vil fungere mere som kolleger end som værktøj."
Til det formål vil DARPA's In the Moment-program skabe og evaluere algoritmer, der hjælper militære beslutningstagere i to situationer: små enhedsskader, såsom dem, der er udsat for specialoperationsenheder under beskydning, og masseulykker, som bombningen af Kabul lufthavn. Senere kan de udvikle algoritmer til at hjælpe katastrofehjælpssituationer såsom jordskælv, sagde agenturets embedsmænd.
Programmet, som vil tage omkring 3.5 år at gennemføre, opfordrer private virksomheder til at hjælpe med dets mål, en del af de fleste tidlige DARPA-forskning. Agenturets embedsmænd vil ikke sige, hvilke virksomheder der er interesserede, eller hvor mange penge der vil blive beregnet til programmet.
Matt Turek, en programleder hos DARPA med ansvar for at lede programmet, sagde, at algoritmernes forslag ville modellere "højt betroede mennesker", som har ekspertise i triage. Men de vil være i stand til at få adgang til information for at træffe kloge beslutninger i situationer, hvor selv erfarne eksperter ville blive forvirrede.
For eksempel, sagde han, kunne AI hjælpe med at identificere alle de ressourcer, et nærliggende hospital har - såsom tilgængelighed af lægemidler, blodforsyning og tilgængeligheden af medicinsk personale - for at hjælpe med beslutningstagning.
"Det ville ikke passe ind i hjernen på en enkelt menneskelig beslutningstager," tilføjede Turek. "Computeralgoritmer kan finde løsninger, som mennesker ikke kan."
[…] Stammer fra Technocracy News & Trends […]
[…] Stammer fra Technocracy News & Trends […]
[…] Læs den originale artikel […]
Forbin Project eller Wargames. Vælg dit valg. Dr' Strangelove måske? Bare husk folkens, "A" i "AI" står for KUNSTIG, hvilket betyder, at det ikke er ægte. Så "AI" betyder i det væsentlige "IKKE RIGTIG INTELLIGENS. “
[…] Convergence 2035 lyder som en teknokratisk[12] drøm, der lægger grundlaget for permanent fængsling af alle mennesker og total kontrol over […]