Dette er software til redning af liv. Facebooks nye "proaktive detektion" kunstige intelligens-teknologi scanner alle indlæg for mønstre af selvmordstanker og sender om nødvendigt mentale sundhedsressourcer til risikobrugeren eller deres venner eller kontakter lokale første-responderende. Ved at bruge AI til at markere bekymrende indlæg til menneskelige moderatorer i stedet for at vente på brugerrapporter, kan Facebook reducere, hvor lang tid det tager at sende hjælp.
Facebook tidligere testet ved hjælp af AI til at opdage urolige poster og mere markant overflademelding om selvmordsrapportering til venner i USA Nu er Facebook skure alle typer indhold verden med denne AI undtagen i Den Europæiske Union, hvor Generel databeskyttelsesforordning privatlivslovgivning om profilering af brugere baseret på følsomme oplysninger komplicerer brugen af denne teknik.
Facebook vil også bruge AI til at prioritere særligt risikable eller presserende brugerrapporter, så de hurtigere adresseres af moderatorer og værktøjer til øjeblikkeligt at overflade lokale sprogressourcer og første-responder kontaktinfo. Det dedikerer også flere moderatorer til selvmordsforebyggelse, træner dem til at håndtere sagerne 24 / 7, og har nu 80 lokale partnere som Save.org, National Suicide Prevention Lifeline og Forefront, hvorfra de kan give ressourcer til brugere i fare og deres netværk .
"Dette handler om at barbere minutter på hvert eneste trin i processen, især i Facebook Live," siger VP for produktledelse Guy Rosen. I løbet af den sidste testmåned har Facebook indledt mere end 100 "wellness-kontroller" med første-respondenter, der besøger berørte brugere. "Der har været tilfælde, hvor den første responder er ankommet, og personen stadig sender."
Ideen om, at Facebook proaktivt scanner indholdet af folks indlæg, kan udløse nogle dystopiske frygt for, hvordan teknologien ellers kunne anvendes. Facebook havde ikke svar om, hvordan det ville undgå at scanne efter politisk dissens eller smålig kriminalitet, hvor Rosen blot sagde “vi har en mulighed for at hjælpe her, så vi kommer til at investere i det.” Der er bestemt masser af fordelagtige aspekter ved teknologi, men det er et andet rum, hvor vi ikke har andet valg end at håbe, at Facebook ikke går for langt.
Facebook-direktør Mark Zuckerberg roste produktopdateringen i et indlæg i dag, skriver det "I fremtiden vil AI være i stand til at forstå flere af de subtile nuancer i sproget og vil være i stand til at identificere forskellige spørgsmål ud over selvmord også, herunder hurtigt at se flere former for mobning og had."
Efter TechCrunch spurgte, om der var en måde for brugere at fravælge, svarede desværre en Facebook-talsmand, at brugere ikke kan fravælge det. De bemærkede, at funktionen er designet til at forbedre brugernes sikkerhed, og at supportressourcer, der tilbydes af Facebook, hurtigt kan afskediges, hvis en bruger ikke ønsker at se dem.]
Facebook trænede AI'en ved at finde mønstre i de ord og billedmateriale, der blev brugt i indlæg, der manuelt er blevet rapporteret for selvmordsrisiko i fortiden. Det ser også efter kommentarer som "er du i orden?" Og "Har du brug for hjælp?"