Professor: Militante liberale politiserer kunstig intelligens

Del denne historie!
Selvom den oprindeligt blev postet i december 2020, er denne artikel skrevet af en professor emeritus i datalogi og teknik afgørende for at forstå truslen fra Open AI's "vågnede" ChatGPT og Googles Bard. Hvis de er vågne eller forudindtaget, er det fordi de blev skrevet til at være sådan.

En advarsel, som jeg skal smide ind, er, at læreprocessen af ​​AI bruger bogstaveligt talt alt på internettet, som indeholder en høj procentdel af vågnede/biased information. At lære af vågne historier, bøger, videoer osv. kan være nok til at resultere i en vågen AI. Ikke desto mindre ville det være muligt programmæssigt at de-bias de konklusioner, der er draget, men der er ikke gjort nogen indsats for at gøre det. ⁃ TN-redaktør

Hvad gør du, hvis beslutninger, der før blev truffet af mennesker, med alle deres skævheder, begynder at blive truffet af algoritmer, der er matematisk ude af stand til bias? Hvis du er rationel, bør du fejre. Hvis du er en militant liberal, anerkender du denne udvikling for den dødelige trussel, den er, og kæmper for at tage kontrollen tilbage.

Du kan se dette udfolde sig på AI-konferencer. I sidste uge deltog jeg i 2020-udgaven af ​​NeurIPS, den førende internationale maskinlæringskonference. Det, der startede som en lille forsamling, samler nu nok mennesker til at fylde en sportsarena. I år, for første gang, NeurIPS krævede, at de fleste papirer indeholdt en erklæring om "bredere virkninger", og at de skulle gennemgås af et etisk udvalg. Ethvert papir, der beskriver, hvordan man for eksempel fremskynder en algoritme, skal nu have et afsnit om de sociale goder og ondskaber ved dette obskure tekniske fremskridt. "Uanset videnskabelig kvalitet eller bidrag," sagde indkaldelsen til papirer, "kan en indsendelse afvises for... inklusive metoder, applikationer eller data, der skaber eller forstærker unfair bias."

Dette var kun den seneste drejning af skralden. Tidligere har omfattet at omdøbe konferencen til noget mere politisk korrekt og at kræve, at deltagerne eksplicit accepterer en omfattende 'adfærdskodeks', før de kan registrere sig, som gør det muligt for konferencen at sparke deltagerne ud for at have postet noget på sociale medier, som embedsmænd ikke godkendte. Mere seriøst er der opstået et helt underfelt af AI med det udtrykkelige formål blandt andet at 'debiasing' algoritmer. Det er nu i fuld gang.

Jeg postede et par tweets, der rejste spørgsmål om de seneste ændringer - og annulleringsmobben faldt over mig. Fornærmelser, hån, trusler - you name it. Man skulle tro, at videnskabsmænd ville være hævet over sådan adfærd, men nej. Jeg påpegede, at NeurIPS er en outlier i at kræve bredere konsekvenserklæringer, og annullerne skiftede gentagne gange emne. Jeg argumenterede imod politiseringen af ​​AI, men de tog det som en benægtelse af, at etiske overvejelser er gyldige. En virksomhedsdirektør for maskinlæringsforskning, også en Caltech-professor, publicerede på Twitter, så alle kunne se en lang liste af personer, der skulle aflyses, idet deres eneste forbrydelse var at have fulgt mig eller kunne lide et af mine tweets. Det lykkedes den samme skare at gøre mit universitetsudstedelse til en erklæring, der afviste mine synspunkter og bekræftede dets liberale akkreditiver.

Hvorfor balladen? Data kan selvfølgelig have skævheder, ligesom dataforskere kan. Og algoritmer, som er kodet af mennesker, kan i princippet gøre, hvad vi fortæller dem. Men maskinlæringsalgoritmer, som stort set alle algoritmer, du finder i computervidenskabelige lærebøger, er i bund og grund blot komplekse matematiske formler, der ikke ved noget om race, køn eller socioøkonomisk status. De kan ikke være racistiske eller sexistiske mere end formlen y = ax + b kan.

Daniel Kahnemans bestsellerbog, Tænker, hurtigt og langsomt, har et helt kapitel om, hvordan algoritmer er mere objektive end mennesker, og derfor træffer bedre beslutninger. For det militante liberale sind er de imidlertid uretfærdighedens kloakvand og skal renses op.

Hvad oprydning af algoritmer betyder i praksis, er at indsætte skævheder i dem, der favoriserer specifikke grupper, og i realiteten genskabe i automatiseret form den sociale kontrol, som den politiske venstrefløj er så opsat på. 'Debiasing' betyder med andre ord at tilføje bias. Ikke overraskende får dette algoritmerne til at præstere dårligere ved deres tilsigtede funktion. Kreditkortscoringsalgoritmer kan afvise flere kvalificerede ansøgere for at sikre, at det samme antal kvinder og mænd accepteres. Parole-konsultationsalgoritmer kan anbefale at lade flere farlige kriminelle gå fri af hensyn til at få et forholdsmæssigt antal hvide og sorte løsladt. Nogle går endda ind for at forbyde brugen i algoritmer af alle variabler, der er korreleret med race eller køn, med den begrundelse, at de svarer til redlining. Dette ville ikke kun gøre maskinlæring og alle dens fordele i det væsentlige umulige, men det er særligt ironisk i betragtning af, at disse variabler er præcis, hvad vi har brug for for at adskille beslutninger fra dem, vi ønsker at udelukke.

Hvis du sætter spørgsmålstegn ved dette eller ethvert andet af en bred vifte af liberale krav til AI, er du ude for en masse sorg. Jo mere fremtrædende forsker, der bliver aflyst, jo bedre, fordi det sender den mest skræmmende besked til alle andre, især yngre forskere. Jeff Dean, Googles legendariske leder af AI, og Yann LeCun, Facebooks chef AI-forsker og medstifter af deep learning, har begge fandt sig selv på modtagersiden af ​​den liberale posses utilfredshed.

Konservative har hidtil stort set været uvidende om progressiv politiks accelererende indgreb i kunstig intelligens. Hvis AI stadig var et obskurt og umodent felt, kunne dette være OK, men tiden for det er for længst forbi. Algoritmer styrer i stigende grad vores liv, og de kan påtvinge et militant liberalt (i virkeligheden illiberalt) samfund ad bagdøren. Hver gang du laver en websøgning, bruger sociale medier eller får anbefalinger fra Amazon eller Netflix, vælger algoritmer, hvad du ser. Algoritmer hjælper med at udvælge jobkandidater, vælgere at målrette mod i politiske kampagner og endda personer til dato. Både virksomheder og lovgivere skal sikre, at der ikke bliver pillet ved dem. Og vi skal alle være opmærksomme på, hvad der sker, så vi kan komme til orde. For det første er jeg, efter at have set, hvordan progressive gladeligt vil tildele fordomme selv til algoritmer, der åbenlyst ikke kan have nogen, begyndt at stille spørgsmålstegn ved det ortodokse syn på menneskelige fordomme. Er vi virkelig så dybt og uafvendeligt racistiske og sexistiske, som de hævder? Jeg tror ikke.

Pedro Domingos er professor emeritus i datalogi og teknik ved University of Washington.

Læs hele historien her ...

Om redaktøren

Patrick Wood
Patrick Wood er en førende og kritisk ekspert på bæredygtig udvikling, grøn økonomi, Agenda 21, 2030 Agenda og historisk teknokrati. Han er forfatter af Technocracy Rising: The Trojan Horse of Global Transformation (2015) og medforfatter til Trilaterals Over Washington, bind I og II (1978-1980) med afdøde Antony C. Sutton.
Tilmeld
Underretning af
gæst

4 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer

[…] Læs den originale artikel […]

Solrig

Efter min vurdering, efter at de har fjernet internettet (snart), vil det genstarte med GPT og Bard, et. al., som vores nye og eneste søgemaskine muligheder. Det vil sige, at vi bliver fodret med, hvad de vil have os til at vide, og kun hvad de vil have os til at vide. Væk vil være "du er nu fri til at bevæge dig rundt i kabinen." Åh. Husk dette? “Når du bruger Google, får du så mere end ét svar? Selvfølgelig gør du. Nå, det er en fejl. Vi har flere fejl i sekundet i verden. Vi burde være i stand til at give dig det rigtige svar... Læs mere "

wendy

Jeg elsker denne erklæring, "algoritmer, der er matematisk ude af stand til bias". Algoritmer er koder, som tech libs opretter. Selvfølgelig er de i stand til bias. Jeg vil tage det et skridt videre ved at sige, at hele formålet med AI og algoritmer generelt er, så skaberne af dem styrer os mod deres ene regel, en visning, rentable acceptable svar. Med hensyn til shopping, vil de naturligvis styre vores penge, hvor de ønsker, at de skal gå. De ville ikke bruge milliarder på alt dette, medmindre de får en kontant belønning. Hvis AI'erne virkelig var upartiske, ingen af ​​disse... Læs mere "

styrekugle

[…] Militante liberale politiserer […]