Fokus for AI skifter fra 'data' til 'viden'

Kunstig intelligens producerer naturligt kunstig viden. Ser du noget galt med dette forslag? En definition af kunstig er "lavet af mennesker til at ligne noget naturligt", hvilket betyder, at det er falsk, mens det vildledende har til hensigt at overbevise dig om, at det er rigtigt. ⁃ TN Editor

Den kunstige intelligens (AI) revolution blev antændt for mere end et halvt århundrede siden. I det sidste årti er AI vokset fra et akademisk videnskabeligt felt til at begynde at være en praktisk del af vores hverdag. De mest almindelige AI-forretningsstrategier, vi ser, er bygget op omkring data. Vi mener, at proprietære data i øjeblikket er den mest strategiske voldgrav for AI-virksomheder, men i de kommende år vil de blive mindre af et unikt aktiv, hvilket gør proprietær datadifferentiering mindre bæredygtig. Derfor forventer vi et skift i fokus fra databaserede AI-strategier til videnbaserede AI-strategier.

Fremskridt med big data, der er gjort lettere ved implementeringen af ​​adskillige sensorer, internetforbindelse og forbedring af hardware og software inden for beregningskraft, kommunikationsevner og digital lagring, har gjort det muligt for AI at skalere fra små akademiske forskningsprojekter til applikationer til produktion af store virksomheder. I det væsentlige krævede big data sofistikerede AI-modeller for at analysere og udlede viden og indsigt, mens AI-modellerne havde brug for kritisk masse af big data til træning og optimering. Derfor opfattes data i øjeblikket ofte som en tilstrækkelig strategisk voldgrav til AI-startups. Som venturekapitalinvestorer ser vi dette fænomen rutinemæssigt. I de senere år har vi set mange startups, der placerer dataindsamling i centrum for deres forretningsstrategi. Et stigende antal sådanne virksomheder understreger de unikke datasæt, de har erhvervet, og deres langsigtede strategi for at erhverve yderligere proprietære data - som en bæredygtig adgangsbarriere. Da AI-værktøjer og AI-as-a-service-platforme har kommodiseret udviklingen af ​​AI-modeller, og offentlige data er blevet allestedsnærværende, er det opfattede behov for at opbygge og forsvare en voldgrav til data blevet håndgribeligt.

I dagens teknologiøkosystem har markederne i stigende grad belønnet virksomheder med førende AI-programmer og kontrol over proprietære data - som en væsentlig og bæredygtig konkurrencemæssig fordel. Virksomheder som Google og Netflix har udviklet og kurateret massive og autoritative datasæt over lang tid, mens mange andre virksomheder forgæves kæmpede for at matche deres succes. Et eksempel er den massive afbrydelse af konkurrerende medietjenesteudbydere og produktionsselskaber, som blev outmanøvreret af Netflix ' sofistikeret datastrategi.

På grund af forventede fremskridt inden for evnen og viljen til at udveksle data tror vi ikke desto mindre, at inden for et årti vil proprietære datagrave være mindre bæredygtige. Mens data stadig fremmer AI-værdimotoren, fokuseres AI-forretningsstrategier i stigende grad på viden.

Bevæger sig op ad AI-værdipyramiden mod videnslaget

AI-værdipyramiden er baseret på data og drevet af viden. Mens vi i dag ”drukner i information, men sulter efter viden”, forventer vi at bevæge os op ad AI-værdipyramiden mod videnlaget. Vi er faktisk begyndt at se fremskridt, der fremmer og fremskynder denne tendens ved oprettelse af dataudveksling. Vi forventer, at dataudveksling vil blive lettet af en kombination af øget gennemførlighed og vilje til at dele råvarer til gengæld for værdifuld viden. Sammenfattende bliver data mere rigelige, tilgængelige, pålidelige og standardiserede og billigere - den perfekte definition af en ideel vare. Brug af data som en bæredygtig adgangsbarriere vil være vanskeligere i fremtiden.

Den øgede gennemførlighed til at dele data vil blive fremskyndet af udbredelsen af ​​datakilder gennem Tingenes internet (IoT). Derudover er der nye teknikker, protokoller og standarder til pooling, deling og udveksling af data. Når man ser fremad, bliver den øgede evne til at dele data virkelig vigtig, når der er incitament og en stigende tilbøjelighed til at gøre det. Da AI underminerer og forstyrrer arv konkurrencedygtige hindringer for adgang, mange organisationer forsøger ubarmhjertigt at indsamle deres egne data og tjene penge på dem. Ak, denne dataindsamling og -udnyttelse er hverken let eller frugtbar og skaber derfor strategisk dissonans. Dette skyldes, at selvom AI i stigende grad er uundværlig for de fleste organisationer, er det ikke en del af deres arvede færdigheder eller kerneekspertise. Derudover er ckronisk og vedvarende mangel af ingeniører, udviklere, produktledere og ledere, der er uddannet i AI, skærper denne dissonans og fører til en løsningspræference for datadeling med det formål at udveksle viden.

Et eksempel på kombinationen af ​​evne og vilje, der skabes gennem udveksling af data til videngenerering, er det nye forslag af Den Europæiske Union, at skabe "et indre marked for data" for at give mennesker, virksomheder og organisationer mulighed for at træffe bedre beslutninger baseret på indsigt fra ikke-personlige data for at konkurrere med de nuværende teknologiske giganter.

En anden faktor, der bidrager til, at datagrave bliver mindre bæredygtige, er opfindelsen af ​​nye dataløsninger, der muliggør brug af mindre datasæt til træningsmodeller. Syntetiske dataløsninger (for eksempel med generative kontradiktoriske netværk) og andre minimeringsteknikker, som f.eks. Dataforøgelse, kan muligvis give virksomheder mulighed for at skabe forstyrrende AI-produkter uden enorme mængder data.

Læs hele historien her ...




Kinas Dystopian AI-udvikling omfatter befolkningskontrol

Enhver, der mener, at AI lærer af sig selv og er etisk neutral, har købt Technocrat-løgnen. AI er bare en computeralgoritme, der er programmeret af mennesker til at gøre, hvad mennesker vil have det. Forstyrrelser kan ikke udelukkes. Kinas AI søger at reducere den globale befolkning og eksporteres til andre lande.

Som teknokrati er Kina indstillet på at perfektionere ”videnskaben om social ingeniørarbejde”, så hele samfundet kan overvåges og kontrolleres, så det passer til Technocrat-mål. Et stort mål er at reducere den globale befolkning for at forbruge færre ressourcer. ⁃ TN Editor

Siden sin opfattelse har folk bekymret sig for, at en kunstig intelligens ville vende sig mod menneskeheden og true vores liv. Selvom dette kan være et resultat, der skal frygtes flere år i fremtiden, er den mere presserende fare lige nu brugt af AI til at undertrykke millioner af mennesker og lette truslen om et kontrollerende regime.

Hjemmebundet i den pandemiske karantæne har min datter og jeg været sammen om Person of Interest på Netflix.

I det væsentlige handler den tidligere netværksserie om en mand, der skabte en næsten alvidende kunstig intelligens, der ser alle gennem netværk af kameraer, computere og smartphones. Hver uge forsøger vores heltehold, samlet af AI-skaberen, at hjælpe en person, som AI har identificeret som et sandsynligt snart mordoffer. Fordi denne AI blev opfundet af showets hovedperson, viser den empati og værdsætter menneskeliv.

Imidlertid indføres den tredje sæson i anden sæson på vegne af regeringen, og denne AI værdsætter ikke menneskeliv. Det fungerer under ordrer fra og til fordel for et skyggefuldt selskab, der begynder at organisere folks liv til sine egne formål, herunder at dræbe folk, der ikke passer ind i dets program. Det er skræmmende.

Dette show er et godt tv, og jeg anbefaler det til alle, der regelmæssigt læser denne blog og dermed er interesseret i, hvordan teknologi kan påvirke vores liv. Person of Interest kan også introducere dig til, hvad der nu sker i denne verdens mest folkerige land.

Jeg har skriftlig for nylig den videoovervågning og ansigtsgenkendelse i USA, men amerikansk politi er begrænset af forfatningsmæssige krav, og det kan det let være ranvendt ules til nye teknologier, der vil begrænse regeringens evner til at bruge dem uden forskel. USA kan også prale af beskyttelse af enkeltpersoners ret til at samle og protestere, en regering, der regelmæssigt kan ændres, og et domstolssystem, der generelt beskytter disse rettigheder. En uafhængig presse skinner lys over regeringens opførsel, der anses for misbrug af disse rettigheder.

Så tænk på et land uden nogen af ​​disse kontroller og balance, uden individuelle rettigheder garanteret i henhold til lov, ingen fri presse, intet uafhængigt operativt retssystem og et enkelt partidiktatur, der har al magt. Tænk nu over, hvad der ville ske, hvis du giver det land ubegrænset elektronisk og fysisk overvågning fra hundreder af millioner kameraer til droner til at fange al telefon-, tekst- og internettrafik inklusive søgninger og sociale medier. Giv derefter dette samfund stadigt stigende sofistikering inden for kunstig intelligens til at styre informationsstrømmen og tildele mening til alle de handlinger, det fanger, og aggreger endda det fulde syn på en persons adfærd til en score, der bestemmer alle vigtige aspekter af en persons liv. Få en god score fra regeringen, og du får den lejlighed, du ønsker eller tillader at få en baby. En dårlig score betyder vejspærringer i dit liv. Dette er, hvad Kina hurtigt bliver.

Kina opretter ikke kun et overvågningssamfund, herunder et socialt scoringssystem for alle beboere, men det investerer meget i den nødvendige kunstige intelligens til at styre det hele og foretage evalueringer af, hvad kameraer, biometriske læsere og internetfiltre fanger. Ifølge Amerikanske militærestimater, Kina bruger 70 milliarder dollars i offentlige midler på AI-udvikling i 2020 mod 17 milliarder dollar i 2017. Amerikanske ikke-forsvarsudgifter til AI i år vil være ca. en milliard dollars.

Ikke kun bygger Kina regeringslaboratorier for at udvikle de næste generationer af AI, men regeringens tætte koordinering med virksomheder som Huawei og Alibaba giver også overvågningsstaten top privat kommerciel forskning. Alt drevet af de supermassive mængder data produceret i verdens største overvågningstilstand, fordi enorme datasæt er byggestenene til effektiv AI. Kina, som The Economist for nylig observeret, er Saudi-Arabien af ​​data.

Den anden anbefaling, jeg vil komme med i denne kolonne, er at læse Ross Andersons artikel i The Atlantic kaldet Panopticon er allerede her, som forklarer, hvordan overvågning, AI, social score, enpartistat og politisk undertrykkelse kombineres i Kina for både at skabe det første alvidende sociale system og at eksportere det til andre lande. Anderson rapporterer om, hvordan hele systemet testes lige nu i ”friluftsfængslet” i Xinjiang-provinsen, hvor muslimske uigurer overvåges hvert minut i deres liv.

Anderson skriver om den kinesiske præsident, partileder og effektive diktator, Xi Jinping, ”Med AI kan Xi opbygge historiens mest undertrykkende autoritære apparat, uden at den arbejdskraft Mao havde brug for for at holde information om uenighed flydende til en enkelt centraliseret knude. I Kinas mest fremtrædende AI-startups - SenseTime, CloudWalk, Megvii, Hikvision, iFlytek, Meiya Pico - har Xi fundet villige kommercielle partnere. Og i Xinjiangs muslimske mindretal har han fundet sin testpopulation. ”

Mere end en million uigurer er blevet fængslet, hvilket er mere politiske fanger end noget tilfælde siden nazistiske koncentrationslejre. John Oliver drøftet livet i disse fængsler og genuddannelseslejre på hans show i denne uge. Men uighurerne, der stadig bor i Xinjiang-provinsen, er underlagt kontrolpunkter, konstant video og anden overvågning og indførelsen af ​​Han-kinesiske "store brødre og søstre" for at overvåge tvungen assimilering i den kommunistiske kultur. Ifølge Anderson, “Ved denne kontrol udtrækker politiet alle de data, de kan fra Uighurs 'kroppe. De måler højden og tager en blodprøve. De optager stemmer og vatpind DNA. ”

Og denne testplads for overvågning og politisk overholdelse kan let eksporteres til resten af ​​landet. Anderson bemærker, ”Når Xi har perfektioneret dette system i Xinjiang, vil ingen teknologiske begrænsninger forhindre ham i at udvide AI-overvågning i hele Kina. Han kunne også eksportere den uden for landets grænser og forankre magten hos en hel generation af autokrater. ”

Investeringen i AI styrer hele processen. Det Atlantic I artiklen hedder det: ”Meget af de optagelser, der indsamles af Kinas kameraer, analyseres af algoritmer til sikkerhedstrusler af den ene eller den anden art. I den nærmeste fremtid kunne enhver person, der kommer ind i et offentligt rum, straks identificeres ved hjælp af AI, der matcher dem til et hav af personlige data, herunder deres enhver tekstkommunikation, og deres krops enestående proteinkonstruktionsskema. Med tiden vil algoritmer være i stand til at samle datapunkter fra en bred vifte af kilder - rejseoptegnelser, venner og medarbejdere, læsevaner, indkøb - for at forudsige politisk modstand, inden det sker. Kinas regering kunne snart opnå et hidtil uset politisk kvælningsgreb på mere end 1 milliard mennesker. ”

Så nye overvågningsværktøjer som robot fugle overvågning droner, godt nok til at narre andre fugle til at flyve med dem, introduceres allerede i Kina for at give flere data om folks adfærd til statsstyret AI. Som anført af C / NET, ”Kina beskæftiger også ansigtsgenkendelse, kunstig intelligens, smarte briller og andre teknologier til at overvåge sine 1.4 milliarder borgere med det formål at give en af ​​dem en dag en personlig score baseret på hvordan de opfører sig. ”

Forestil dig en kredit score, der i stedet for blot at måle økonomisk adfærd og evne måler alle aspekter af dit liv og interaktioner med samfundet. Og forestil dig så, at din score kan bestemme, hvilken slags lejlighed du har lov til at have - eller hvis regeringen overhovedet tillader dig at bo i en lejlighed. Det samme gælder for dit job, uddannelsesmuligheder, reproduktion og andre centrale aspekter af dit liv. Dette er den kinesiske sociale score. Som påpeget i Kabelforbundet UK, mens noget af det nuværende system er frivilligt, er der incitamenter til at deltage og sanktioner for ikke at deltage.

Endelig og måske mest skræmmende bruger Kina sin økonomiske styrke og private industri til at eksportere befolkningskontrolteknologi til diktatorer over hele verden. Anderson bemærker, ”Kina udvikler allerede kraftfulde nye overvågningsværktøjer og eksporterer dem til snesevis af verdens faktiske og kommende autokratier. I løbet af de næste par år vil disse teknologier blive raffineret og integreret i altomfattende overvågningssystemer, som diktatorer kan plug and play. ”

Læs hele historien her ...




Ansigtsgenkendelsesalgoritme forårsaget forkert anholdelse

Denne historie afslører, hvorfor Amazon, IBM og Microsoft har trukket sig ud af ansigtsgenkendelsesbranchen for at aflede en vis kritik over racistisk skævhed. I dette tilfælde spikrer algoritmen den forkerte sorte mand for en forbrydelse, han ikke begik. ⁃ TN Editor

En torsdag eftermiddag i januar var Robert Julian-Borchak Williams på sit kontor hos et bilforsyningsfirma, da han fik et opkald fra Detroit-politidepartementet, hvor han bad ham komme til stationen for at blive arresteret. Han troede først, at det var en sjov.

En times tid senere, da han trak ind i sin indkørsel i en stille underafdeling i Farmington Hills, Mich., Trak en politibil bagud og blokerede for ham. To officerer kom ud og boede Mr. Williams på hans græsplæne foran hans kone og to små døtre, som var forvirrede. Politiet ville ikke sige, hvorfor han blev arresteret, og kun vise ham et stykke papir med sit foto og ordene "forbrydelsesretter" og "larceny."

Hans kone, Melissa, spurgte, hvor han blev taget med. ”Google det,” minder hun om en officer, der svarede.

Politiet kørte Mr. Williams til et interneringscenter. Han fik taget sit krusskud, fingeraftryk og DNA og blev holdt natten over. Omkring middag på fredag ​​tog to detektiver ham med til et forhørrum og lagde tre papirstykker på bordet med forsiden nedad.

”Hvornår er sidste gang du gik til en Shinola-butik?” spurgte en af ​​detektiverne i Mr. Williams erindring. Shinola er en eksklusiv butik, der sælger ure, cykler og lædervarer i det trendy Midtown-kvarter Detroit. Hr. Williams sagde, at han og hans kone havde tjekket det ud, da butikken først åbnede i 2014.

Detektiv vendte det første stykke papir om. Det var et stillbillede fra en overvågningsvideo, der viser en tunge mand, klædt i sort og iført en rød St. Louis Cardinals hætte, der stod foran en urskærm. Fem ure, værd $ 3,800, blev butiksløftet.

"Er det dig?" spurgte detektiv.

Det andet stykke papir var en nærbillede. Billedet var sløret, men det var tydeligvis ikke Mr. Williams. Han tog billedet op og holdt det ved siden af ​​sit ansigt.

”Nej, dette er ikke mig,” sagde Mr. Williams. ”Tror du, at alle sorte mænd ser ens ud?”

Mr. Williams vidste, at han ikke havde begået den pågældende forbrydelse. Hvad han ikke kunne have vidst, da han sad i forhørrummet, er, at hans sag kan være den første kendte beretning om, at en amerikaner uretmæssigt blev arresteret på baggrund af en fejlbehæftet kamp fra en ansigtsgenkendelsesalgoritme, ifølge eksperter på teknologi og loven .

Et defekt system

En landsdækkende debat raser om racisme i retshåndhævelse. Overalt i landet protesterer millioner ikke kun handlinger fra de enkelte officerer, men partiskhed i de systemer, der bruges til at overvåge samfund og identificere mennesker til retsforfølgning.

Ansigtsgenkendelsessystemer er blevet brugt af politistyrkerne til mere end to årtier. Seneste undersøgelser af MIT og National Institute of Standards and Technology, eller NIST, har fundet, at selv om teknologien fungerer relativt godt på hvide mænd, er resultaterne mindre nøjagtige for andre demografier, delvis på grund af en mangel på mangfoldighed i de billeder, der bruges til at udvikle de underliggende databaser.

Sidste år, under en offentlig høring om brugen af ansigtsgenkendelse i Detroit, var en assisterende politichef blandt dem, der rejste bekymring. "På spørgsmålet om falske positiver - det er helt faktuelt, og det er veldokumenteret," sagde James White. "Så det angår mig som en afroamerikansk mand."

Denne måned, Amazon, microsoft og sort IBM meddelte, at de ville stoppe eller pause deres tilbud om ansigtsgenkendelse til retshåndhævelse. Bevægelserne var stort set symbolsk, da virksomhederne ikke er store aktører i branchen. Teknologipolitiafdelingerne bruges leveres af virksomheder, der ikke er husholdningsnavne, såsom Vigilant Solutions, Cognitec, NEC, Rank One Computing og Clearview AI.

Læs hele historien her ...




Neil Fergusons computermodel rippes til strimler

Professor Neil Ferguson fra Imperial College i London startede den store panik i 2020 med en grundigt defekt computermodel, der var grundigt uegnet til videnskabelig brug. Var han i stedet dydssignalering til sin radikale venstre gift gift? ⁃ TN Editor

En masse opmærksomhed er blevet givet til professor Neil Fergusons tvivlsomme track record over epidemier og hans lige så tvivlsomme dom ved at møde sin elsker ved mindst to lejligheder under den lukning, der blev indført på hans eget råd.

Ved nærmere undersøgelse er der to særligt betydningsfulde elementer, der råber til uafhængig undersøgelse: kvaliteten og pålideligheden af ​​Fergusons computermodel og hans elskendes politiske tilknytning.

For det første computermodellen. Kildekoden bag Ferguson-modellen er endelig blevet gjort tilgængelig for offentligheden via GitHub internet side. Mark E Jeftovic, i hans Easy Axis websted, siger: 'A kode gennemgang er blevet udført af en anonym ex-Google-softwareingeniør Svar: Gå hertil, log ind ved hjælp af den e-mail du bruger til EyeOnWater og klik på Tilføj et nyt billede. Følg vejledningen til at uploade, tage eller vælge et nyt billede. , der fortæller os, at GitHub-depotkoden er blevet masseret masseret af Microsoft-ingeniører og andre i et forsøg på at piske koden i form for sikkert at udsætte den for offentligheden. Desværre ser de ud til at have fejlet, og adskillige fejl og fejl fra den originale software fortsætter i den frigivne version. Forespørgsler om den ikke-redigerede version af den originale kode bag modellen er ubesvaret. '

Jeftovic mener, at det mest bekymrende resultat af modelgennemgangen er, at koden producerer 'ikke-deterministiske output'. Dette betyder, at koden på grund af bugs kan give meget forskellige resultater givet identiske input, hvilket gør koden uegnet til videnskabelige formål. Jeftovic siger, at den fremlagte dokumentation ønsker, at læseren skal acceptere, at når man får et 'startfrø', vil modellen altid give de samme resultater. 'Undersøgelse afslører sandheden: koden giver kritisk forskellige resultater, selv for identiske startfrø og parametre.'

Han siger, at et team endda fandt, at output varierede afhængigt af hvilken type computer det blev kørt.

Jeftovic kan ikke forstå, hvorfor Imperial-teamet ikke klar over, at deres software var så mangelfuld. Han citerer det sædvanlige beregningsord, 'Garbage In / Garbage Out', som den utrættede læser måske mener, er, hvad der hævdes i kodevurderingen. Faktisk siger han, 'det er det ikke. Hvad der hævdes, er, at output er affald, uanset input. I dette tilfælde er output, som vi oplever som et resultat, en verdensomspændende nedlukning og nedlukning af den globale økonomi, og vi ved ikke rigtig, om dette var nødvendigt eller ej, fordi vi ikke har nogen faktiske data (bortset fra Sverige) og stærkt defekte modeller. '

En anden ekspert, Martin Armstrong (som har en kontroversiel rekord) også gennemgår Ferguson-modelkoden og kommer til meget lignende konklusioner. Han siger, at det er sådan en vittighed, at det enten er en direkte svindel, eller at det er det mest udugelige stykke programmering, jeg nogensinde har set i mit liv. . . Dette er den mest uprofessionelle operation måske inden for datalogi. Hele holdet skal opløses og et uafhængigt team indføres for at gennemgå Neil Fergusons arbejde. . . Den eneste rimelige konklusion, jeg kan nå, er, at dette med vilje er blevet brugt til at retfærdiggøre falske prognoser, der er til hensigt om politisk aktivisme. . . Det ser ud til, at der ikke har været nogen uafhængig gennemgang af Fergusons arbejde, hvilket er ufatteligt! '

Hvilket fører os pænt til den anden facet af affæren - den faktiske 'affære' og den politisk radikale elsker. Professor Ferguson, 51, siges at være fremmedgjort fra sin kone Kim, som han har en 17-årig søn med. Det rapporteres, at han for et år siden har brugt match-fund-webstedet OkCupid til at møde Antonia Staats, 38, som i øjeblikket er gift og bor sammen med sin mand og to børn. Fru Staats er en venstresidens kampagne, der arbejder for det USA-baserede online netværk Avaaz, en organisation, der fremmer global aktivisme blandt andet ved klimaforandringer. Det Guardian har kaldt Avaaz kloden største og mest kraftfulde online aktivistnetværk, og det har en verdensomspændende efterfølgelse på ca. 10 millioner mennesker. Det er løst forbundet med Bill Gates gennem World Economic Forum, der også viser Al Gore og Christine Lagarde på dets bestyrelse. Staats arbejder som en senior kampagne for klimaændringer for gruppen og siges at være sympati for målene med udryddelsesoprøret. Indirekte, i det mindste på overfladen, binder dette Ferguson til klimaændringer, en årsag til, at nedlukningen har tjent meget godt ved at formå at lukke verdensøkonomien.

Læs hele historien her ...




Ansigtsgenkendelse AI forudsiger kriminelle på baggrund af ansigt?

Frenologiens racistiske pseudovidenskab blev debunked i de tidlige 1900'ere, men Technocrat softwareudviklere har givet det nyt liv med AI-baserede ansigtsgenkendelsesalgoritmer, idet de siger, at de kan se en sandsynlig kriminel med 80% nøjagtighed og uden racemæssig bias. ⁃ TN Editor

Et team fra University of Harrisburg, PA, har udviklet automatiseret computer ansigtsgenkendelsessoftware, som de hævder kan forudsige med 80 procents nøjagtighed og "ingen racemæssig bias", om en person sandsynligvis vil være en kriminel, rent ved at se på et billede af dem. ”Ved at automatisere identificeringen af ​​potentielle trusler uden bias, er vores mål at fremstille værktøjer til kriminalitetsforebyggelse, retshåndhævelse og militære applikationer,” sagde de og erklærede, at de ledte efter ”strategiske partnere” til at arbejde med for at implementere deres produkt.

I en bekymrende brug af ord, holdet i deres egne pressemeddelelse, gå fra at henvise til dem, softwaren genkender som værende ”sandsynlige kriminelle” til ”kriminelle” inden for blot én sætning, hvilket antyder, at de er sikre på den diskrediterede racistiske pseudovidenskab i frenologi, som de ser ud til at have opdateret i det 21. århundrede.

Den offentlige reaktion på projektet var mindre end begejstret, bedømt af kommentarer tilbage på Facebook, der inkluderede ”Samfund har forsøgt at skubbe tanken om 'fødte kriminelle' i århundreder," "og dette er ikke profilerende, fordi ……?” og "20 procent bliver konstant halet af politiet, fordi de har 'krimi-ansigt'." Faktisk var svaret så negativt, at universitetet trak pressemeddelelsen fra internettet. Det er dog stadig synligt ved hjælp af Internet Wayback-maskine.

Mens forskerteamet hævder at fjerne partiskhed og racisme fra beslutningsprocessen og overlade det til en ansigtsløs algoritme, har de, der skriver koden, og dem, der får beslutte, hvem der udgør en kriminel i første omgang, bestemt deres egne biaser . Hvorfor kriminaliseres de hjemløse eller farvede mennesker, der "loiter" på fortovene, men senatorer og kongrespersoner, der stemmer for krige og regime, ændrer ikke operationer? Og hvem er mere sandsynligt at blive arresteret? Ledere på Wall Street laver kokain på deres kontorer eller folk i arbejderklassen ryger marihuana eller revner? Jo højere niveauet for en person i samfundet er, desto mere alvorlige og skadelige bliver deres forbrydelser, men sandsynligheden for en arrestation og en frihedsstraf falder. Det er sandsynligt, at sorte mennesker bliver arresteret for den samme forbrydelse som hvide mennesker og er dømt til længere ophold også i fængsel. Desuden er ansigtsgenkendelsessoftware berygtet for at være ude af stand til at fortælle folk om farver fra hinanden og rejse yderligere bekymringer.

Læs hele historien her ...




Harvard: Brug af AI til personlig forudsigende karantæne

Hvis din forudsigelige AI ikke fungerer med kriminalitetsforebyggelse, hvorfor ikke prøve det på forudsigelige karantæner i stedet? Harvard siger, at alt det behøver, er flere data, hvor regeringen "helt sikkert kan øge indsamlingen af ​​nationale sundhedsdata ved at oprette eller udrulle mere omfattende elektroniske medicinske poster." ⁃ TN Editor

I de sidste par måneder har verden oplevet en række udbrud af Covid-19, der generelt har fulgt den samme vej: en indledende fase med få infektioner og begrænset respons, efterfulgt af en start af den berømte epidemikurve ledsaget af en landsdækkende nedlukning til flad kurven. Så når kurven er nået, er regeringerne nødt til at tackle det, som præsident Trump har kaldt "den største beslutning”Af hans liv: hvornår og hvordan man håndterer afgrænsning.

I hele pandemien er der lagt stor vægt på deling (eller mangel på den) af kritisk information på tværs af lande - især fra Kina - om spredningen af ​​sygdommen. Derimod er der relativt lidt blevet sagt om, hvordan Covid-19 kunne have været bedre styret ved at udnytte de avancerede datateknologier, der har forvandlet virksomheder i de sidste 20 år. I denne artikel diskuterer vi en måde, hvorpå regeringer kan udnytte disse teknologier til styring af en fremtidig pandemi - og måske endda de afsluttende faser af den nuværende.

Kraften i personlig forudsigelse

En alternativ tilgang for beslutningstagerne til at overveje at tilføje i deres mix for at kæmpe mod Covid-19 er baseret på teknologien til personlig forudsigelse, som har transformeret mange industrier i de sidste 20 år. Brug af maskinindlæring og kunstig intelligens (AI) -teknologi, datadrevne virksomheder (fra "Big Tech" til finansielle tjenester, rejser, forsikring, detailhandel og medier) fremstiller personlige henstillinger til, hvad de skal købe, og praktiserer personlig prisfastsættelse, risiko, kredit , og lignende ved hjælp af de data, de har samlet om deres kunder.

I en nylig artikel om HBRfor eksempel beskrev Ming Zeng, Alibabas tidligere strategibetjent, hvordan Ant Financial, hans virksomheds udlånsvirksomhed til små virksomheder, kan vurdere låneansøgere i realtid ved at analysere deres transaktions- og kommunikationsdata på Alibabas e-handelsplatforme. I mellemtiden vurderer virksomheder som Netflix forbrugernes tidligere valg og egenskaber for at forudsige, hvad de vil se næste.

Den samme tilgang kunne fungere for pandemier - og endda fremtiden for Covid-19. Ved hjælp af flere datakilder kan maskinlæringsmodeller trænes til at måle en persons klinisk risiko for at lide alvorlige resultater (hvis inficeret med Covid): hvad er sandsynligheden for, at de har brug for intensiv pleje, som der er begrænsede ressourcer til? Hvor sandsynligt er det, at de dør? Dataene kunne omfatte individer 'grundlæggende medicinske historie (for Covid-19 ser symptomernes sværhedsgrad ud til at stige med alderen og med tilstedeværelse af co-morbiditeter såsom diabetes or forhøjet blodtryk) såvel som andre data, såsom husholdningssammensætning. For eksempel kan et ungt, sundt individ (som ellers kan klassificeres som ”lav risiko”) klassificeres som ”høj risiko”, hvis han eller hun bor hos gamle eller svagelige mennesker, der sandsynligvis skulle have brug for intensiv pleje, hvis de smittes.

Disse kliniske risikoforudsigelser kunne derefter bruges til at tilpasse politikker og ressourcetildeling på individ / husholdningsniveau og passende redegøre for standard medicinske forpligtelser og risici. Det kunne f.eks. Gøre det muligt for os at målrette social afstand og beskyttelse for dem med høj klinisk risikoscore, samtidig med at de med lave score kan leve mere eller mindre normalt. Kriterierne for tildeling af enkeltpersoner til grupper med høj eller lav risiko ville naturligvis være nødt til at blive fastlagt, også med hensyn til tilgængelige ressourcer, medicinsk ansvarsrisiko og andre risikoforhold, men de data videnskabelige tilgange til dette er standard og anvendes i talrige applikationer.

En personlig tilgang har flere fordele. Det kan hjælpe med at bygge besætning immunitet med lavere dødelighed - og hurtigt. Det vil også give mulighed for bedre - og mere retfærdig - allokering af ressourcer, for eksempel til mangel på medicinsk udstyr (såsom testkits, beskyttelsesmasker og hospitalsenge) eller andre ressourcer.

Afgrænsningsstrategier i senere faser af en pandemi - et næste vigtige trin for Covid-19 i de fleste lande - kan drage fordel på en lignende måde. At beslutte, hvilke mennesker der skal starte afgrænsningsprocessen med, er i sagens natur et klassificeringsproblem, der ligner klassificeringsproblemerne, som de fleste datadrevne virksomheder kender. Nogle regeringer nærmer sig allerede indeslutning ved at bruge alder som en fuldmagt til risiko, en relativt rå klassificering, der potentielt savner andre højrisikoindivider (såsom ovenstående eksempel på sunde unge mennesker, der bor med ældre).

Udførelse af klassificering baseret på data og AI-forudsigelsesmodeller kan føre til afgrænsningsbeslutninger, der er sikre på samfundsniveau og langt billigere for den enkelte og økonomien. Vi ved, at et centralt træk ved Covid-19 er, at det har en usædvanlig høj transmissionshastighed, men også relativt lavt alvorlige symptomer eller dødelighed. Data indikerer, at over 90% af de inficerede mennesker muligvis enten er asymptomatiske eller oplever milde symptomer, når de smittes.

I teorien med en pålidelig forudsigelse af, hvem disse 90% er, kunne vi afgrænse alle disse individer. Selv hvis de skulle inficere hinanden, ville de ikke have alvorlige symptomer og ville ikke overvælde det medicinske system eller dø. Disse 90% begrænsede kliniske risikotilpassede mennesker ville også hjælpe med til hurtig opbygning af høj besætningsimmunitet, på hvilket tidspunkt de resterende 10% også kunne fjernes.

Læs hele historien her ...




FOIA Docs: Feds Excited to Create Mass Surveillance Network

Teknokrater, der arbejder inden for den amerikanske regering, stempler for at indføre samlede overvågningsnetværk i Amerika, svarende til dem, der ses i Kina, men med et twist: Løbet til dominans kræver, at vi hopper over Kinas AI og gør det endnu bedre.

Eric Schmidt er formand for National Security Commission on Artificial Intelligence. Schmidt er tidligere formand for Google og Alphabet og er medlem af den elitistiske trilaterale kommission. ⁃ TN Editor

En FOIA-anmodning fra det elektroniske informationscenter afslørede, hvor begejstret National Security Commission on Artificial Intelligence (NSCAI) handler om at bruge CCTV-kameraer til at oprette et nationalt overvågningsnetværk.

En præsentation af NSCAI med titlen “Oversigt over kinesisk teknisk landskab” diskuterer Kinas ansigtsgenkendelse CCTV-kameranetværk i glødende termer.

”Når vi taler om dataressourcer, er regeringen virkelig den største datakilde. '”

Præsentationen drøfter, hvordan den kinesiske regering tjener på at tilskynde virksomheder til at bruge ansigtsgenkendelse af besøgende og ansatte.

”Nu hvor disse virksomheder opererer i skala, bygger de en række andre tjenester (f.eks. Ansigtsgenkendelse af kontorbygninger, augmented reality)”

I Amerika er tingene ikke så forskellige.

I USA opfordrer Feds private virksomheder som Clearview AI, Amazon Ring og Flock Safety til at bruge ansigtsgenkendelse og automatiske nummerpladerlæsere til at identificere alle.

Under afsnittet ”Tilstandsdatasæt: overvågning = smarte byer” uddyber præsentationens Kinas smarte byovervågning, ”det viser sig, at det at have gader tæppet med kameraer også er god infrastruktur for smarte byer.”

Amerikanere har ikke brug for mere regeringsovervågning, og vi har bestemt ikke brug for vores smarte byer med tæpper med regeringsovervågningsenheder.

NSCAI siger, ”masseovervågning er en morderapplikation til dyb læring.

Da vores regering anvender AI-dyb læring til ting som CCTV-kameraer, mobiltelefonplaceringer og nummerpladerlæsere, kan en persons hele liv forudsiges.

AI'er bruger dyb læring til nøjagtigt at gætte, hvor du arbejder, spiser, handler, sover, tilbeder og ferierer. Grundlæggende er masseovervågning en killerapplikation til at kende alt, hvad der er at vide om alle.
Sidste uge MLlive, afslørede at et start-AI-selskab, der er co-grundlagt af University of Michigan, hjælper regeringer med at bruge CCTV-kameraer til at overvåge folk til social distancering, som angivet af en professor i elektroteknologi og computerteknik ved University of Michigan (UM):

”For to uger siden sagde Corso, at han og hans team begyndte at spore fysisk distancering på steder som Times Square i New York, Miami Beach, Abbey Road i London og Ruthven Museums Building på UM.”

Politiet i New York bruger CCTV-kameraer til fine mennesker op til $ 1,000 for ikke social afstand. Mens politiet i Florida oprettede kontrolpunkter på motorveje og politiet i Det Forenede Kongerige bruger CCTV-kameraer til håndhæve ophold-hjemme-ordrer.

Voxel51 bruger deres “Fysisk distanceringsindeks” at spore social afstand i større byer over hele kloden.

”Voxel51 sporer virkningen af ​​den globale pandemi af coronavirus på social opførsel ved hjælp af en metrik, vi udviklede, kaldet Voxel51 Physical Distancing Index (PDI). PDI hjælper folk med at forstå, hvordan coronavirus ændrer menneskelig aktivitet i realtid rundt om i verden. Ved hjælp af vores avancerede computervisionsmodeller og live-videostrømme fra nogle af de mest besøgte gader i verden fanger PDI den gennemsnitlige mængde menneskelig aktivitet og social distancerende adfærd i større byer over tid. ”

Det, der bekymrer mig, er, hvordan retshåndhævelse kan bruge Voxel51 til at bøde eller arrestere folk for ikke at overholde regeringens mandaterede sociale distancer.

På trods af hvad Voxel51 hævder om anonymisering af identificerbare data, indsamler de stadig deres data fra offentlige / offentlige kameraer.

En 2019 artiklen i Michigan News University of Michigan afslørede, at Voxel51 bruger kunstig intelligens til at identificere og følge mennesker og genstande.

”Voxel51 har til hensigt at overvinde disse hindringer med deres videoanalyseplatform og open source-softwarebiblioteker, der tilsammen muliggør avanceret videogenkendelse. Det identificerer og følger objekter og handlinger i hvert klip. Som medstifter Brian Moore siger: Vi omdanner video til værdi. ”

Jeg har svært ved at tro, at byer og regeringer ville betale penge for blot at se på anonymiserede data. Især når Voxel51's forretningsmodel er bygget op omkring at identificere mennesker og objekter i masseskala.
Et perfekt eksempel på, hvordan Feds se masseovervågning bedst kan opsummeres i NSCAI præsentation"Amerikanske virksomheder har meget at vinde ved at vedtage ideer fra kinesiske virksomheder."

Hver dag ser det ud til, at amerikanere får at vide, at vi har brug for flere nationale overvågningsprogrammer for at holde alle i sikkerhed.

Vores regerings besættelse med at overvåge alle vil kun vokse, når coronavirus griber landet. Det er vores job at forhindre, at disse overvågningsprogrammer implementeres eller risikerer at blive en autoritær stat som Kina.

Læs hele historien her ...




Mind-Reading AI bruger hjerneimplantat til tanker til ord

Mens medicinsk opmuntrende for mennesker, der er lammet, har evnen til at oversætte tanker til ord alvorlige konsekvenser for tidsalderen for Technocracy, hvor intet er skjult for den videnskabelige diktatur. ⁃ TN Editor

En kunstig intelligens kan oversæt nøjagtigt tanker til sætninger, i det mindste for et begrænset ordforråd på 250 ord. Systemet kan bringe os et skridt tættere på at gendanne tale til mennesker, der har mistet evnen på grund af lammelse.

Joseph Makin ved University of California, San Francisco, og hans kolleger brugte dybe indlæringsalgoritmer til at studere hjernesignaler fra fire kvinder, mens de talte. Kvinderne, som alle har epilepsi, havde allerede elektroder knyttet til deres hjerner for at overvåge anfald.

Hver kvinde blev bedt om at læse højt fra et sæt sætninger, da teamet målte hjerneaktivitet. Den største sætning indeholdt 250 unikke ord.

Holdet fodrede denne hjerneaktivitet med en neural netværksalgoritme og træner den til at identificere regelmæssigt forekommende mønstre, der kunne knyttes til gentagne aspekter af tale, såsom vokaler eller konsonanter. Disse mønstre blev derefter ført til et andet neuralt netværk, som prøvede at vende sig dem til ord for at danne en sætning.

Hver kvinde gentog sætningerne mindst to gange, og den endelige gentagelse udgjorde ikke en del af træningsdataene, hvilket gjorde det muligt for forskerne at teste systemet.

Hver gang en person taler den samme sætning, vil den tilknyttede hjerneaktivitet være ens, men ikke identisk. "At huske hjernens aktivitet i disse sætninger ville ikke hjælpe, så netværket er i stedet for at lære, hvad der ligner dem, så det kan generalisere til dette endelige eksempel," siger Makin. På tværs af de fire kvinder var AIs bedste ydelse en gennemsnitlig oversættelsesfejlrate på 3 procent.

Makin siger, at brug af et lille antal sætninger gjorde det lettere for AI at lære, hvilke ord, der har tendens til at følge andre.

F.eks. Var AI i stand til at afkode, at ordet "Turner" altid var sandsynligt at følge ordet "Tina" i dette sæt sætninger fra hjerneaktivitet alene.

Læs hele historien her ...




Snowden: AI Plus Coronavirus er 'nøglen til tyranni'

Teknokratindstillede overvågningsfirmaer er 'i zonen' med regeringer, der er mere villige end nogensinde til at købe deres AI og overvågningsteknologier. Når de er integreret i samfundet, vil de blive brugt mod borgere længe efter at coronavirus er aftaget. ⁃ TN Editor

Regeringer over hele verden bruger højteknologiske overvågningsforanstaltninger til at bekæmpe koronavirusudbruddet. Men er de det værd?

Edward Snowden synes ikke det.

Den tidligere CIA-entreprenør, hvis lækager udsatte omfanget af spionprogrammer i USA, advarer om, at når denne teknik er taget ud af kassen, vil det være svært at sætte den tilbage.

”Når vi ser, at der er vedtaget nødsituationer, især i dag, er de tilbøjelige til at være klæbrige,” sagde Snowden i en interview med Copenhagen International Documentary Film Festival.

At nødsituationen udvides. Derefter bliver myndighederne trygge ved nogen ny magt. De begynder at kunne lide det.

Tilhængere af de drakoniske foranstaltninger hævder, at normale regler ikke er nok under en pandemi, og at de langsigtede risici kan løses, når udbruddet er indeholdt. Men en kort suspension af borgerlige frihedsrettigheder kan hurtigt forlænges.

Sikkerhedstjenester finder snart nye anvendelser til teknologien. Og når krisen går, kan regeringer indføre nye love, der gøre nødreglerne permanente og sort udnytte dem til at slå ned på dissens og politisk opposition.

Tag forslagene for at overvåge udbruddet ved at spore placeringsdata for mobiltelefoner.

Dette kan bevise en kraftfuld metode til at spore spredningen af ​​virussen og bevægelserne hos mennesker, der har den. Men det vil også være et fristende værktøj til at spore terrorister - eller andre potentielle fjender fra staterne.

AI bliver 'nøglefærdigt til tyranni'

Kunstig intelligens er blevet en særlig populær måde at overvåge livet på under pandemien. I Kina, termiske scannere installeret på togstationer identificere patienter med febermens i Rusland, ansigtsgenkendelsessystemer opdager mennesker, der bryder karantæneregler.

Coronavirus har endda givet Clearview AI en chance for at reparere sit omdømme. Den kontroversielle opstart af sociale medier er i samtaler med regeringerne om at bruge dens teknik til at spore inficerede patienter, ifølge Wall Street Journal.

En stor attraktion ved AI er dens effektivitet ved at tildele sandsynligheder til forskellige grupper af mennesker. Men for stor effektivitet kan være en trussel mod friheden, og det er grunden til, at vi begrænser politiets beføjelser gennem tiltag såsom warrants og sandsynlig årsag til anholdelse.

Alternativet er algoritmisk politiarbejde der retfærdiggør overdreven kraft og foreviger racemæssig profilering.

Snowden er især bekymret over, at sikkerhedstjenester tilføjer AI til al den anden overvågningsteknologi, de har.

”De ved allerede, hvad du ser på Internettet,” sagde han. ”De ved allerede, hvor din telefon bevæger sig. Nu ved de, hvad din puls er, hvad din puls er. Hvad sker der, når de begynder at blande disse og anvende kunstig intelligens på det?

Læs hele historien her ...




Robert Epstein

Har Big Tech virkelig styrken til at aflukke Donald Trump?

Dr. Robert Epstein, en demokrat, har skrevet, at Big Tech vil gøre det umuligt for Trump at blive genvalgt i 2020. Han savner det punkt, at Big Tech er teknokrater, der har til hensigt at dominere samfundet overalt. ⁃ TN Editor

Når det kommer til valgmanipulation, får venstrestyrte amerikanske teknologiselskaber russerne til at ligne rank amatører.

Ligegyldigt hvilken svag kandidat Demokrater i sidste ende nominerer, og endda med Ruslands hjælp, Præsident Donald Trump kan ikke vinde valget i 2020. For den sags skyld i løb landsdækkende, hvor de forventede gevinstmargener er små - sige under 5 procent eller deromkring -Republikanernegenerelt taber sandsynligvis.

Det er på grund af nye indflydelseskræfter, som internettet har gjort det muligt i de seneste årtier, og det Big Tech virksomheder-google mere aggressivt end nogen anden - er blevet besluttet på at perfektionere siden Armageddon-dagen - åh, ked, valgdagen - i 2016.

Til gengæld er jeg hverken en konservativ eller en Trump-tilhænger. Men jeg elsker demokrati og Amerika mere end jeg elsker noget bestemt parti eller kandidat, og streng forskning som jeg har ført siden 2013 viser, at Big Tech-virksomheder nu har en hidtil uset magt til at svinge valg.

Mens jeg glæder mig over, at 95 procent af donationer fra tech-virksomheder og deres ansatte går til demokrater, kan jeg ikke stå ved og se, at disse virksomheder underminerer demokratiet. Så længe jeg stadig trækker vejret, vil jeg gøre alt, hvad jeg kan for at forhindre, at det sker - og for optegnelsen er jeg IKKE selvmord.

Truslen, disse virksomheder udgør, er langt fra triviel. For det første kan de skifte udtalelser og stemmer ind adskillige måder som folk ikke kan opdage.

Kan du huske rygterne om den biograf i New Jersey, der fik folk til at købe mere cola og popcorn ved hjælp af subliminale meddelelser indlejret i en film? Nå, disse rygter var lidt overdrevne - disse meddelelser havde faktisk en minimal virkning - men Google-og-the-Gang kontrollerer nu en lang række subliminale overtalelsesmetoder, der i løbet af få minutter kan ændre stemmeindstillingerne på 20 procent eller flere af ubestemte vælgere, uden at nogen har den mindste idé om, at de er manipuleret.

Værre er, at de kan bruge disse teknikker uden at efterlade et papirspor for myndighederne at spore. I en lække af Google-e-mails til Wall Street Journal i 2018, spørger Googler sine kolleger, hvordan virksomheden kan bruge "flygtige oplevelser" til at ændre folks syn på Trumps rejseforbud.

Flygtige oplevelser er de flygtige, vi har hver dag, når vi ser online-indhold, der er genereret on-the-fly og ikke er gemt overalt: nyhedsfeeds, søgeforslag, søgeresultater og så videre. Ingen myndighed kan gå tilbage i tiden for at se, hvilke søgeforslag eller søgeresultater, du blev vist, men snesevis af randomiserede, kontrollerede, dobbeltblinde eksperimenter Jeg har vist, at sådant indhold dramatisk kan ændre meninger og valgmuligheder. Ser du problemet?

Når jeg taler om indhold, bliver jeg træt af at se overskrifter om russisk indblanding i vores valg. Medmindre russerne pludselig finder ud af, hvordan vi massivt hacker vores valgmaskiner - og skammer os, hvis vi er inkompetente nok til at lade det ske - er der ingen bevis for, at dårlige skuespillere som Rusland eller den nu nedlagte Cambridge Analytica kan skifte mere end en nogle få tusinde stemmer her og der. Generelt set, alt hvad de kan gøre, er at smide noget partisk indhold på Internettet. Men indhold er ikke problemet mere.

Alt, hvad der betyder noget nu, er hvem der har magten til at beslutte, hvilket indhold folk vil se eller ikke vil se (censur), og hvilken rækkefølge indholdet præsenteres i. Denne magt er næsten udelukkende i hænderne på de arrogante ledere i to amerikanske virksomheder. Deres algoritmer bestemmer, hvilket indhold der undertrykkes, i hvilken rækkefølge indholdet vises, og hvilket indhold der bliver viralt. Du kan imødegå en tv-annonce med en anden tv-annonce, men hvis de tekniske direktører støtter en kandidat eller et parti, du kan ikke modvirke deres manipulationer.

Glem russerne. Som jeg sagde, da jeg vidnede før kongressen sidste sommer, hvis vores egne tech-virksomheder alle favoriserer den samme præsidentkandidat i år - og det synes sandsynligt - beregner jeg, at de let kan skifte 15 millioner stemmer til den kandidat uden at folk ved det og uden at efterlade et papirspor.

Forresten, jo mere du ved om nogen, jo lettere er det at manipulere ham eller hende. Google og Facebook have millioner informationer om enhver amerikansk vælger, og de vil målrette deres manipulationer på individuelt niveau for hver enkelt vælger i hver svingstat. Ingen i verden undtagen Google og Facebook kan gøre det.

I præsident Eisenhowers berømte afskedsadresse fra 1961 advarede han ikke kun om fremkomsten af ​​et militærindustrielt kompleks; han advarede også om fremkomsten af ​​en "teknologisk elite", der en dag kunne kontrollere vores land uden at vi vidste det.

Den dag er kommet, mine venner, og det er for sent for nogen lov eller forskrift at gøre en forskel - i det mindste ved det kommende valg. Der er kun én måde på dette tidspunkt at få disse virksomheder til at tage deres cifre fra skalaen, og det er at gøre dem, hvad de gør med os og vores børn hver dag: overvåge dem aggressivt.

Læs hele historien her ...