Apple begynder at scanne alle personlige fotos og billeder, der er uploadet til iCloud

Del denne historie!
Apple indtager nu rollen som politimand, da det begynder at scanne alle dine fotos, der er uploadet til sin iCloud -tjeneste. Den første ekstraktionsbølge er fotos, der repræsenterer børns udnyttelse, og de vil melde dig til politiet! Deres Technocrat AI -algoritmer bliver ikke offentliggjort. Du kan deaktivere iCloud på dine Apply -enheder, men du mister muligheden for at synkronisere dem.

Undskyldningen er at fange børnemishandlere og seksuelle rovdyr, men i processen skal 100 procent af dine fotos også scannes. Når overvågningsdøren er åbnet, kan enhver anden type foto målrettes til ethvert andet formål. Dette kan omfatte politiske protester, lokaliseringsoplysninger, psykologiske profiler, dvs. hvad du tager billeder af osv. ⁃ TN Editor

æble vil rapportere billeder af børneudnyttelse uploadet til iCloud i USA til retshåndhævelse, virksomheden sagde torsdag.

Det nye system vil registrere billeder kaldet børns seksuelt misbrugsmateriale (CSAM) ved hjælp af en proces kaldet hash, hvor billeder omdannes til unikke tal, der svarer til det billede.

Apple begyndte at teste systemet torsdag, men de fleste amerikanske iPhone -brugere vil ikke være en del af det, før en iOS 15 -opdatering senere på året, sagde Apple.

Flytningen bringer Apple på linje med andre cloud -tjenester, der allerede scanner brugerfiler, ofte ved hjælp af hash -systemer, for indhold, der overtræder deres servicevilkår, herunder billeder af børnebrug.

Det repræsenterer også en test for Apple, der siger, at dets system er mere privat for brugere end tidligere metoder til at fjerne ulovlige billeder af seksuelt misbrug af børn, fordi det bruger sofistikeret kryptografi på både Apples servere og brugerenheder og ikke scanner faktiske billeder, kun hash.

Men mange privatlivsfølsomme brugere rekylerer stadig fra software, der giver regeringer besked om indholdet på en enhed eller i skyen, og kan reagere negativt på denne meddelelse, især da Apple har forsvaret enheds kryptering kraftigt og opererer i lande med færre talebeskyttelse end OS

Lovhåndhævende myndigheder rundt om i verden har også presset Apple til at svække sin kryptering til iMessage og andre softwaretjenester som iCloud for at undersøge udnyttelse af børn eller terrorisme. Torsdagens meddelelse er en måde, hvorpå Apple kan løse nogle af disse spørgsmål uden at opgive nogle af dets tekniske principper omkring brugernes privatliv.

Sådan fungerer det

Inden et billede gemmes i Apples iCloud, matcher Apple billedets hash mod en database med hash, der leveres af National Center for Missing and Exploited Children (NCMEC). Denne database vil blive distribueret i iOS -koden, der begynder med en opdatering til iOS 15. Matchningsprocessen udføres på brugerens iPhone, ikke i skyen, sagde Apple.

Hvis Apple derefter registrerer et bestemt antal overtrædende filer på en iCloud -konto, uploader systemet en fil, der giver Apple mulighed for at dekryptere og se billederne på den konto. En person vil manuelt gennemgå billederne for at bekræfte, om der er et match eller ej.

Apple vil kun kunne gennemgå billeder, der matcher indhold, der allerede er kendt og rapporteret til disse databaser - det vil f.eks. Ikke kunne registrere forældres billeder af deres børn i badet, da disse billeder ikke vil være en del af NCMEC -databasen.

Hvis den person, der foretager den manuelle gennemgang, konkluderer, at systemet ikke lavede en fejl, deaktiverer Apple brugerens iCloud -konto og sender en rapport til NCMEC eller underretter lovhåndhævelse om nødvendigt. Brugere kan appellere til Apple, hvis de tror, ​​at deres konto blev markeret ved en fejl, sagde en Apple -repræsentant.

Systemet fungerer kun på billeder, der er uploadet til iCloud, som brugerne kan slukke, sagde Apple. Fotos eller andre billeder på en enhed, der ikke er uploadet til Apple -servere, er ikke en del af systemet.

Læs hele historien her ...

Om redaktøren

Patrick Wood
Patrick Wood er en førende og kritisk ekspert på bæredygtig udvikling, grøn økonomi, Agenda 21, 2030 Agenda og historisk teknokrati. Han er forfatter af Technocracy Rising: The Trojan Horse of Global Transformation (2015) og medforfatter til Trilaterals Over Washington, bind I og II (1978-1980) med afdøde Antony C. Sutton.
Tilmeld
Underretning af
gæst

6 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer
Jeremy lam

Godt. Det er på tide, at folk vågner op til, hvad der er foregået hele tiden. Den eneste ændring nu er, at de vil begynde at gå efter folk for at skabe præcedens. Men hvis du tror, ​​de ikke ved, hvad der er i dit icloud eller på din telefon, er du ikke særlig smart. De skabte tingen. Og jeg arbejdede inden for telekom, FYI. Jeg kunne bare gå op på næste etage og se serverrummet. På det tidspunkt ville FBI tilsyneladende komme derind ... fordi telefonerne var af en bestemt type, der angiveligt var meget nyttig for forhandlere og ikke for... Læs mere "

Last edited 2 years ago by Jeremy Lamb
Irene

Det bedste svar er at bruge en tredjeparts cloud storage, der ikke har interesse i dine private anliggender. De er derude, men du skal kigge efter dem. Du kan kryptere dit indhold med dem. Bare ved, at alt krypteret indhold ikke kan hentes af virksomheden, hvis du mister din adgangskode.

Jeremy lam

For at være ærlig, aner du ikke, hvem disse virksomheder er. Jeg har fundet ud af, ved at undersøge, at alle "privatliv" -virksomheder har en temmelig lyssky finansiering. Og det er uden undtagelse.

[…] Læs mere: Apple begynder at scanne alle personlige fotos og billeder, der er uploadet til iCloud [...]

biskop penster

Det er bedre ikke at tage billeder af babyer eller børn, der bader eller bruser…. Du er en pervers, hvis du gør det nu.

[…] Apple begynder at scanne alle personlige fotos og billeder, der er uploadet til iCloud […]