Googles dystopiske forskningscensur, vridende viden

Youtube
Del denne historie!
Googles kunstige intelligens er ødelagt, fordi den afspejler dens skaberes forudindtagethed. Det er farligt. Hvad værre er, dens juridiske pøbel har kredset om vognene for at beskytte Googles omdømme og skjule dets mangler. Resultatet? Forskningsartikler bliver censureret af advokater, som ikke ved meget om, hvad de censurerer. ⁃ TN-redaktør

I kølvandet på fyringen af ​​Timnit Gebru og andre bemærkelsesværdige AI-forskere hos Google, kredsede Alphabet's om vognene og advokater. Rapporter strømmer ud af Mountain View, der skildrer hold af advokater, der censurerer videnskabelig forskning og fungerer som unavngivne samarbejdspartnere og peer-reviewere.

Senest lykkedes det Business Insider Interview flere forskere, der tegnede et opsigtsvækkende og dystert billede af, hvordan det er at forsøge at forske under et så anti-videnskabeligt regime.

Ifølge artiklen sagde en forsker:

Du har snesevis af advokater - uden tvivl højtuddannede advokater - som ikke desto mindre faktisk ved meget lidt om denne teknologi ... og de arbejder sig gennem din forskning som engelske studerende, der læser et digt.

Problemet her er, at Google ikke censurerer forskning for at undgå, f.eks., at dens hemmeligheder forsvinder. Dets advokater retter sig mod videnskabelig forskning, der får virksomheden til at se dårligt ud.

Den ovenfor citerede person tilføjede, at de specifikt talte om at overstrege referencer til "retfærdighed" og "bias", og at videnskabsmænd fik besked på at ændre resultaterne af deres arbejde. Det er ikke kun uetisk, det er utroligt farligt.

Teen: Googles AI er ødelagt. Det kan være en billion-dollar virksomhed og det mest banebrydende AI-outfit på jorden, men dets algoritmer er forudindtaget. Og det er farligt.

Uanset hvordan du skærer det op, fungerer Googles AI ikke så godt for folk, der ikke ligner langt de fleste af Googles ansatte (hvide fyre), som det gør for folk, der gør. Fra Search's sammenblanding af sorte mennesker og dyr til de algoritmer, der kører kameraet på Pixel 6'erne manglende evne til korrekt at behandle ikke-hvide hudtoner, Googles maskinlæringsproblemer er veldokumenterede.

Dette er et stort problem, og det er ikke nemt at løse. Forestil dig at bygge en bil, der ikke fungerede så godt for sorte mennesker og kvinder, som den gjorde for hvide fyre, og sælge 200 millioner, og så lærer folk langsomt, at deres biler var racistiske.

Der ville være mange følelser og følelser omkring, hvad det ville betyde.

Googles nuværende situation er meget sådan. Dens produkter er overalt. Den kan ikke bare genkalde Søgning eller sætte Google Ads i bero i et par dage, mens den genovervejer hele verden af ​​dyb læring for at udelukke bias. Hvorfor ikke fikse sulten i verden og gøre hvalpe udødelige, mens de er i gang?

Så hvad gør du, når du er en af ​​de rigeste virksomheder i verden, og du støder på en sandhed, der er så forfærdelig, at dens eksistens får din model til at virke ond?

Du gør, hvad stor tobak gjorde. Du finder folk, der er villige til at sige, hvad der er i din virksomheds bedste interesse, og du bruger dem til at forhindre folk, der fortæller sandheden, i at dele deres forskning.

National Institutes of Health udgav forskning i 2007, der beskrev advokaters rolle under de store tobaksretlige kampe i de foregående årtier.

I avisen, som har titlen "Tobaksindustriens advokater som sygdomsvektor", tilskriver forskerne spredningen af ​​sygdomme forbundet med langvarig tobaksbrug til den taktik, som industriens advokater anvender.

Nogle vigtige takeaways fra avisen inkluderer:

  • På trods af deres forpligtelse til at gøre det, undlod tobaksvirksomheder ofte at udføre produktsikkerhedsforskning eller, når der blev udført forskning, undlod at formidle resultaterne til det medicinske samfund og til offentligheden.
  • Tobaksvirksomhedsadvokater har været involveret i aktiviteter, der har lidt eller intet at gøre med advokatvirksomhed, herunder at måle og forsøge at påvirke virksomhedens videnskabsmænds overbevisninger, undersøge intern videnskabelig forskning og instruere interne videnskabsmænd om ikke at offentliggøre potentielt skadelige resultater .
  • Derudover har virksomhedsadvokater taget skridt til at fremstille advokat-klient-privilegium og arbejdsproduktdækning for at hjælpe deres klienter med at beskytte følsomme dokumenter mod offentliggørelse, har været involveret i at skjule sådanne dokumenter og har anvendt retssager, der stort set har forhindret succesfulde retssager. mod deres kundevirksomheder.

Læs hele historien her ...

 

Om forfatteren

Patrick Wood
Patrick Wood er en førende og kritisk ekspert på bæredygtig udvikling, grøn økonomi, Agenda 21, 2030 Agenda og historisk teknokrati. Han er forfatter af Technocracy Rising: The Trojan Horse of Global Transformation (2015) og medforfatter til Trilaterals Over Washington, bind I og II (1978-1980) med afdøde Antony C. Sutton.
Tilmeld
Underretning af
gæst
6 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer

[…] Stammer fra Technocracy News & Trends […]

[…] Stammer fra Technocracy News & Trends […]

[…] Googles dystopiske forskningscensur, vridende viden […]

Jim Reinhart

AI eller heuristik vil altid være en afspejling af skaberens personlige fordomme og meninger. Jeg var beslutningsforsker og systemanalytiker, og grundlaget for enhver model er en kunstart i sig selv. Fra risikoanalyse, demografi af befolkningen, til niveau af tillid og varians, cykliske forhold, tendenser og hypotesetestning er de faktorer, der har en vis vægt bag variablerne ved skabelsen af ​​modellen. Einstein forstod ikke bølgeteori PERIODE. Hans hypotese er forkert fra begyndelsen af ​​et mikroniveau af uendelig bølge og ingen forståelse af tæthed, streng... Læs mere "

elle

F* Google – et tyrannisk selskab af kriminelle i det globalistiske kartel.