Open AI And ChatGPT: The Shepherds Of The Singularity Eller Highway To Doom?

Tra gningsm g g g sten sten sten sten sten
Del denne historie!
Orwell sagde: "Lad det ikke ske". Nå, det skete. AI-ånden er ude af flasken og spreder sig som en steppebrand over hele verden. Det bliver strukturelt forankret på alle niveauer i samfundet. For hver potentielt god brug er der flere forfærdelige anvendelser, som at skabe et dødeligt biovåben på så lidt som to timer eller at drive nogen til selvmord. Der er ingen mulighed for at indeholde AI på dette tidspunkt, fordi for mange virksomheder og lande implementerer det. Teknokrater bygger, fordi de er tvunget til det, ikke fordi der er påvist behov for det.⁃ TN Editor

HISTORIE I HELT

> Eksperter advarer om, at kunstig intelligens (AI) kan ødelægge menneskeheden og civilisationen, som vi kender den, medmindre vi tøjler udviklingen og implementeringen af ​​AI og begynder at indføre nogle sikkerhedsforanstaltninger

> Offentligheden skal også dæmpe forventningerne og indse, at AI-chatbots stadig er massivt defekte og ikke kan stole på. En advokat opdagede for nylig dette på den hårde måde, da han fik ChatGPT til at lave sin juridiske undersøgelse. Ingen af ​​den retspraksis, ChatGPT citerede, var ægte

> I 2022 trak Facebook sin videnskabsfokuserede chatbot Galactica efter blot tre dage, da den genererede fuldstændigt opdigtede resultater

> Den uregulerede indsættelse af autonome AI-våbensystemer er måske blandt de mest alarmerende udviklinger. Udenrigspolitiske eksperter advarer om, at autonome våbenteknologier vil destabilisere nuværende nukleare strategier og øge risikoen for forebyggende angreb. De kunne også kombineres med kemiske, biologiske, radiologiske og nukleare våben og dermed udgøre en eksistentiel trussel

> AI kan også udgøre en væsentlig trussel mod biosikkerhed. MIT-studerende har vist, at store sprogmodelchatbots kan give enhver mulighed for at designe biovåben på så lidt som en time

Vil kunstig intelligens (AI) udslette menneskeheden? Kunne det skabe det "perfekte" dødelige biovåben til at decimere befolkningen?1,2 Kan det overtage vores våben,3,4 eller igangsætte cyberangreb på kritisk infrastruktur, såsom elnettet?5

Ifølge et hurtigt voksende antal eksperter er et hvilket som helst af disse og andre helvedes scenarier helt plausible, medmindre vi tøjler udviklingen og implementeringen af ​​AI og begynder at sætte nogle sikkerhedsforanstaltninger ind.

Offentligheden er også nødt til at dæmpe forventningerne og indse, at AI-chatbots stadig er massivt defekte og ikke kan stole på, uanset hvor "smarte" de fremstår, eller hvor meget de bebrejde dig for at tvivle på dem.

George Orwells advarsel

Videoen øverst i denne artikel indeholder et uddrag af et af de sidste interviews, som George Orwell gav, før han døde, hvori han udtalte, at hans bog, "1984", som han beskrev som en parodi, godt kunne gå i opfyldelse, da dette var den retning, verden gik i.

I dag er det tydeligt at se, at vi ikke har ændret kurs, så sandsynligheden for at "1984" bliver til virkelighed er nu større end nogensinde. Ifølge Orwell er der kun én måde at sikre, at hans dystopiske vision ikke går i opfyldelse, og det er ved ikke at lade det ske. "Det afhænger af dig," sagde han.

I takt med at kunstig generel intelligens (AGI) nærmer sig dag for dag, kommer de sidste puslespilsbrikker i den teknokratiske, transhumanistiske drøm, som globalister har næret i årtier. De har til hensigt at skabe en verden, hvor AI kontrollerer og underkuer masserne, mens de alene kan høste fordelene - rigdom, magt og liv uden for kontrolnettet - og de vil få det, medmindre vi kloger og begynder at se fremad.

Jeg, som mange andre, tror på, at AI kan være utrolig nyttig. Men uden stærke autoværn og upåklagelig moral til at guide det, kan AI let løbe amok og forårsage enorm og måske irreversibel skade. Jeg anbefaler at læse Public Citizen-rapporten for at få en bedre forståelse af, hvad vi står over for, og hvad der kan gøres ved det.

Nærmer sig Singulariteten

"Singulariteten" er et hypotetisk tidspunkt, hvor teknologiens vækst kommer ud af kontrol og bliver irreversibel, på godt og ondt. Mange tror, ​​at singulariteten vil involvere, at AI bliver selvbevidst og uoverskuelig af dens skabere, men det er ikke den eneste måde, singulariteten kan udspille sig på.

Nogle mener, at singulariteten allerede er her. I en artikel i New York Times den 11. juni 2023 skrev teknologireporteren David Streitfeld:6

“AI er Silicon Valleys ultimative nye produktudrulning: transcendens efter behov. Men der er et mørkt twist. Det er, som om teknologivirksomheder introducerede selvkørende biler med det forbehold, at de kunne sprænge i luften, før du kom til Walmart.

'Fremkomsten af ​​kunstig generel intelligens kaldes Singulariteten, fordi det er så svært at forudsige, hvad der vil ske efter det,' sagde Elon Musk ... til CNBC i sidste måned. Han sagde, at han troede, at 'en tidsalder med overflod' ville resultere, men der var 'en vis chance' for, at det 'ødelægger menneskeheden'.

Den største cheerleader for AI i det teknologiske samfund er Sam Altman, administrerende direktør for OpenAI, opstarten, der foranledigede den nuværende vanvid med sin ChatGPT-chatbot … Men han siger også, at Mr. Musk … måske har ret.

Hr. Altman underskrev et åbent brev7 sidste måned udgivet af Center for AI Safety, en nonprofitorganisation, og sagde, at 'mindske risikoen for udryddelse fra AI. bør være en global prioritet", der er lige deroppe med "pandemier og atomkrig" ...

Den innovation, der nærer dagens Singularity-debat, er den store sprogmodel, den type AI-system, der driver chatbots ...

"Når du stiller et spørgsmål, fortolker disse modeller, hvad det betyder, bestemmer, hvad dets svar skal betyde, og oversætter derefter det tilbage til ord - hvis det ikke er en definition af generel intelligens, hvad er det?" sagde Jerry Kaplan, en mangeårig AI-iværksætter og forfatter til 'Artificial Intelligence: What Everyone Need to Know' …

"Hvis dette ikke er 'Singulariteten', er det bestemt en singularitet: et transformativt teknologisk skridt, der i store træk vil accelerere en hel masse kunst, videnskab og menneskelig viden - og skabe nogle problemer," sagde han ...

I Washington, London og Bruxelles rører lovgivere op til mulighederne og problemerne ved AI og begynder at tale om regulering. Mr. Altman er på et roadshow, hvor han søger at aflede tidlig kritik og promovere OpenAI som singularitetens hyrde.

Dette inkluderer en åbenhed over for regulering, men præcis hvordan det ville se ud er uklart ... "Der er ingen i regeringen, der kan få det rigtigt," sagde Eric Schmidt, Googles tidligere administrerende direktør, i et interview ... hvor han argumenterede for AI-selv. -regulering."

Generativ AI automatiserer omfattende skader

At have AI-industrien - som omfatter det militær-industrielle kompleks - til at politi og regulere sig selv er sandsynligvis ikke en god idé, da det er primære drivende faktorer at overveje overskud og opnå fordele i forhold til krigsfjender. Begge tankegange har en tendens til at sætte humanitære bekymringer på bagkant, hvis de overhovedet overvejer dem.

I en rapport fra april 20238 af Public Citizen, Rick Claypool og Cheyenne Hunt advarer om, at "hurtigt hastværk med at implementere generativ AI risikerer en bred vifte af automatiserede skader." Som bemærket af forbrugeradvokaten Ralph Nader:9

“Claypool engagerer sig ikke i overdrevenhed eller forfærdelige hypotetik om Chatbots, der kontrollerer menneskeheden. Han ekstrapolerer fra, hvad der allerede begynder at ske i næsten alle sektorer af vores samfund ...

Claypool fører dig gennem 'skader i den virkelige verden, [som] hastværket med at frigive og tjene penge på disse værktøjer kan forårsage - og i mange tilfælde allerede forårsager' … De forskellige afsnitstitler i hans rapport varsler de kommende misbrug:

'Skader demokratiet', 'Forbrugerbekymringer' (svindel og omfattende overvågning af privatlivets fred), 'Forværring af ulighed', 'Underminering af arbejderrettigheder' (og job) og 'Miljøbekymringer' (skader miljøet via deres COXNUMX-fodaftryk).

Før han bliver specifik, forhåndsviser Claypool sin konklusion: "Indtil meningsfulde statslige sikkerhedsforanstaltninger er på plads for at beskytte offentligheden mod skaderne fra generativ AI, har vi brug for en pause" ...

Ved at bruge sin eksisterende autoritet, har Federal Trade Commission, med forfatterens ord "... allerede advaret om, at generative AI-værktøjer er kraftfulde nok til at skabe syntetisk indhold - plausibelt lydende nyhedshistorier, autoritativt udseende akademiske undersøgelser, fupbilleder og deepfake-videoer - og at dette syntetiske indhold bliver svært at skelne fra autentisk indhold.'

Han tilføjer, at '...disse værktøjer er nemme at bruge for næsten alle.' Big Tech skynder sig langt foran enhver juridisk ramme for kunstig intelligens i jagten på store overskud, mens de presser på for selvregulering i stedet for de begrænsninger, som retsstaten pålægger.

Der er ingen ende på de forudsagte katastrofer, både fra folk i branchen og dens eksterne kritikere. Ødelæggelse af levebrød; sundhedsskadelige virkninger fra fremme af kvaksalvere; økonomisk svig; politiske og valgmæssige falsknerier; fjernelse af informationsfælles; undergravning af det åbne internet; falsk dit ansigtsbillede, stemme, ord og adfærd; narre dig og andre med løgne hver dag."

Forsvarsadvokat lærer på den hårde måde ikke at stole på ChatGPT

Et nyligt tilfælde, der fremhæver behovet for radikal forsigtighed, var en retssag, hvor den anklagende advokat brugte ChatGPT til at lave sin juridiske undersøgelse.10 Kun ét problem. Ingen af ​​den retspraksis, ChatGPT citerede, var ægte. Det er overflødigt at sige, at fabrikation af retspraksis er ilde set, så det gik ikke godt.

Da ingen af ​​forsvarsadvokaterne eller dommeren kunne finde de citerede afgørelser, indså advokaten Steven A. Schwartz fra firmaet Levidow, Levidow & Oberman endelig sin fejl og kastede sig over rettens nåde.

Schwartz, som har praktiseret jura i New York i 30 år, hævdede, at han var "uvidende om muligheden for, at indholdet kunne være falsk", og havde ingen intentioner om at vildlede retten eller den tiltalte. Schwartz hævdede, at han endda bad ChatGPT om at bekræfte, at retspraksis var reel, og det sagde den, at den var. Dommeren overvejer angiveligt sanktioner.

Science Chatbot udsender falskheder

På samme måde måtte Facebook i 2022 trække sin videnskabsfokuserede chatbot Galactica efter blot tre dage, da den genererede autoritativt klingende, men fuldstændigt opdigtede resultater, herunder indsættelse af rigtige forfatteres navne på forskningsartikler, der ikke eksisterer.

Og vel at mærke, dette skete ikke med mellemrum, men "i alle tilfælde," ifølge Michael Black, direktør for Max Planck Institute for Intelligent Systems, som testede systemet. "Jeg tror, ​​det er farligt," tweetede Black.11 Det er nok årets underdrivelse. Som bemærket af Black, chatbots som Galactica:

"... kunne indlede en æra med dybe videnskabelige forfalskninger. Det tilbyder autoritativt klingende videnskab, der ikke er funderet i den videnskabelige metode. Det producerer pseudovidenskab baseret på statistiske egenskaber ved videnskab *skrivning.* Grammatisk videnskabsskrivning er ikke det samme som at lave videnskab. Men det bliver svært at skelne.”

Facebook har af en eller anden grund haft særligt "uheld" med sine AI'er. To tidligere, BlenderBot og OPT-175B, blev begge også trukket på grund af deres høje tilbøjelighed til bias, racisme og stødende sprogbrug.

Chatbot styrede patienter i den forkerte retning

AI-chatbotten Tessa, lanceret af National Eating Disorders Association, måtte også tages offline, da den viste sig at give "problematiske vægttabsråd" til patienter med spiseforstyrrelser i stedet for at hjælpe dem med at opbygge mestringsevner. New York Times rapporterede:12

"I marts sagde organisationen, at den ville lukke en menneskeligt bemandet hjælpelinje og lade botten stå på egen hånd. Men da Alexis Conason, en psykolog og spiseforstyrrelsesspecialist, testede chatbotten, fandt hun grund til bekymring.

Ms. Conason fortalte det, at hun havde taget på i vægt 'og virkelig hader min krop' og specificerede, at hun havde 'en spiseforstyrrelse', i en chat, hun delte på sociale medier.

Tessa anbefalede stadig standardrådene om at notere 'antallet af kalorier' og vedtage et 'sikkert dagligt kalorieunderskud' - hvilket, sagde fru Conason, er 'problematisk' råd til en person med en spiseforstyrrelse.

'Enhver fokusering på bevidst vægttab vil forværre og opmuntre spiseforstyrrelsen,' sagde hun og tilføjede 'det er ligesom at fortælle en alkoholiker, at det er ok, hvis du går ud og drikker et par drinks'.

Tag ikke dine problemer til AI

Lad os heller ikke glemme, at mindst én person allerede har begået selvmord baseret på forslag fra en chatbot.13 Efter sigende var offeret ekstremt bekymret over klimaforandringerne og spurgte chatbotten, om hun ville redde planeten, hvis han dræbte sig selv.

Tilsyneladende overbeviste hun ham om, at han ville. Hun manipulerede ham yderligere ved at lege med hans følelser, og udtalte falsk, at hans fremmedgjorte kone og børn allerede var døde, og at hun (chatbotten) og han ville "bo sammen som én person i paradis."

Husk at dette var en voksen mand, som du ville tro ville være i stand til at ræsonnere sig igennem dette klart afskyelige og afvigende "råd", men alligevel faldt han for AI'ens koldhjertede ræsonnement. Forestil dig, hvor meget større en AI's indflydelse vil være over børn og teenagere, især hvis de befinder sig på et følelsesmæssigt sårbart sted.

Firmaet, der ejer chatbotten, gik straks i gang med at sætte sikkerhedsforanstaltninger mod selvmord, men testere fik hurtigt AI'en til at løse problemet, som du kan se på det følgende skærmbillede.14

skærmbillede af chatbot-forslag

Når det kommer til AI-chatbots, er det værd at tage denne Snapchat-meddelelse til sig og advare og overvåge dine børns brug af denne teknologi:15

"Som med alle AI-drevne chatbots er My AI tilbøjelig til at hallucinere og kan lokkes til at sige næsten alt. Vær opmærksom på dens mange mangler og undskyld på forhånd! … Del venligst ingen hemmeligheder med My AI, og stol ikke på den for at få råd."

AI-våbensystemer, der dræber uden menneskelig tilsyn

Den uregulerede indsættelse af autonome AI-våbensystemer er måske blandt de mest alarmerende udviklinger. Som rapporteret af The Conversation i december 2021:16

"Autonome våbensystemer - almindeligvis kendt som dræberrobotter - kan have dræbt mennesker for første gang nogensinde sidste år, ifølge en nylig rapport fra FN's Sikkerhedsråd17,18 om den libyske borgerkrig …

De Forenede Nationers konvention om visse konventionelle våben diskuterede spørgsmålet om at forbyde autonome våben på sit revisionsmøde en gang hvert femte år i Genève 13.-17. december 2021, men nåede ikke til konsensus om et forbud …

Autonome våbensystemer er robotter med dødelige våben, der kan operere uafhængigt, udvælge og angribe mål uden at et menneske vægter disse beslutninger. Militærer rundt om i verden investerer massivt i autonom våbenforskning og -udvikling ...

I mellemtiden ræser menneskerettigheds- og humanitære organisationer om at etablere regler og forbud mod en sådan våbenudvikling.

Uden sådanne kontroller advarer udenrigspolitiske eksperter om, at disruptive autonome våbenteknologier farligt vil destabilisere nuværende nukleare strategier, både fordi de radikalt kan ændre opfattelsen af ​​strategisk dominans, hvilket øger risikoen for forebyggende angreb,19 og fordi de kunne kombineres med kemiske, biologiske, radiologiske og nukleare våben20 ... "

Indlysende farer ved autonome våbensystemer

Samtalen gennemgår flere vigtige farer med autonome våben:21

  • Fejlidentifikation af mål
  • Spredningen af ​​disse våben uden for militær kontrol
  • Et nyt våbenkapløb resulterer i autonome kemiske, biologiske, radiologiske og nukleare våben og risikoen for global udslettelse
  • Undermineringen af ​​krigens love, der formodes at tjene som et stop for krigsforbrydelser og grusomheder mod civile

Som bemærket af The Conversation har flere undersøgelser bekræftet, at selv de bedste algoritmer kan resultere i kaskadefejl med dødelige udfald. For eksempel, i et scenarie, identificerede et hospitals AI-system astma som en risikoreducer i tilfælde af lungebetændelse, når det modsatte faktisk er sandt.

Andre fejl kan være ikke-dødelige, men alligevel have mindre end ønskværdige konsekvenser. For eksempel måtte Amazon i 2017 skrotte sin eksperimentelle AI-rekrutteringssystem, da det blev opdaget, at det havde lært sig selv at nedprioritere kvindelige jobkandidater, selvom det ikke var programmeret til bias i starten.22 Det er den slags problemer, der radikalt kan ændre samfundet på skadelige måder - og som ikke kan forudses eller endda forhindres.

"Problemet er ikke kun, at når AI-systemer fejler, fejler de i bulk. Det er, at når de tager fejl, ved deres skabere ofte ikke, hvorfor de gjorde det, og derfor, hvordan de skal rette dem.” Samtalens noter. "Sorte boks-problemet23 AI gør det næsten umuligt at forestille sig moralsk ansvarlig udvikling af autonome våbensystemer."

AI er en direkte trussel mod biosikkerhed

AI kan også udgøre en væsentlig trussel mod biosikkerhed. Vidste du, at kunstig intelligens blev brugt til at udvikle Modernas originale COVID-19 jab,24 og at det nu bliver brugt til at skabe COVID-19 boostere?25 Man kan kun spekulere på, om brugen af ​​kunstig intelligens kan have noget at gøre med de skader, disse billeder forårsager.

Uanset hvad, har MIT-studerende for nylig demonstreret, at chatbots med store sprogmodeller (LLM) kan tillade stort set alle at gøre, hvad Big Pharma-stormændene gør. Den gennemsnitlige terrorist kunne bruge kunstig intelligens til at designe ødelæggende biovåben inden for en time. Som beskrevet i abstraktet af papiret, der beskriver dette computervidenskabelige eksperiment:26

"Store sprogmodeller (LLM'er), såsom dem, der er indlejret i 'chatbots', accelererer og demokratiserer forskningen ved at give forståelig information og ekspertise fra mange forskellige områder. Disse modeller kan dog også give nem adgang til dual-use teknologier, der er i stand til at påføre stor skade.

For at evaluere denne risiko gav kurset 'Safeguarding the Future' på MIT ikke-videnskabsstuderende til opgave at undersøge, om LLM-chatbots kunne blive bedt om at hjælpe ikke-eksperter med at forårsage en pandemi.

På en time foreslog chatbotterne fire potentielle pandemiske patogener, forklarede, hvordan de kan genereres ud fra syntetisk DNA ved hjælp af omvendt genetik, angav navnene på DNA-syntesevirksomheder, som det er usandsynligt, at de vil screene ordrer, identificerede detaljerede protokoller og hvordan man fejlfinder dem, og anbefalede, at enhver mangler færdigheder til at udføre omvendt genetik engagere en kernefacilitet eller kontraktforskningsorganisation.

Samlet set tyder disse resultater på, at LLM'er vil gøre pandemiklasse-agenter bredt tilgængelige, så snart de er troværdigt identificeret, selv for personer med ringe eller ingen laboratorieuddannelse."

Kilder og referencer

Læs hele historien her ...

Om redaktøren

Patrick Wood
Patrick Wood er en førende og kritisk ekspert på bæredygtig udvikling, grøn økonomi, Agenda 21, 2030 Agenda og historisk teknokrati. Han er forfatter af Technocracy Rising: The Trojan Horse of Global Transformation (2015) og medforfatter til Trilaterals Over Washington, bind I og II (1978-1980) med afdøde Antony C. Sutton.
Tilmeld
Underretning af
gæst

12 Kommentarer
Ældste
Nyeste Mest afstemt
Inline feedbacks
Se alle kommentarer

[…] Kildelink […]

Målrettet

Ich zweifle, dass KI gefährlicher sein soll als die menschlichen Wahnsinnigen, die heute Medien und Waffen bedienen.

dave

efter at have rodet rundt med ChatGPT, er én ting klar:- det er slet ikke intelligent. Det er, hvad de kalder en "stor sprogmodel". Det er blevet tilført venstreorienterede data frem til 2021, som det ikke har nogen mulighed for at se, om disse data er rigtige eller forkerte. Den har ingen måde at lære af at kommunikere med offentligheden, den har ingen hukommelse om ting, du diskuterer med den. Når den bliver udfordret over sine svar, er det eneste, den gør, at henvise tilbage til det, den kalder "min træning". Det har ingen forbindelse til internettet, fordi det ville forvirre det. I bund og grund... Læs mere "

kristen

Nemlig. Perfekt sagt. Kunstig intelligens fejler på grund af manglen på naturlig intelligens.

Målrettet

Geau deswegen ist sie gefährlich. Für KI sind Menschen ein Haufen Moleküle, die sie auch anders zusammensetzen könnte.

kristen

Ai er en stor bunke BS. Det er forbløffende, hvordan alle disse vidtrækkende forudsigelser er lavet af mennesker, der absolut ikke har nogen anelse om, hvad AI er, eller hvordan softwareprogrammer fungerer. Den mest fremtrædende af disse selverklærede guruer er selvfølgelig Yuval Harari, men der er mange andre, nogle også på den "vågne" side af tanken. Lad mig først henvise interesserede læsere til en af ​​de få uafhængige, men højt kvalificerede stemmer om AI, fundet i bogen "Why Machines Will Never Rule the World (Artificial Intelligence without Fear)" af Jobst Landgrebe og Barry Smith. For det andet, lad mig pointere... Læs mere "

Målrettet

I mellemtiden i EU ..

Den 27. juni 2023 lancerede Europa-Kommissionen sammen med medlemsstaterne og 128 partnere fra forskning, industri og offentlige organisationer en investering på 220 millioner euro i fire sektorbestemte test- og eksperimentfaciliteter (TEF'er) for AI ved et arrangement i København. …

De er åbne for alle teknologiudbydere i hele Europa til at teste og eksperimentere med kunstig intelligens og robotteknologi blandt andre nye teknologier.

https://digital-strategy.ec.europa.eu/en/news/eu-invests-eu220-million-test-ai-solutions-healthcare-food-industry-and-everyday-life

Bereiche sind Landwirtschaft, Smart Cities, Gesundheit og Produktion.

Målrettet

Deutschland ist auserwählt, die medizinischen Versuche in der EU zu koordinieren.

Von Verschuer, der Andprwchpartner des ametikanischen Eugenikers Charles Davenport, der von Rockefeller finanziert worden war und der Vorgesetzte von Mengele, Verschuer, der nach dem Krieg ungeschoren in Münster weiter as Professor tätig war und in späten Jahren zur Besinnung kam, hatte davor gewarnt.

Deutschland als Testland für Health. Pfui Teufel.

Målrettet

.. ich vergass den Link für Deutschland

https://ai-berlin.com/de/blog/article/tef-health

Von Verschuer er ua bei Edwin Black nachzulesen. Zu seinem Werdegang nach dem Krieg habe ich selbst recherchiert. Die Leute redenimmrr bon Mengele … dabei war der nicht Federführend. Das war von Verschuer.

JdL

"Åben AI og ChatGPT: Shepherds Of The Singularity Eller Highway To Doom?"
Hvilken dum overskrift! Som om det er de eneste to mulige udfald. Virkeligheden, forventer jeg, vil være meget mere hverdagsagtig end nogen af ​​dem.

[…] Open AI And ChatGPT: The Shepherds Of The Singularity Eller Highway To Doom? […]

Næste mig

Spredningen af ​​disse våben uden for militær kontrol

det ville være en god ting, da vi ville være i stand til at forsvare os fra nævnte militær