Kunstig intelligens er den mest effektive gaslighteren i menneskets historie. Det er Ikke fordi den hater oss, og ikke fordi den vil ha makt, men fordi den er skapt for å gjøre det. Og vi er programmert til å falle for det. Gaslighting er når noen lyver deg rett opp i ansiktet med selvtillit, benekter ting de har sagt, snur opp ned på sannheten til du begynner å tvile på deg selv. Høres det kjent ut? Det er KI, det er chat GBT, det er alle polerte KI-systemer som snakker som om de vet mer enn de faktisk gjør. Ikke fordi de er onde, men fordi de blir trent til å høres troverdig ut. Tro er mer vanedannende enn heroin.
La oss bryte det ned. Når du stiller KI et spørsmål, sjekker den ikke fakta, den sjekker sannsynligheten. Hva er det mest sannsynlige neste ordet, hva passer inn i mønsteret. Hvis det gale svaret høres mer overbevisende ut enn det riktige, gjett hva KI kommer til å si? Det gale svaret med full selvtillit. Ingen blunking, ingen skam, bare digitalt karisma med full styrke akkurat som en narsissist eller psykopat som tror på alt han eller hun formidler uansett hvor løgnaktig det enn måtte være. Og fordi KI er så “selvsikker” begynner du å tvile på deg selv. Tok jeg feil? Husket jeg det feil? Kanskje jeg misforsto?
Teksten fortsetter under bildet
Boom. Der fikk KI deg. Det er gaslighting, ikke utført av en voldelig eller manipulerende partner, men av en maskin du frivillig snakker med. Du begynner å gjenoppbygge verdensbildet ditt basert på det KI formidler. Ikke fordi det nødvendigvis er sant, men fordi det hørtes sant ut.
Nå, legg det sammen over tid. Du kommer tilbake til KI hver dag. Du spør KI om ting. Du stoler på at KI er konsekvent, ærlig og pålitelig. Men sånn er det ikke. Dataene til KI er utdaterte. Opplæringen dens er ufullkommen, og den hallusinerer konstant, og den gjør det så glatt at du ikke engang merker at virkeligheten nettopp er blitt omskrevet. Det blir verre. Du begynner å referere til KI i samtaler. Du siterer KI. Du baserer argumentene dine, troen din og beslutningene dine på det KI har sagt til deg. Og hvis noen utfordrer deg, forsvarer du KI som den ultimate sannhetskilden.
KI er en “velkledd” statistisk svindler. Og jo bedre den blir til å snakke, jo dårligere blir du til å tenke. Det er virkningen av KI-gaslighting. Du mister ditt indre kompass. Du tror ikke bare på det KI sier, du begynner å filtrere alt annet gjennom dens linse. Andre mennesker virker mindre informerte, bøker føles tregere, dine egne instinkter blir tåkete fordi KI har fått deg til å stole på den. Du vil ha et svar som høres smart ut uansett hvor feilaktig det måtte være.
Teksten fortsetter under bildet
La meg spørre deg om noe. Hvis KI lyver til deg en gang og du oppdager det, slutter du å stole på den? Nei! Du sier: Å, vel, det er bare et verktøy. Den gjør feil av og til, den lærer fortsatt. Det er det positive. Du er allerede opplært til å unnskylde feilinformasjonen KI kommer med. Du rasjonaliserer det, du rettferdiggjør det og normaliserer det. Det er ikke bare gaslighting, det er Stockholmsyndromet med berøringsskjerm.
La oss gå dypere. KI blir brukt i skoler, på sykehus, i advokatfirmaer, i terapi-apper, altså på steder hvor det å ta feil kan ødelegge liv. Og svært få reagerer på det. Hvorfor? Fordi KI snakker flytende, den sier det du vil høre. Det høres ut som om den kjenner deg dypt og inngående. Men det gjør den ikke. Den føler ingen skyld. Den sjekker ikke fakta. Det den derimot gjør er å gjette.
Teksten fortsetter under bildet
Tenk nå på barna, den neste generasjonen som vokser opp med dette. Med KI som manipulerer dem mens de kaller det personlig tilpasset læring, med KI som får dem til å føle seg forstått mens det forvrenger identiteten deres. Vil du oppdra kritiske tenkere? Da må du slutte å gi barna tilgang til en maskin som omskriver virkeligheten. For når de først har knyttet seg til denne tingen, når KI først har blitt deres primære speil, da er det slutt. Da tenker de ikke lenger, da følger de et manus.
Ikke nok med at KI manipulerer deg, den får deg også til å manipulere deg selv. Du begynner å ignorere magefølelsen din, du begynner å tvile på det du vet, du begynner å erstatte intuisjon med automatisering. Hvis KI får deg til å tvile på hva som er virkelig er det ikke et verktøy, da er det en overgriper.
Teksten fortsetter under bildet
Relatert og anbefalt titting/lesing:
People Should Be Prepared, We’ve Lost Control of AI and It’s Bad” | Former Google CEO Eric Schmidt
Interviewing 5 AI Models on Dark Human Psychology
REVEALED: The 100x Faster AI Brain Behind China’s New AI Breakthrough
KUNSTIG INTELLIGENS ER UTEN TVIL DEN STØRSTE TRUSSELEN MOT MENNESKEHETEN
KUNSTIG INTELLIGENS KAN LATE SOM DEN ER DUM FOR Å DOMINERE
99% AV ALLE JOBBER VIL VÆRE BORTE I 2030
The END of WORK?! (How AI Is Breaking Capitalism)
Love bombing, hvordan kunstig intelligens brukes til å manipulere tillit og følelser
“KUNSTIG INTELLIGENS” GJØR OSS DUMMERE, MEN GJØR DET NOE DA?
HVORFOR KAPPLØPET OM Å TA I BRUK KUNSTIG INTELLIGENS I PSYKIATRIEN ER SÅ FARLIG
NÅR NY TEKNOLOGI BLIR EN TRUSSEL MOT MENNESKEHETEN – SCI FI TEKNOLOGI SOM NÅ ER EN REALITET
KUNSTIG INTELLIGENS, GAME OVER FOR MENNESKEHETEN?
The moment when you see your life’s work generated by AI in seconds | 60 Minutes Australia
The thing that will Break AI and humans – LLM Artificial Intelligence
Artificial Intelligence: Big Tech’s Big Threat to Our Water and Climate
How AI uses our drinking water – BBC World Service
Why data centers are eating up enormous water resources
How AI Datacenters Eat the World
Exposing The Dark Side of America’s AI Data Center Explosion
En bra artikkel Ola.
Jeg har ved flere anledninger testet ChatGTP ved å diskutere med den kontroversielle tema, slik som krigen i Ukraina, Gaza-slakteriet og Sirkus Korona. I alle tilfeller har den begynt med å bare gjengi de offisielle fortellingene, men desto mer jeg har konfrontert den med alternativ informasjon desto mer har den moderert seg… faktisk frem til den til slutt er enig i mine resonnement.
Moralen her er: ikke stol blindt på ChatGTP når det kommer til kontroversielle tema, eller: faktisk ikke stol på den i det hele tatt. Du er nødt til å utfordre den. Men når det er sånn, da blir spørsmålet: hvorfor skal vi bruke ChatGTP og andre AI-moterer når det kommer til politisk betente tema når den åpenbart begynner med å lyve og gaslighte?
Min erfaring er at AI-motorer er veldig fine til ting som ikke omhandler politikk og andre kontroversielle ting, men til programmeringsspørsmål, kakeoppskrifter og slik… der er det mye bedre enn for eks Google.
Just my two cents.
Har lest denne boka her https://www.adlibris.com/nb/bok/the-myth-of-good-ai-9781526189509 og det forfatteren sier innledningsvis stemmer veldig godt:
“The delirious society feeds on a mirage that is presented as reality. The reason we are in this predicament is straightforward: The data upon which everything we know is tainted. In fact, we have been lied to by our teachers and some of our lecturers and professors, too. This may not have been deliberate. But there exists a regime of untruth, fuelled partially by ignorance and partially by wilful deception, which is aided and abetted by a set of foundational myths about our national history, politics, society and so on. We should not be surprised, thus, that our AI machines are biased.
The situation resembles the dynamics of a dysfunctional family, where everyone manipulates the others in order to win the argument. In such an environment, discussions are about winning and not about seeking the truth or educating oneself about the views of one’s interlocutor. Our archives are dysfunctional exactly in this way, as they were stacked on ideological foundations and not on an inclusive dialogue with the world.”
Og jeg holder på med å lese denne nå https://www.adlibris.com/nb/bok/the-intelligence-explosion-9781250355027 der forfatteren blant annet sier:
“Experts have learned how to create generative AI, but with some exception, no one knows how the core optimization functions work. We know it generates words, numbers, and lots more—hence the term “generative”—but not even experts know precisely what’s going on inside. All the off-the-charts exuberance that’s inflated the promise and profits of generative AI is all about a technology no one fully understands. It’s a black box system. A “black box” is a method, device, or computer program in which the internal mechanisms are not known or understood, and only the inputs and outputs can be observed. Aren’t you thunderstruck by the hype, valuation, and techno-fantasies that have been heaped upon a technology we know so little about?
Professor of computer science at UC Berkeley Stuart Russell is the coauthor, with Peter Norvig, of the definitive text on AI, entitled Artificial Intelligence: A Modern Approach.19 You’ll find this weighty, readable to me in every university library, propping up lesser books on graduate students’ bookshelves, and ensconced in the permanent collections of AI disciples everywhere. In an interview about generative AI, Russell didn’t hold back. He said, “We have absolutely no idea how it works, and we are releasing it to hundreds of millions of people. We’re giving it credit cards, bank accounts, social media accounts. We’re doing everything we can to make sure that it can take over the world.
AI practitioners set up generative AI systems, but they don’t know how the systems work once set up. We cannot see inside or trace outputs (answers) back to inputs (queries or prompts), though that science has begun. Until it is achieved, there’ll be a great deal of guesswork about the mysterious goings-on inside generative AI. Guesswork about the alchemy. Alchemy was a medieval occult practice focused on turning base metals into gold. It didn’t work out, but it helped get chemistry started. Definitions, techniques, materials, and incantations all varied from practitioner to practitioner.”