“Når det gjelder kunstig intelligens (AI), så er vi mennesker som små barn som leker med en bombe. Vi vet ikke når bomben vil eksplodere, men hvis vi holder den inntil øret, kan vi høre en svak tikkende lyd. Det mest fornuftige for et barn med en udetonert bombe mellom hendene vil være å legge den fra seg forsiktig, gå raskt ut av rommet der bomben er og tilkalle en voksen. Men i dette tilfellet snakker vi ikke om bare et barn men mange, hver med tilgang til en uavhengig utløsermekanisme. Sjansene for at de alle er så fornuftige å legger fra seg den livsfarlige innretningen er så og si ikke eksisterende. Noen av de små idiotene vil garantert trykke på utløserknappen for å se hva som skjer.”
Nick Bostrom fra etterordet i hans bok – Superintelligence: Paths, Dangers, Strategies https://www.adlibris.com/no/bok/superintelligence-paths-dangers-strategies-9780198739838
“Fullt ut autonome våpen, som er i stand til å velge ut mål og angripe dem uten menneskelig inngripen eller oppsyn, eksisterer ennå ikke. Dette er likevel et scenario vi bør ta på alvor. Militærteknologien preges av en stadig økende grad av automatisering. Man regner med at fullt ut autonome våpen vil kunne være i bruk i kort tid etter 2030.
Den teknologiske utviklingen er uansett ofte raskere enn vår evne til å reflektere grundig over utfordringene som skapes. Dette gjelder for eksempel bioteknologi, der muligheten for kloning og bruk av surrogatmødre nå reiser vanskelige etiske og juridiske problemstillinger. Men det gjelder i høyeste grad også militærteknologi.
I følge en rapport fra Royal Society er en tredjedel av all forskning på verdensbasis viet til militærteknologisk utvikling. En enorm mengde ressurser brukes til å utvikle nye og mer effektive måter å ta liv på. I dette perspektivet er fremveksten av autonome våpensystemer bare en av mange nye våpenkategorier. Det er likevel ikke vanskelig å se hvordan autonome våpensystemer kan oppleves som spesielt urovekkende og problematisk.
Noe av ubehaget ved autonome våpen er knyttet til frykten for at mennesker mister kontroll over sine egne maskiner, spesielt hvis – eller når – maskiner får evnen til å reprogrammere og forbedre seg selv. Denne problemstillingen, som er velkjent fra science fiction, er etter hvert blitt noe forskere tar på alvor. I desember 2015 annonserte Cambridge University at de ville opprette et nytt senter som skal forske på <<kunstig intelligens og menneskenes framtid.>> Denne problemstillingen ligger imidlertid et stykke inn i fremtiden og er ikke begrenset til våpensystemer.
Andre problemstillinger mer nærliggende, og noen av disse har allerede dukket opp i den omfattende og opphetede debatten om bruk av militære droner. Hverken droner eller autonome våpen utsetter egne soldater for fare. Begge våpentyper innebærer derfor en utfordring til tradisjonelle måter å tenke på krig og soldaters rolle i krigen.
Det er ikke åpenbart hvilken rolle tradisjonelle krigerdyder, som for eksempel mot, vil spille hvis mye av krigføringen vil skje ved hjelp av autonome våpen. Ambisjonen om å minimere risiko for egne soldater er imidlertid ikke ny. Den militærteknologiske utviklingen – fra spydet til langdistanseraketter – har alltid vært drevet frem av ønsket om å minimere risiko for egne soldater.
Også kritikken av at nye våpen truer måten kriger bør utkjempes på, har gamle aner. Bruk av buer og armbrøst var i sin tid betraktet som umoralsk og uridderlig og ble fordømt av det andre Laterankonsil i 1139, Miguel de Cervantes mente at artilleri var en djevelsk oppfinnelse, som tillot en feiging å ta livet av den tapreste kriger. Men krigføring uten risiko for egne soldaters liv kan også medføre mer alvorlige problemer. Flere har uttrykt en bekymring for at terskelen for å gå til krig senkes fordi egne soldater ikke utsettes for fare.”
Eye in the Sky Official Trailer #1 (2016) Aaron Paul, Helen Mirren Thriller Movie HD
Dette kan også forstås som et demokratisk problem: Når man ikke lenger opplever egne tap, og når egne soldater ikke lenger kommer hjem for å fortelle hvordan krigen utspiller seg, kan dette bidra til en større avstand til krigens virkelighet og svekke den offentlige debatten. Det oppstår en fare for at krigføringen blir en teknologisk affære, løsrevet fra det samfunnet som sender autonome våpen til krigssoner.
Michael Ignatieffs spørsmål fra 2000 er aktuelt i dag og vil bli stadig mer aktuelt i framtiden. <<If war becomes unreal to the citizens of modern democracies, will they care enough to control and restrain the violence in its name ?>> (Ignatieff 2000). Vi kan skille mellom forskjellige typer problemer knyttet til autonome våpen. Noen av disse er juridiske: I hvilken grad vil bruk av autonome våpen være i strid med krigens folkerett ? Andre er sikkerhetspolitiske: Hvilke konsekvenser vil autonome våpen ha for stabiliteten og konfliktnivået stater imellom ?
Autonome våpen reiser også viktige etiske problemstillinger. Det er ikke åpenbart for alle at det gir mening å snakke om etikk i forbindelse med krigføring. Pasifister mener at krig alltid er galt. Politiske realister hevder gjerne at moralske regler hverken kan eller skal appliseres på krig: Staters egeninteresse er, og bør være, det som regulerer krigføring. For mange er det imidlertid åpenbart at krig i visse tilfeller kan rettferdiggjøres fra et etisk perspektiv, så lenge visse kriterier oppfylles Dette etiske rammeverket for regulering kalles rettferdig krig-tradisjonen.
Vi kan grovt sett skille mellom to typer etiske problemstillinger forbundet med autonome våpen: Noen problemer hviler på empiriske forutsetninger, som for eksempel faren for at våpensystemene misbrukes eller skepsis til at de vil få den teknologiske kapasiteten til å skille mellom sivile og stridende. Andre problemer er av en mer prinsipiell art: Er det i seg selv galt at autonome maskiner tar <<beslutninger>> om liv og død ? Hvem skal holdes ansvarlig når autonome våpen gjør feil ?
Flere har argumentert for at det kan oppstå et ansvarsgap når disse våpnene tar livet av uskyldige. Har de etterlatte krav på at noen holdes ansvarlig i slike situasjoner ? Og hvem bør i så fall stilles til ansvar – politikere, produsenter, eller offiseren som leder angrepet ? Mange vil også mene at det er noe spesielt problematisk problematisk med autonome våpensystemer som selv har evnen til å velge ut mål og angripe dem.
Det kan virke som om bruk av autonome våpen innebærer at beslutningen om å ta liv overlates til maskiner. Det er imidlertid ikke åpenbart at dette er tilfelle. I den grad det er meningsfullt å snakke om at maskiner tar beslutninger, vil disse bestemmes av en algoritme som mennesker har konstruert. Reglene de følger vil være bestemt av mennesker, og beslutningen om ta disse våpnene i bruk vil være tatt av mennesker. (Men hva hvis maskinene utvikler sin egen intelligens og sin egen agenda og overkjører både algoritmer og menneskenes programmerte kommandoer ?)
I dette perspektivet er det naturlig å betrakte selv fullt ut autonome våpen som verktøy – midler som stater og andre grupperinger kan ta i bruk for å oppnå sine militære mål. Verktøyet kan være mer eller mindre egnet for å oppnå disse målene. Hvis målet er å vinne en krig ved hjelp av de juridiske og etiske reglene for krigføring, er det avgjørende at autonome våpen vil være i stand til å følge disse reglene.
Hvorvidt de vil ha denne teknologiske kapasiteten, er empiriske spørsmål. Det pågår nå en debatt om hvor sannsynlig det er at autonome våpen vil kunne skille mellom sivile og stridende, samt gjøre riktige avveininger mellom militære og sivile tap. Hvorvidt det kan være moralsk akseptabelt å benytte seg av disse våpnene, vil avhenge av om dette er teknologisk gjennomførbart. Som andre verktøy og våpen kan autonome våpensystemer også misbrukes.
28. juli 2015 publiserte Institute of Future Studies en appell om å forby autonome våpen. Appellen var underskrevet av en rekke ledende forskere på kunstig intelligens, blant annet Stephen Hawking, Elon Musk, Steven Wozniak og Noam Chomsky. Det var nettopp faren for misbruk som ble vektlagt.
Autonome våpen vil kunne benyttes av terrorister og despoter for umoralske formål. Det er også lett å forestille seg at autonome våpen vil benyttes selv om de ikke skulle ha evnen til å skille mellom de sivile og stridende, eller at de lett vil kunne omprogrammeres slik at de ikke lenger skiller mellom sivile og stridende.
Det er ikke bare fraværet av menneskelig nærhet til drapet som preger debatten, det er også muligheten (og frykten) for at maskinen skal tre inn i menneskets sted og selv vurdere når den blir til en drapsmaskin. Tittelen på denne boken, <<Når dronene våkner>>, henspiller på nettopp denne mangesidige utviklingen. For hvis dronen ikke bare blir et fjernstyrt fly, men våkner til et (kunstig) liv, hva gjør dette med vår oppfatning av krigføring, og med selve krigføringen ? Hvis dronen våkner til liv, representerer dette mer enn uhyre avansert teknologi og et fortrinn for menneskene – er det udyr med egen vilje som skapes av menneskehånd ? Representerer den teknologiske våpenutviklingen <<a giant step for mankind>> eller slipper den løs dronens <<mørke krefter>>?
Denne overgangen, fra stor grad av menneskelig kontroll og til mer autonom adferd, har skapt motvilje mot den teknologiske våpenutviklingen, og flere interesseorganisasjoner har tatt til orde for at autonome våpensystemer er en type teknologi som bør forbys. De som derimot omfavner den nye teknologiutviklingen, ser muligheter for mer presis og nøyaktig krigføring, og mener derfor at fremtidens autonome teknologi ikke bare er noe vi kan, men også bør ta i bruk.
Til grunn for problemstillingen om bruk av autonome droner ligger altså spørsmålet om hvorvidt vi er i ferd med å slippe løs en teknologi som vi på et eller annet tidspunkt vil miste kontrollen over, eller om det vil fjerne menneskelige feil og gjøre krigen mer human.
Det er ikke vanskelig å forstå hvorfor tanken på autonome droner og våpensystemer av mange oppleves som så intuitivt urovekkende. Det knytter seg ikke minst til frykten for konsekvensene av å overgi kontrollen over liv og død til roboter, en problemstilling som er velkjent fra utallige science fiction-filmer. Og er det noe Hollywood har lært oss, skriver Daniel H. Wilson, så er det at robotene på et eller annet tidspunkt vil vende seg mot oss mennesker.
I Stanley Kubricks film 2001: En romodysse har datamaskinen HAL 9000 blitt programmert til å styre romskipet Discovery på et oppdrag til Jupiter. Når datamaskinen oppfatter at mannskapet om bord på romskipet er i ferd med å true oppdraget, beslutter HAL 9000 seg for å ta livet av alle menneskene om bord. Når temaet autonome droner og våpensystemer settes på dagsorden, er det nettopp slike assosiasjoner og forestillinger som melder seg.
De sterke populærkulturelle forestillingene som temaet berører, er også noe av bakgrunnen for at den faglige debatten om autonome droner og våpensystemer har vært preget av sterke motsetninger mellom de som ser med optimisme på fremtidens teknologiutvikling og de som frykter den.
Hvis man får til en AI med den balansen Mark Passio snakker om i de første 20 minuttene her https://www.youtube.com/watch?v=57UBuxnicOA , så kan dette bli riktig bra, får man ikke til det, så foretrekker jeg de menneskelige narsissistene og psykopatene vi har til å styre nå. “The implications of e-residency and digital governance are huge. As with any software, open-source code for digital governance could be copied perfectly at almost zero cost, lowering the barrier to entry for any group or movement seeking statehood. We may soon see the rise of competitive governing ecosystems, each testing new infrastructure and public e-services to compete with mainstream governments for taxpaying citizens. And what better to accelerate digital governance than AI?” https://singularityhub.com/2018/10/12/could-tech-make-government-as-we-know-it-irrelevant/?fbclid=IwAR1hBxmmXUGbQjNrl98erpTP_glGuxmigDL8SV-7IT_Teae97Mczp1MjFQI#sm.0001err5kt10pkfiuz27gyiup6lxp
Artificial Intelligence: it will kill us | Jay Tuck | TEDxHamburgSalon
Teknologiutviklingen i retning av mer autonome fly og våpensystemer, har som nevnt, vært gradvis. Det er derfor liten grunn til å tro at overgangen fra automatiserte og til autonome våpensystemer vil bestå i et klart definert vendepunkt. Mest sannsynlig vil det være vanskelig å vite med sikkerhet når et system, eller bestemte funksjoner i et system, går fra automatisert til autonomt.
Det er grunn til å tro at mye av den moralske avsky som mange i dag føler overfor autonome våpensystemer er noe som vil endres etterhvert som samfunnet som helhet tar i bruk stadig mer autonome teknologiske systemer. I en fremtid hvor autonome teknologiske systemer er noe vi omgir oss med i det daglige, vil kansje også forestillingen om autonome droner og våpensystemer oppfattes som langt mindre fremmed og skremmende.
“Vi vet lite om fremtiden – den er vanskelig å spå. Men vi ser hva som skjer rundt oss, både hvordan dronekrig har utviklet seg raskt de siste årene og hvor det er sannsynlig at teknologi trenden tar oss videre. Det foregår en enorm utvikling av autonom teknologi – for å dekke mange ulike samfunnsbehov. Om denne utviklingen fortsetter i retning av stadig mer autonome droner og våpensystemer, vet vi ikke. Så langt vi kan se, er det et teknologisk grunnlag der, som er i ferd med å utvikles videre av ulike forskningsmiljøer for å tilfredstille konsumentenes behov.
Statene er blant disse konsumentene. Så vil den sikkerhetspolitiske situasjon i fremtiden styre de store statenes behov for å utvikle autonomi-teknologi til militær-teknologi. Krigshistorien har vist at teknologiske nyvinninger utvikles raskt og i stort omfang – om behovet er til stedet. Og akkurat derfor er det et så stort behov for å diskutere den autonome teknologiens påvirkning på hvordan krig utføres, hvilke rettslige og etiske vurderinger vi bør gjøre oss, og, basert på dette, forstå hvordan vi mennesker blir påvirket. Den autonome teknologiens påvirkningskraft bør også derfor reflekteres i den politiske bevissthet.”
Utdrag fra boken: Når dronene våkner, autonome våpensystemer og robotisering av krig – https://www.adlibris.com/no/bok/nar-dronene-vakner-autonome-vapensystemer-og-robotisering-av-krig-9788202495794
“En av verdens fremste eksperter på roboter og kunstig intelligens var i Norge denne uken, for å advare mot å la land bruke kunstig intelligens til å drepe.” https://e24.no/teknologi/i/bKy6E3/professor-oensker-forbud-mot-drapsroboter-science-fiction-er-ikke-lengre-et-betegnende-begrep?fbclid=IwAR1vZdjzlYFyFgj0q4s25dmZQP320NLRSJ7K7hiqbqIbYVjs-cTwhaGuomw
All your devices can be hacked – Avi Rubin
Ex Machina Official Trailer #1 (2015) – Domhnall Gleeson, Oscar Isaac Movie HD
Denne filmen er et særdeles godt argument mot transhumanisme. Upgrade (2018)
“Their report warned that malicious actors could not only hijack the implant itself, causing pain or otherwise making the body’s systems go haywire, but once the technology becomes advanced enough, they could hold a person’s memories for ransom – forcing the victim to pay up to access their own thoughts.
Any such implant will naturally require a backdoor so they can be accessed by medical professionals in case of emergency, and the research team underscored the human problem with such a setup: what’s to stop those medical professionals from selling access to a VIP patient’s implant, or from simply forgetting to change the factory-preset password? ” – https://www.sott.net/article/399606-Kaspersky-Labs-warns-neural-implants-will-lead-to-brain-hacking-memory-black-market?fbclid=IwAR1FzzTevXFyqbGykzpXUVFu1gfnOF6TNtboFkPExBEORxKl70Ix4P8XNi8
Why AI is the most dangerous thing you can imagine
https://www.youtube.com/watch?v=lD_jh3vwIls
Episode 341 – Welcome to Your Driverless Future! : The Corbett Report https://www.corbettreport.com/driverless/
https://www.dagbladet.no/nyheter/ingen-vil-vaere-trygge/71833938?fbclid=IwAR0LeUSQwC_sPPu-39Bd_0VBqgua4jLyV__sOR-2GmpFuPExYo7X7hNdSsk
“Just two weeks after it was announced China was developing biologically enhanced super soldiers, France has joined the fray in creating terminator troops that can be “bred to kill” according to a new report.
Last week, France gave the go-ahead for augmented soldiers, and some fear the super troopers could be the new norm in the recent future.
The French seek to improve “physical, cognitive, perceptive and psychological capacities,” and could allow for location tracking or connectivity with weapons systems and other soldiers. Among the ministry’s research were drugs to keep troops awake for long periods of time and combat stress, and even surgery to improve hearing.
The new species of augmented soldiers, dubbed “homo robocopus” could also have altered DNA to give them enhanced speed and strength as well as robotics.
Michael Clarke, visiting professor in war studies at Kings College London (KCL), told the Sun participating could be “using DNA as a farmer would in a herd of cattle.”
“We’ve reached the point now where we could potentially manipulate people’s DNA to breed into them extra strength, endurance and other things just as we do with animals,” Clarke said. “Just as we’ve done with standard cattle to give them more back, we can do that now very precisely with humans.”
Clarke added that the bio-race is being fueled internationally due to fears of China’s program.
“What they’re all thinking about is what might come up in 30 years’ time, given another 10 years development and experimentation,” Clarke told the paper. “The Chinese in 30 years’ time might have a cohort of people who are 20 years old who’ve got particular characteristics they might have tried to breed into them by manipulating DNA.”
Due to DNA manipulation, future soldiers could also be immune to disease and feelings.
A recent report by the International Society for Military Ethics in Europe obtained by the Sun, reveals a dystopic arena full of bionic men capable of fighting “all the time.”
“Enhanced soldiers would be reduced to bionic men, who run fast, do not need sleep, eat and drink very little, and can fight all the time,” the report states. “A new species is born: Homo robocopus.”
Sir Lawrence Freedman, Professor of war studies at KCL, told the Sun robotics are of more importance: “There are people going back into combat in ways they wouldn’t have been able to before because prosthetics have been improved. You can use Google glasses, there’s lots of things you can now do with a modern soldier that makes them much more effective than they were in the past. If you want people to act just according to orders going in to great danger, the other trend you can see that is pretty active at the moment is drones, autonomous vehicles and so on.”
While France claims it will abide by humanitarian law, French armed forces minister Florence Parly warned, “we have to be clear, not everyone has the same scruples as us and we have to prepare ourselves for such a future,” she said.
Here is some of the tech in progress to create “homo robocopus,” according to the Sun.
Brain microchips — France has been given the all-clear to develop microchips to enhance soldier brain power.
Bionic eyes — Being developed in Hong Kong, this gives users infrared and night vision.
Super hearing — The US’s Tactical Communication and Protective System are smart earbuds which boost soldiers’ hearing to be near superhuman.
Health implant — DARPA, the Pentagon’s research arm, is developing cyborg implants to monitor combat efficiency.
Enhanced limbs — A Devcom report revealed plans to equip US soldiers with enhanced limbs for increased strength.
Exoskeleton legs — The US Army has tested an exoskeleton which can be attached to soldier’s legs and can increase their productivity by up to 27 times.
Synthetic blood — Respirocyte is a theoretical red blood cell that could help soldiers not get out of breath and stay underwater for hours.
Pain immunity — DARPA’s Persistence in Combat initiative would allow soldiers to have their pain suppressed for 30 days. https://nypost.com/2020/12/19/france-china-developing-biologically-engineered-super-soldiers/?fbclid=IwAR030v23Tg8Dm43l7TtZ1GdINhpJhvynjo7kaunJiV0EV6mkjdhi6hFp1bw
SCI FI TEKNOLOGI SOM I DAG ER EN REALITET ER EN TRUSSEL MOT MENNESKEHETEN https://olehartattordet.blogg.no/sci-fi-teknologi-som-i-dag-er-en-realitet-er-en-trussel-mot-menneskeheten.html