Skip to main content

"Fenix-teoria" sekä mietelmä siitä, miten irti päässyt tekoäly voisi vaarantaa ihmiskunnan

Elokuvan "Moontrap" robotti

Kaikki me olemme joskus katsoneet niin sanottuja “B-elokuvia”, joiden trailereita tähdittää yliampuva selostus, ja joissa olevat ideat eivät aina toteudu täysin, koska noiden elokuvien budjetit ovat niin kamalan pieniä. Kuitenkin noissa elokuvissa on käytetty mielikuvitusta, ja niissä esitetyt ideat ovat oikeastaan melko hyviä, vaikka toteutus saattaa hieman ontua, ja syynä on usein juuri pieni budjetti. Kun katsotaan esimerkiksi elokuvaa nimeltään “Moontrap”, niin siinä sivutaan sitä aihetta, mikä kiinnostaa kaiken maailman salaliittoteoreetikkoja, eli miksi USA ei palannut Kuuhun? Tuo elokuva käsittelee tätä asiaa sellaisesta näkökulmasta, mitä kutsutaan “Fenix-teoriaksi”.

Eli kyseinen ehkä hiukan omintakeinen teoria lähtee siitä, että ihmiskunta on kerran tuhonnut oman sivilisaationsa, ja sitten meidän oma sivilisaatiomme on taas alkanut kehittää noita ammoin unohtuneita kojeita uudelleen. Jos esimerkiksi UFO:ja tarkastellaan tuon teorian näkökulmasta, niin silloin tietenkin voidaan lähteä siitä, että nuo “UFO”:t ovat oikeastaan toisten ihmisten luomuksia, jotka olisivat erittäin paljon valtaväestöä kehittyneempiä, mutta he ikään kuin salaisivat tuon hallussaan olevan teknologian. Kuten olen useasti kirjoittanut, niin nämä teoriat ovat elämän suola, ja niissä riittää paljon pohdittavaa. Ja tällainen asia sitten varmasti antaa aiheen ties millaisille elokuville sekä kirjoille.  
Siinä juoni lähtee siitä, että kauan sitten on ihminen lentänyt Kuuhun, ja sitten perustanut sinne tukikohdan. Kyseessä on siis eräänlainen “Atlantis”-myytin muunnos, joka on esitetty monissa yhteyksissä. Sitä kuka tuon teorian on esittänyt en muista, mutta itse kyllä pidän teoriaa, missä ihmiskunta on kerran tuhouduttuaan nousemassa tuhkasta aivan kuin “fenix-lintu” erittäin mielenkiintoisena pohdinnan kohteena. Kun puhutaan puhtaista ajatus-leikeistä, niin silloin tietenkään meidän ei tarvitse osoittaa mitään todeksi, mutta kuten varmaan tiedätte, niin tällaiset pohdinnat rikastuttavat keskusteluja sekä tekevät elämästä mielenkiintoisen.

Tuo teoria lähtee siitä, että nyt me ihmiset ja meidän kulttuurimme elää niin sanottua “toista kukoistusta”, mikä tarkoittaa sitä, että joskus kauan sitten olisi ihmiskunta lentänyt avaruuteen sekä tuottanut robotteja, jotka sitten olisivat nousseet jotenkin kapinaan, ja hyökänneet ihmisten kimppuun, lähettäen meidät välillä kirjaimellisesti kivikaudelle, josta sitten taas olemme nousseet ylös kehittäen taas uuden sivilisaation.

Tiedättekö muuten miksi salaliittoteoreetikkoja kutusutaan joskus “foloihatuiksi”. Se johtuu siitä, että tarinoiden mukaan “humanoidit” ovat asettaneet ihmisten aivoihin implantteja, joiden avulla he voivat lukea meidän ihmisten aivojen sähköistä toimintaa ja lähettää tuota  EEG-käyrää jonnekin salaperäiselle keskus-tietokoneelle, ja jos ihminen päällystää lakkinsa foliolla, niin silloin tuon EEG-käyrää lähettämän radiolaitteen signaali saataisiin katkeamaan. Tuollainen implantti voisi olla sellainen, että sen avulla voidaan stimuloida esimerkiksi aivojen kipukeskusta, jolloin henkilöä voidaan hallita erittäin tehokkaasti.

Tuo elokuva “Moontrap”  on muuten oikeastaan erittäin hyvä katsoa siltä kannalta, että tiedemiehet tajuaisivat tekoälyn sekä tietokoneen ohjaaman tuotekehityksen vaarat, jota myös kirjailija Stanislaw Lem käsittelee kirjassaan “Rauha Maassa”, jossa aseiden kehitys on viety kuuhun. Tuossa tarinassa täysin automatisoidut tietokoneet, eli super-simulaattorit kehittävät uusia aseita sek selektiiviset simulaattorit taistelevat niitä vastaan, jotta järjestelmä löytäisi näistä välineistä heikkouksia.

Kun puhutaan tuollaisesta täysin automaattisesta tuotekehityksestä, josta voidaan käyttää termiä “mekaaninen evoluutio”, niin silloin kyllä puhutaan hyvin vakavasta asiasta, joka voisi teoriassa aiheuttaa ihmiskunnan tuhon. Tuo tekoälyyn perustuva simulaatio-laitteisto on tietenkin varustettava evoluutio-mallilla, joka sallii ensinnäkin taktiikan sekä välineiden toimivuuden analysoinnin, ja sitten kun tuo super-simulaattori tuo virtuaaliselle taistelukentälle uuden koneen tai asejärjestelmän, niin sitten selektiivinen simulaattori käy taisteluun sitä vastaan yrittäen löytää siitä heikkouksia, ja kun simuloitu taistelu on ohi, niin sitten tuo tekoälyyn perustuva opponentti eli selektiivinen simulaattori lähettää parannus-ehdotuksen laitteistoon kuuluvalle automaattiselle  tekoälylle eli super-simulaattorille, joka sitten korjaa noiden välineiden puutteita.

Kuitenkin tällainen järjestelmä varsinkin yksin jätettynä on hyvin vaarallinen, koska se saattaa kehittää sellaisia järjestelmiä, joita vastaan ei ehkä olekaan niin helppoa puolustautua. Ja kyseessä saattaisi tuolloin olla esimerkiksi keinotekoisten hyönteisten tai nano-kokoisten helikopterien parvi, joka on varustettu hajautetulla tekoälyllä, mikä tarkoittaa sitä, että nuo laitteet omaavat yhteisen IP-osoitteen jonka kautta niiden tietokoneet toimivat kuin yksi valtavan suuri tietokone, ja tuolloin sitten voi seurauksena olla se, että noita laitteita ohjaava tekoäly ikään kuin riistäytyy hallinnasta.

Muuten tuollaista nano-helikopterien parvea on  tietenkin melko helppoa häiritä, jos vain tarpeeksi noita helikoptereita saadaan tuhottua, niin silloin niiden teho loppuu. Mutta kun puhutaan esimerkiksi tilanteesta, missä järjestelmään kuuluu automatisoitu tuotanto-yksikkö, joka kykenee tuottamaan 3D-printterien sekä robottien avulla uusia RPV-robotteja, niin silloin tietenkin kyseessä on erittäin vaarallinen väline.

Tuollainen tuotantoyksikkö voidaan sijoittaa esimerkiksi rekan konttiin, ja jos tuollaiset helikopterit on varustettu oikeanlaisilla ohjelmilla sekä sensoreilla, niin ne voivat etsiä maasta malmeja sekä raaka-aineita, mitkä takaavat tietenkin sitten rajattoman tuotantokapasiteetin. Tuossa mallissa ongelmia sitten tulee lähinnä fyysisten osien valmistuksessa, ja nuo tarvittavat keinoäly-ohjelmat voidaan kopioida noihin laitteisiin tehokkaasti, ja kuten muistamme, niin tietokoneohjelmat ovat immateriaalisia tuotteita, joiden määrä ei vähene vaikka niitä kopioidaan kuinka paljon tahansa.

Tuollainen nano-helikopterien parvi voidaan varustaa esimerkiksi mikroaalto-laitteilla, joiden avulla ne sitten voivat kuumentaa kohdettaan. Vaikka yhden tuollaisen robotin käyttämä säteilyteho ei ole mitenkään erityisen suuri, niin kun suuri määrä noita laitteita kohdistaa mikroaaltolaitteensa samaan kohteeseen, niin siinä sitten alkaa isokin pinta kuumentua. Ja jos ne kohdistavat mikroaalto-lähettimensä esimerkiksi ihmiseen, niin silloin saattaa käydä niin, että kohde ikään kuin räjähtää palasiksi.  Tai jos oikein tarkasti ajatellaan, niin tuollainen tuotanto-yksikkö voisi toimia periaatteessa kuten keinotekoinen solu, jolle nuo automaattiset välineet tuovat raaka-aineita joista se sitten luo uusia mikropiirejä sekä muita varusteita. Tuollainen keinotekoinen solu on siis oikeastaan vain tehdaslaitos, mikä sitten voi tuottaa kopioita itsestään.


Tässä skenaariossa sillä olisi käytössään automatisoituja puskutraktoreita ja muita maansiirtokoneita, joilla olisi käytössään esimerkiksi laser-spektrometrejä, joiden avulla ne voivat etsiä esimerkiksi piitä sekä muita mineraaleja, ja tuollaisella robotti-laitoksella voisi olla käytössään myös esimerkiksi sentrifugi-erottimia, sekä mikroaalto-tekniikkaan perustuvia masuuneja, joiden avulla se voi erottaa haluamiaan alkuaineita toisistaan. Tuollaisen välineen vieminen esimerkiksi toiselle planeetalle voisi olla hyvin houkuttelevaa, mutta jos joku sitten unohtaa sen sinne, niin silloin voi käydä niin, että nuo välineet hyökkäävät sitten maan ihmisiä eli luojaansa vastaan. Ja silloin voimme vain toivoa, että noiden tietokoneiden osaaminen tällä alalla olisi huonompaa kuin ihmisten.

https://avoimenkoodinmaailma.blogspot.fi/

http://fenixteoria.webnode.fi

Comments

Popular posts from this blog

The LK-99 could be a fundamental advance even if it cannot reach superconductivity in 400K.

The next step in superconducting research is that LK-99 was not superconducting at room temperature. Or was it? The thing is that there is needed more research about that material. And even if it couldn't reach superconductivity in 400K that doesn't mean that material is not fundamental. And if LK-99 can maintain its superconductivity in 400K that means a fundamental breakthrough in superconducting technology.  The LK-99 can be hype or it can be the real thing. The thing is, anyway, that high-voltage cables and our electric networks are not turning superconducting before next summer. But if we can change the electric network to superconducting by using some reasonable material. That thing can be the next step in the environment. Superconductors decrease the need to produce electricity. But today cooling systems that need lots of energy are the thing that turn superconductors that need low temperatures non-practical for everyday use.  When the project begins there is lots of ent

Black holes, the speed of light, and gravitational background are things that are connecting the universe.

 Black holes, the speed of light, and gravitational background are things that are connecting the universe.  Black holes and gravitational waves: is black hole's singularity at so high energy level that energy travels in one direction in the form of a gravitational wave.  We normally say that black holes do not send radiation. And we are wrong. Black holes send gravitational waves. Gravitational waves are wave movement or radiation. And that means the black holes are bright gravitational objects.  If we can use water to illustrate the gravitational interaction we can say that gravitational waves push the surface tension out from the gravitational center. Then the other quantum fields push particles or objects into a black hole. The gravitational waves push energy out from the objects. And then the energy or quantum fields behind that object push them into the gravitational center.  The elementary particles are quantum fields or whisk-looking structures. If the gravitational wave is

The CEO of Open AI, Sam Altman said that AI development requires a similar organization as IAEA.

We know that there are many risks in AI development. And there must be something that puts people realize that these kinds of things are not jokes. The problem is how to take control of the AI development. If we think about international contracts regarding AI development. We must realize that there is a possibility that the contract that should limit AI development turns into another version of the Nuclear Non-Proliferation Treaty. That treaty didn't ever deny the escalation of nuclear weapons. And there is a big possibility that the AI-limitation contracts follow the route of the Nuclear Non-Proliferation Treaty.  The biggest problem with AI development is the new platforms that can run every complicated and effective code. That means the quantum computer-based neural networks can turn themselves more intelligent than humans. The AI has the ultimate ability to learn new things. And if it runs on the quantum-hybrid system that switches its state between binary and quantum states,