top of page

U narednih nekoliko godina očekuje nas inteligencijska eksplozija


Superinteligencija i njena moć


Sve se više govori u javnosti o inteligencijskoj eksploziji ili

superinteligenciji u skoroj budućnosti,

koja nadmašuje ljudsku u svakim

aspektima - privlači sve veću pažnju

stručnjaka, filozofa, naučnika i tehnoloških

lidera.


Šta je inteligencijska eksplozija?


To je trenutak kada umjetna inteligencija

postane sposobna samostalno da

unapređiva sebe brže nego što ljudi mogu

pratiti - šta može dovesti do

superintekigencije koja nadmašuje ljudski

um u gotovo svim domenima.

Mnogi stručnjaci i futoristi smatraju da bi

inteligencijska eksplozija mogla desiti u

narednih 10 godina, ako ne i prije.

Svi se slažu da će se brzo desiti, jer novi modeli pojavljuju se svakih 6 - 12 mjeseci,

sve pametniji, brži i autonomniji.


To je daleko naprednija, umjetna inteligencija AI, od ove današnje, koja će biti

kontrolisana od superinteligencije.

Vlade i vojne sile žele biti prve koje žele

doći do AGI - ja ( Artificijal General Intelligence ) zbog strateške prednosti.


Današnja umjetna inteligencija koju poznajemo naj više se koristi u vojno-

tehnološkoj industriji, zato postoji opravdani strah, da bi superinteligencija

mogla biti opasna za čovječanstvo, ali i brojni načini na koje se ta opasnost može ublažiti.


Nekoliko glavnih aspekata opasnosti na

koje upozoravaju naučnici su:

° Nemogućnost kontrole

( problem kontrole! ) Ako superinteligencija

razvija vlastite ciljeve koji nisu usklađeni

sa ljudskim vrijednostima, mogli bismo

je teško zaustaviti ili nikako.

Čak ako AI umjetna inteligencija ima

"bezopasan" cilj ( npr. izračunavanje

brojeva), mogla bi kao sredstvo za ostvarenje tog cilja eliminisati prepreke

uključujući ljude.


Razvoj superinteligencije mogao bi se dogoditi iznenada, zato je i nazivaju

tzv. Inteligencijska eksplozija - što bi značilo

da ljudi nebi imali vremena reagirati.


Prije nego što postane nezavisna prijetnja

superinteligenciju bi mogli

zloupotrebljavati vlade, korporacije, ili

kriminalne skupine za nadzor, manipulaciju

i ratovanje.

Tu svakako treba dodati i ekonomsku

destabilizaciju.

Masovna automatizacija mogla bi stvoriti

ogromne ekonomske i socijalne nemire.


Postoje li rješenja ?


Da. Mnoge institucije i istraživači rade na razvoju sigurne i etičke umjetne inteligencije uključujući:

° Ugradnju ljudske vrijednosti u AI

° Regulacije i međunarodni zakoni

° Transparentnost i saradnja između država i kompanija.

° Zaustavljanje razvoja ako sigurnosne mjere ne mogu garantovati.

Međutim poznato nam je, da ove sve sigurnosne mjere u velikoj mjeri se ne

primjenjivaju, pogotovo kad je u pitanju

etička umjetna inteligencija.


Superinteligencija može donjeti ogroman napredak, ali i ozbiljne prijetnje. Nije nužno

da će biti opasna - ali postoji realna

mogućnost opasnosti, ako ne budemo

vrlo oprezni.


Postavlja se pitanje:

Da li je cilj, inteligencijske eksplozije

( koja se sve više spominje u skoroj buducnosti ), moć nad čovječanstvom ?


U teoriji možda i - ne.

Ali većina naučnika i inženjera koji razvijaju

AI upozoravaju ; Ako se AI razvija bez nadzora, bez etočkih smjernica ( a njih je

sve manje ) i međunarodnog dogovora

( a znamo da međunarodni dogovor ne postoji ), tada velike korporacije mogu

težiti kontroli ljudi, ( čovječanstva ).


° Autoritarne vlade mogu koristiti AI

( Superinteligenciju ) za nadzor, cenzuru i

represiju.

° Mogu donjeti odluke koje zanemaruju ljudsku dobrobit ( npr. u ekonomiji,

zdravstvu, zapošljavanju kao i drugim aspektima života. )


To dovodi do pitanja, tko kontrolira

superinteligenciju - jer jedan entitet

dobije pristup takvoj moći , onda je to

vrhunsko sredstvo kontrole nad

čovječanstvom.


Cilj može biti plemenit, ali rizik da postane

sredstvo moći je stvaran - ako se razvoj vodi interesima manjina ( što je realno )

umjesto cijelog čovječanstva.


Realnost današnje umjetne inteligencije:


Sve se više koristi u vojne svrhe, i to na način koji mogu biti etički vrlo upitni.

° Autonomne borbene letjelice i sistemi

( npr. dronovi sa AI navođenjem .)

° Kibernetičko ratovanje - AI koja napada

ili brani računalne sisteme.

° Psihološko oružje - manipulacija

informacijama i mišljenjima putem AI

alata ( npr. deepfeke, algoritamski

botovi ).


Postavlja se pitanje: Zašto bi,

superinteligencija bila drgačija?

To je upravo ono što mnoge stručnjake brine !

Ako su današnje tehnologije već korištene za moć , nadzor i nasilje - zašto bi puno

moćnija AI bila etičnija ?


Testiranja i etički paradoksi :


Svaka nova tehnologija treba

testiranje - ali :

° Gdje će se testirati superinteligentni

sistem ?

° Na kome će se testirati njegova moć ?

° Kako spriječiti da testiranje ne postane

oblik eksperimentiranja na ljudima,

društvima ili cijelim narodima ?

Nažalost na ta pitanja nisam mogao

pronaći adekvatan odgovor.


Postoji stvaran rizik da se testiranje

"racinalizira" kao "nužno zlo " - pogotovo u vojnim projektima koja su po prirodi tajni.


Ako već sada AI ide više prema kontroli i

dominaciji nego prema dobroti čovječanstva - nema garancije da će

Inteligencijska eksplozija automatski

imati etičke temelje !!!!


Etika je u pozadini :


° Nema međunarodnog zakona koji

zabranjuje korištenje autonomnog

oružja.

° UN i brojne organizacije ( npr. Human

Rights Watch ) traže zabranu

"robota - ubojica", ali bez uspjeha - jer

vodeće sile to blokiraju.

° Testiranje se njčešće odvijaju u ratnim

zonama, što znači da se AI sistemi

isprobavaju na civilima.


Zato mnogi misle da bi inteligencijska

eksplozija mogla biti više

politički / vojni događaj nego naučni

napredak.


Bez jakih etičkih okvira, demokratske kontrole i globalnog dogovora,

inteligencijska eksplozija ne mora voditi

čovječanstvo naprijed. Može ga zarobiti

u najintelegentnijem zatvoru u historiji.


U narednom članku : U svijetu gdje

tehnologija nadilazi moral, a razvoj kao

da dolazi "odozgo," prirodno je pitati :

Je li čovjek stvorio AI ili AI - čovjeka ?


Pratite redovno www.express-blog.com

Jer donosimo zanimljiva istraživanja.


Pišite svoje komentare .


Komentari


bottom of page