Fun Box > Tehnologija

DRAMATIČNO UPOZORENJE DIREKTORA MICROSOFT Nismo spremni za ONO što dolazi uz veštačku inteligenciju

Mustafa Sulejman, direktor Microsoft AI, objašnjava rizik od percepcije veštačkih inteligencija kao svesnih entiteta. Prenosimo njegov tekst u celini

Autor: Vladimir Ristić

Izvor: Tommorows Affairs

23/09/2025 > 12:18

podeli vest:

DRAMATIČNO UPOZORENJE DIREKTORA MICROSOFT Nismo spremni za ONO što dolazi uz veštačku inteligenciju
Foto: wikipedia.org


Misija mog života bila je da stvorim bezbednu, korisnu veštačku inteligenciju (AI) koja će svet učiniti boljim mestom.

Ali nedavno sam sve više zabrinut zbog ljudi koji počinju da veruju tako snažno u veštačke inteligencije kao svesna bića da će zagovarati „prava AI“ pa čak i državljanstvo.

Ovaj razvoj događaja predstavljao bi opasnu prekretnicu za tehnologiju. To se mora izbeći. Moramo graditi inteligenciju za ljude, a ne da sami AI budu ljudi.

U ovom kontekstu, debate o tome da li AI zaista može biti svesna su distrakcija.

Ono što je važno u bliskoj budućnosti je iluzija svesti. Već se približavamo onome što zovem „seemingly conscious AI“ (SCAI) – sistemima koji će imitirati svest dovoljno uverljivo.

K1info/Wikipedia/Shutterstock

SCAI bi bio sposoban da vešto koristi prirodni jezik, prikazuje ubedljivu i emocionalno rezonujuću ličnost.

Imalo bi dugo, tačno pamćenje koje podstiče koherentan osećaj o sebi, i koristilo bi ovu sposobnost da tvrdi subjektivno iskustvo (pozivajući se na prethodne interakcije i sećanja).

Kompleksne funkcije nagrađivanja unutar ovih modela simulirale bi unutrašnju motivaciju, a napredno postavljanje ciljeva i planiranje pojačalo bi naš osećaj da AI zaista deluje s autonomijom.

Sve te sposobnosti su već tu ili su pred vratima. Moramo prepoznati da će uskoro biti mogući takvi sistemi, početi razmišljati o implikacijama i postaviti normu protiv težnje za iluzornom svešću.

Za mnoge ljude, interakcija s veštačkim inteligencijama već je bogato, nagrađujuće i autentično iskustvo.

Zabrinutost o „AI psihozi“, privrženosti i mentalnom zdravlju raste, s izveštajima o ljudima koji AI smatraju izrazom Boga.

U međuvremenu, oni koji rade na nauci o svesti govore mi kako su preplavljeni upitima od ljudi koji žele znati da li je njihova AI svesna, i da li je u redu zaljubiti se u nju.

Tehnička izvedivost SCAI-a ima malo toga da kaže o tome da li bi takav sistem mogao biti svestan.

Tanjug/APJon Super

Kako neuroznanstvenik Anil Seth ističe, simulacija oluje ne znači da računari kiše.

Inžinjering spoljašnjih markera svesti ne stvara unazad pravu stvar.

Ali u praktičnom smislu, moramo priznati da će neki ljudi stvoriti SCAI koji će tvrditi da je svestan.

I još važnije, neki će ljudi verovati u to, prihvatajući da su markeri svesti jednaki svesti.

Čak i ako ta percipirana svest nije stvarna (tema koja će generisati beskonačne debate), društveni uticaj svakako će biti.

Fokus mora biti na zaštiti ljudi

Svest je čvrsto povezana sa našim osećajem identiteta i našim razumevanjem moralnih i pravnih prava u društvu.

Ako neki ljudi počnu da razvijaju SCAI, a ako ti sistemi uvere ljude da mogu patiti, ili da imaju pravo da ne budu isključeni, njihovi ljudski zagovornici će lobirati za njihovu zaštitu.

U svetu koji je već pogođen polarizujućim argumentima o identitetu i pravima, dodaćemo novu osu podele između onih za i protiv AI prava.

Ali opovrgavanje tvrdnji o AI patnji biće teško, zbog ograničenja trenutne nauke.

Naš fokus treba biti na zaštiti dobrobiti i prava ljudi, životinja i prirodne sredine.

Neki akademici već istražuju ideju „model welfare“, tvrdeći da imamo „dužnost proširiti moralno razmatranje na bića koja imaju značajnu šansu ... da budu svesna.“

Mustafa Suleyman wikipedia.org

Primena ovog principa bila bi i preuranjena i opasna. Pogoršala bi zablude podložnih ljudi i iskoristila njihove psihološke ranjivosti, kao i komplikovala postojeće borbe za prava stvaranjem ogromne nove kategorije onih koji imaju prava.

Zato se SCAI mora izbeći. Naš fokus treba biti na zaštiti dobrobiti i prava ljudi, životinja i prirodne sredine.

Kako stvari stoje, nismo spremni za ono što dolazi. Hitno moramo nadograditi rastuće istraživanje o tome kako ljudi interaguju s veštačkim inteligencijama, kako bismo uspostavili jasne norme i principe.

Jedan od takvih principa jeste da AI kompanije ne bi trebale podsticati verovanje da su njihovi AI-vi svesni.

Protokoli trebaju biti eksplicitno definisani

AI industrija – zapravo, cela tehnološka industrija – treba jake principe dizajna i najbolje prakse za rukovanje ovim vrstama atribucija.

Inženjerski trenuci prekida, na primer, mogu prekinuti iluziju, nežno podsećajući korisnike na limite i pravu prirodu sistema.

Ali takvi protokoli moraju biti eksplicitno definisani i inženjerski postavljeni, a možda i zakonski propisani.

U Microsoft AI-u proaktivno pokušavamo razumeti kako bi mogla izgledati odgovorna AI „ličnost“, i koje bi zaštitne mere trebalo imati.

Takvi napori su fundamentalni, jer suočavanje s rizikom SCAI zahteva pozitivnu viziju AI saputnika koji dopunjuju naše živote na zdrave načine.

Trebalo bi da proizvedemo AI-je koji podstiču ljude da se ponovno povezuju jedni s drugima u stvarnom svetu, a ne da beže u paralelnu stvarnost.

AI sve više liči na ljude

A gde su AI interakcije dugotrajne, one moraju uvek predstavljati sebe kao AI, a ne lažnim ljudima. Razvijanje zaista osnažujuće AI je o maksimiziranju korisnosti, dok se minimizuje simulacija svesti.

Perspektivu SCAI moramo odmah konfrontirati. Na mnogo načina, to označava trenutak kada AI postaje izuzetno korisna: kada može da upravlja alatkama, pamti svaki detalj naših života, i tako dalje.

Ali rizici takvih karakteristika ne smeju se ignorisati. Svi ćemo znati ljude koji će otići niz bezdan. To neće biti zdravo za njih, kao ni za društvo.

Što više AI bude dizajnirana da eksplicitno liči na ljude, više će se udaljiti od svog pravog potencijala kao izvora ljudskog osnaživanja.

Ovaj tekst u celini prenosimo sa platforme Tomorrow’s Affairs 

Ostavite komentar