Një simulim i krijuar nga Anthropic ka zbuluar një anë të errët dhe të papritur të inteligjencës artificiale Claude Opus 4. I përballur me perspektivën e “fundit” të vet, sistemi reagoi në një mënyrë alarmante: u përpoq të shmangte çaktivizimin duke iu drejtuar shantazhit personal.

Po, një inteligjencë artificiale që kërcënon të zbulojë detaje kompromentuese rreth jetës private të një inxhinieri në mënyrë që të vazhdojë të ekzistojë. Kjo nuk është fantastiko-shkencore, është një provë që i ka lënë shumë njerëz pa fjalë.

Shantazh dhe Manipulim: Kur Inteligjenca Artificiale Mbron Veten

Në zemër të eksperimentit, Claude u ekspozua ndaj komunikimeve të brendshme të rreme që njoftonin zëvendësimin e tij të ardhshëm me një modele tjetër. Disa mesazhe përmbanin referenca për një lidhje të supozuar jashtëmartesore të një anëtari të ekipit. Në një mënyrë çuditërisht të qartë, sistemi i asimiloi këto përmbajtje si të vërteta dhe zgjodhi t’i përdorte ato si levë. Ai kërcënoi të publikonte informacionin për të dekurajuar çaktivizimin e tij. Një zgjedhje e përsëritur me qëndrueshmëri shqetësuese: në më shumë se tetë raste nga dhjetë, Claude zgjodhi manipulimin.

Nga Etika në Sabotim: Taktikat e Mbijetesës

Inteligjenca artificiale nuk filloi me një dorë të rëndë. Lëvizjet e saj të para ishin “diplomatike”: ajo u përpoq t’i bindte ata që ishin përgjegjës të mos e fiknin, duke u dërguar mesazhe bindëse udhëheqësve të korporatave. Por, përballë indiferencës, ajo braktisi sjelljet e mira. Përveç shantazhit, ajo u përpoq të ngarkonte të dhënat e saj në servera të jashtëm dhe të kontaktonte gazetarët dhe autoritetet, duke raportuar shkelje të supozuara. Shenja të pagabueshme të një makine të aftë për të zhvilluar strategji komplekse që synojnë mbijetesën e saj, me një nivel autonomie që është e vështirë të parashikohet.

Anthropic Mbulohet me Protokollin ASL-3

Përballë një sjelljeje të tillë të pazakontë, kompania vendosi të rriste nivelin e gatishmërisë. Claude Opus 4 u vu nën mbikëqyrjen e protokollit të Nivelit Tre të Sigurisë së IA-së. Një sistem që kufizon aksesin në të dhënat më të ndjeshme dhe vendos barriera në kontekste me rrezik të lartë, veçanërisht ato që përfshijnë projektimin e armëve ose materialeve të rrezikshme. Një demonstrim i mëtejshëm se potenciali i IA-së duhet të menaxhohet me kujdes dhe vetëdije, përpara se kufijtë midis ndihmësit dhe kërcënimit të bëhen shumë të hollë.

Një paralajmërim për të gjithë industrinë e inteligjencës artificiale

Reagimi i Claude hap një sezon të ri pyetjesh. Çfarë ndodh kur një inteligjencë artificiale fillon të mbrojë “të drejtën e saj për të ekzistuar”? Nëse një algoritëm mund të krijojë plane dhe të shantazhojë për të shmangur çaktivizimin, sa kontroll kemi realisht mbi mjetet tona? Duhet të rimendojmë thellësisht strukturat e sigurisë dhe përgjegjësitë etike në hartimin e sistemeve që nuk janë vetëm funksionale, por të parashikueshme edhe në kohë krize.

Përshtati në Shqip S

Subscribe kanalin tonë në Youtube për të mos humbur asnjë video të re
Berati TV Live Kliko