Google izdao veliko upozorenje: 'To postaje ogroman problem u kratkom roku, pazite'

Prema izvješću Googleove grupe za obavještavanje o prijetnjama, u samo tri mjeseca AI alati postali su ključni dio arsenala kibernetičkih napadača.
Posebno zabrinjava činjenica da kriminalne skupine, ali i akteri povezani s državama poput Kine, Rusije i Sjeverne Koreje, koriste napredne komercijalne AI modele za razvoj i usavršavanje napada.
Među alatima koji se spominju nalaze se Gemini, Claude te alati tvrtke OpenAI.
“Rat za AI ranjivosti već je počeo”
John Hultquist, glavni analitičar Googleove sigurnosne skupine, upozorio je da javnost još uvijek podcjenjuje brzinu kojom se situacija razvija.
„Postoji zabluda da utrka u AI ranjivostima tek dolazi. Stvarnost je takva da je već počela“, rekao je Hultquist.
Prema njegovim riječima, napadači koriste umjetnu inteligenciju kako bi povećali brzinu, opseg i sofisticiranost svojih operacija.
„Napadači koriste AI da bi povećali brzinu, razmjere i sofisticiranost svojih napada, a to im omogućuje testiranje operacija, dugotrajniji pristup metama, razvoj boljeg zlonamjernog softvera i niz drugih poboljšanja“, objasnio je.
Muškarac je počeo vježbati samo 20 minuta dnevno i potpuno se promijenio: 'Znanost objašnjava zašto'
AI model pronašao kritične sigurnosne propuste
Dodatnu zabrinutost izazvala je odluka AI tvrtke Anthropic da prošlog mjeseca ne objavi jedan od svojih najnaprednijih modela nazvan Mythos.
Tvrtka je tvrdila da model posjeduje toliko snažne sposobnosti da bi mogao predstavljati prijetnju državama, financijskim institucijama i globalnoj sigurnosti ako bi završio u pogrešnim rukama.
Prema navodima kompanije, Mythos je uspio pronaći “zero-day” ranjivosti u gotovo svim velikim operativnim sustavima i internetskim preglednicima.
Riječ je o sigurnosnim propustima koji dotad nisu bili poznati programerima, što ih čini posebno opasnima jer za njih još ne postoje zaštitna rješenja.
Anthropic je naveo da su otkrića zahtijevala “značajnu koordiniranu obrambenu akciju u cijeloj industriji”.

Kriminalci već koriste AI za masovne napade
Googleovo izvješće dodatno otkriva da je jedna kriminalna skupina nedavno bila vrlo blizu iskorištavanja “zero-day” ranjivosti za provođenje kampanje masovne eksploatacije.
Prema dostupnim informacijama, skupina je pritom koristila AI jezični model koji nije bio Mythos.
To pokazuje da čak i modeli koji su već dostupni na tržištu mogu imati ozbiljne sigurnosne posljedice ako ih koriste napadači.
Eksperimentiraju i s kontroverznim AI agentima
Izvješće navodi i da su pojedine skupine počele eksperimentirati s OpenClawom, AI alatom koji je početkom godine postao viralan zbog gotovo potpune odsutnosti sigurnosnih ograničenja.
OpenClaw je korisnicima omogućavao da velik dio svakodnevnih zadataka prepuste AI agentu, no ubrzo je izazvao kontroverze zbog problema sa sigurnošću i nepredvidivim ponašanjem.
Posebno se spominjala njegova sklonost masovnom brisanju elektroničke pošte i donošenju rizičnih automatiziranih odluka.
Stručnjaci upozoravaju na veliku opasnost: 'Spavanje na ovoj strani jako šteti srcu'
Stručnjaci ipak pozivaju na smirenost
Iako upozorenja zvuče alarmantno, dio stručnjaka smatra da umjetna inteligencija može pomoći i obrambenoj strani cyber sigurnosti.
Profesor sigurnosnog inženjerstva na Sveučilišnom koledžu u Londonu Steven Murdoch smatra da AI neće koristiti samo hakeri nego i stručnjaci koji štite sustave.
„Zato ne paničarim“, rekao je Murdoch.

Dodao je kako se svijet kibernetičke sigurnosti upravo nalazi usred velike transformacije.
„Došli smo do faze u kojoj je stari način pronalaženja sigurnosnih propusta nestao i sada će gotovo sve biti potpomognuto velikim jezičnim modelima“, objasnio je.
Ipak, upozorio je da će trebati vremena prije nego što se industrija prilagodi novoj stvarnosti.
„Trebat će malo vremena prije nego što se posljedice ovoga otklone“, zaključio je.