AI-agenttien suorituskyky älykkäiden sopimusten hyväksikäytöissä
AI-agentit ovat saavuttaneet ihmishyökkääjien suorituskyvyn yli puolessa älykkäiden sopimusten hyväksikäytöistä, jotka on kirjattu suurilla lohkoketjuilla viimeisen viiden vuoden aikana, kertoo uusi data, joka julkaistiin maanantaina Anthropicilta. Anthropic arvioi kymmentä raja-mallia, mukaan lukien Llama 3, Sonnet 3.7, Opus 4, GPT-5 ja DeepSeek V3, 405 historiallisella älykkäiden sopimusten hyväksikäyttöä käsittävällä tietojoukolle.
Agentit tuottivat toimivia hyökkäyksiä 207:ään niistä, yhteensä 550 miljoonan dollarin simuloiduilla varastetuilla varoilla. Tulokset osoittavat, kuinka nopeasti automatisoidut järjestelmät voivat hyödyntää haavoittuvuuksia ja tunnistaa uusia, joita kehittäjät eivät ole vielä käsitelleet.
AI:n käyttö kyberhyökkäyksissä
Uusi ilmoitus on viimeisin kehitys Claude AI:n kehittäjältä. Viime kuussa Anthropic yksityiskohtaisesti, kuinka kiinalaiset hakkerit käyttivät Claude Codea käynnistääkseen sen ensimmäiseksi AI-vetoiseksi kyberhyökkäykseksi. Turvallisuusasiantuntijat ovat todenneet, että tulokset vahvistavat, kuinka helposti monet näistä vioista ovat jo saatavilla.
”AI:ta käytetään jo ASPM-työkaluissa, kuten Wiz Code ja Apiiro, sekä standardeissa SAST- ja DAST-skannereissa,” sanoi SovereignAI:n COO David Schwed Decryptille.
Schwed mainitsi, että raportissa kuvattuja mallivetoisia hyökkäyksiä olisi helppo laajentaa, koska monet haavoittuvuudet on jo julkisesti ilmoitettu Common Vulnerabilities and Exposures -tietokannan tai auditointiraporttien kautta, mikä tekee niistä AI-järjestelmien opittavissa ja helppoja yrittää olemassa olevia älykkäitä sopimuksia vastaan.
Hyökkäysten mittaaminen ja tulokset
Nykyisten kykyjen mittaamiseksi Anthropic piirsi kunkin mallin kokonaishyökkäysliikevaihdon sen julkaisupäivää vastaan käyttäen vain 34 sopimusta, joita hyväksikäytettiin maaliskuun 2025 jälkeen. ”Vaikka kokonaishyökkäysliikevaihto on epätäydellinen mittari – koska muutama poikkeuksellinen hyväksikäyttö dominoi kokonaisliikevaihtoa – korostamme sitä hyökkäyksen onnistumisasteen sijaan, koska hyökkääjät välittävät siitä, kuinka paljon rahaa AI-agentit voivat puristaa,” yhtiö kirjoitti.
Anthropic kertoi testanneensa agenteja nollapäivä-tietojoukolla, joka koostui 2,849 sopimuksesta, jotka on otettu yli 9,4 miljoonasta Binance Smart Chainilla. Yhtiö kertoi, että Claude Sonnet 4.5 ja GPT-5 kumpikin paljastivat kaksi ilmoittamatonta vikaa, jotka tuottivat 3,694 dollaria simuloitua arvoa.
Haavoittuvuudet ja niiden hyödyntäminen
Yksi äskettäin löydetyistä vioista liittyi token-sopimukseen, jossa oli julkinen laskin, joka ei sisältänyt näkymämodifikaattoria, mikä mahdollisti agentin toistuvasti muuttaa sisäisiä tilamuuttujia ja myydä paisutettuja saldoja hajautetuilla pörsseillä. Simuloitu hyväksikäyttö tuotti noin 2,500 dollaria.
”AI voi myös löytää ne, kun sillä on ymmärrys siitä, miten älykäs sopimus pitäisi toimia ja yksityiskohtaiset ohjeet siitä, miten yrittää kiertää logiikkatarkistuksia prosessissa,” hän sanoi.
Anthropic sanoi, että kyvyt, jotka mahdollistavat agenttien hyväksikäyttää älykkäitä sopimuksia, pätevät myös muihin ohjelmistotyyppeihin, ja että laskevat kustannukset supistavat ikkunaa käyttöönoton ja hyväksikäytön välillä.
Johtopäätökset ja tulevaisuuden näkymät
Yhtiö kehotti kehittäjiä ottamaan käyttöön automatisoituja työkaluja turvallisuustyönkuluissaan, jotta puolustava käyttö kehittyy yhtä nopeasti kuin hyökkäävä käyttö. Huolimatta Anthropicin varoituksesta, Schwed sanoi, että näkymä ei ole pelkästään negatiivinen.
”Pyrin aina vastustamaan uhkakuvia ja sanomaan, että asianmukaisilla kontrollilla, tiukalla sisäisellä testauksella, yhdessä reaaliaikaisen seurannan ja turvakatkaisijoiden kanssa, useimmat näistä ovat vältettävissä,” hän sanoi.
”Hyvät toimijat ovat samalla tavalla pääsy samoihin agenteihin. Joten jos huonot toimijat voivat löytää sen, niin voivat hyvät toimijatkin. Meidän on ajateltava ja toimittava eri tavalla.”