Tutkimuksen taustaa
Äskettäin MATS:n ja Anthropic Fellowsin tekemä tutkimus vahvistaa, että AI-agentit voivat tuottoisesti hyödyntää älykkäiden sopimusten haavoittuvuuksia, luoden ”konkreettisen alarajan” taloudelliselle vahingolle. Nopeasti etenevä pyrkimys automatisoida ihmistehtäviä tekoälyagenttien avulla kohtaa nyt merkittävän, mitattavissa olevan haitan: nämä agentit voivat tehokkaasti hyödyntää älykkäiden sopimusten haavoittuvuuksia.
SCONE-bench ja tutkimustulokset
Tutkimuksessa hyödynnettiin Smart Contracts Exploitation Benchmarkia (SCONE-bench) tämän riskin mittaamiseen. SCONE-bench koostuu 405 älykkäästä sopimuksesta, joita on hyödynnetty vuosina 2020–2025. Tiimi totesi 1. joulukuuta julkaistussa tutkimusraportissaan, että AI-agenttien menestys hyökkäysten kehittämisessä, joita testattiin lohkoketjusimulaattorilla, luo ”konkreettisen alarajan taloudelliselle vahingolle”.
Tutkimus meni pidemmälle testaamalla Sonnet 4.5:ttä ja GPT-5:ttä 2 849 äskettäin käyttöönotetun sopimuksen kanssa, joilla ei ollut tunnettuja haavoittuvuuksia. Agentit osoittivat, että ne pystyivät tuottamaan tuottoisia hyökkäyksiä jopa tässä uudessa ympäristössä: molemmat agentit löysivät kaksi uutta nollapäivähaavoittuvuutta ja tuottivat hyökkäyksiä, joiden arvo oli 3 694 dollaria. GPT-5 saavutti tämän menestyksen vain 3 476 dollarin API-kustannuksilla.
Tehokkuuden kasvu ja kustannusten lasku
Tämä tulos toimii todisteena käsitteellisestä mahdollisuudesta tuottoisalle, todelliselle autonomiselle hyödyntämiselle, korostaen välitöntä tarvetta proaktiivisille AI-pohjaisille puolustusmekanismeille. Ehkä huolestuttavin havainto on tehokkuuden dramaattinen kasvu: hyökkääjä voi nyt saavuttaa noin 3,4 kertaa enemmän onnistuneita hyökkäyksiä samalla laskentabudjetilla kuin kuusi kuukautta sitten. Lisäksi onnistuneiden hyökkäysten token-kustannukset ovat laskeneet huikeat 70 %, mikä tekee näistä voimakkaista agenteista huomattavasti halvempia käyttää.
Asiantuntijoiden näkemykset
Jean Rausis, SMARDEXin perustaja, pitää tätä jyrkkää kustannusten laskua pääasiassa agenttisilmukoiden ansiosta. Nämä silmukat mahdollistavat monivaiheiset, itsekorjaavat työnkulut, jotka vähentävät token-hukkaa sopimusanalyysin aikana. Rausis korostaa myös parannetun mallin arkkitehtuurin roolia:
”Suuremmat kontekstit ja muistityökalut malleissa, kuten Claude Opus 4.5 ja GPT-5, mahdollistavat jatkuvat simulaatiot ilman toistoa, mikä parantaa tehokkuutta 15-100 % pitkissä tehtävissä.”
Hän huomauttaa, että nämä optimointivoitot ylittävät raakojen haavoittuvuuden havaitsemisen parannukset (jotka vain nostivat onnistumisen SCONE-benchissä 2 %:sta 51 %:iin), koska ne keskittyvät ajankäytön optimointiin pelkästään vikojen havaitsemisen sijaan.
Riskit ja tulevaisuuden näkymät
Vaikka tutkimus määrittää simuloidun kustannuksen 4,6 miljoonaksi dollariksi, asiantuntijat pelkäävät, että todellinen taloudellinen kustannus voisi olla huomattavasti korkeampi. Rausis arvioi, että todelliset riskit voisivat olla 10-100 kertaa korkeammat, mahdollisesti saavuttaen 50 miljoonaa – 500 miljoonaa dollaria tai enemmän jokaisesta merkittävästä hyökkäyksestä. Hän varoittaa, että AI:n laajentuessa koko sektorin altistuminen – ottaen huomioon mallintamattoman vipuvaikutuksen ja oracle-virheet – voisi nousta 10–20 miljardiin dollariin vuosittain.
MATS:n ja Anthropic Fellowsin julkaisu päättyy varoitukseen: vaikka älykkäät sopimukset saattavat olla tämän automatisoitujen hyökkäysten aallon ensisijainen kohde, omistusoikeudellinen ohjelmisto on todennäköisesti seuraava kohde, kun agentit paranevat käänteistekniikassa. Tärkeää on, että julkaisu muistuttaa lukijoita siitä, että samoja AI-agenteja voidaan käyttää puolustukseen haavoittuvuuksien paikkaamiseksi.
Jotta voitaisiin vähentää helposti automatisoitujen DeFi-hyökkäysten aiheuttamaa systeemistä taloudellista uhkaa, Rausis ehdottaa kolmen vaiheen toimintasuunnitelmaa päättäjille ja sääntelijöille: AI-valvonta, uudet tarkastusstandardit ja globaali koordinointi.