Jos itsenäiset agentit nousevat DeFin suurimmiksi käyttäjiksi, lohkoketjut alkavat hoitaa uutta tehtävää. Ne toimivat ohjelmistojen koordinointi- ja selvitysjärjestelminä sen sijaan, että olisivat ihmisten ajoituksen, tunnelman ja spekulaation ohjaamia alustoja.
Federico Variola, Phemexin toimitusjohtaja, katsoo että tämä voisi parantaa ketjun sisäisen aktiivisuuden kehittymistä. Hän toteaa:
”Viime aikoina lohkoketju-ekosysteemit ovat kärsineet, koska monet tokenit eivät ole yltäneet vahvaan kasvuun ja suuri osa toiminnasta on muuttunut PvP-kaupankäynniksi, jossa käyttäjät yrittävät saada arvon itselleen muiden kustannuksella.”
Hänen mielestään agentit voivat toimia yhteistyöhakuisemmin kuin ihmiset, koska ne toimivat usein rationaalisemmin kuin inhimilliset osallistujat.
Dmitry Lazarichev, Wirexin perustaja, keskittyy siihen, miten tämä muuttaa toiminnan luonnetta:
”Kun agentit ovat päätoimijoita, ketju käyttäytyy vähemmän ihmisten markkinapaikalta ja enemmän kuin osa koneiden infrastruktuuria.”
”Aktiivisuus on jatkuvaa: agentit eivät odota markkinatunteja, eivät väsy eivätkä tee kauppaa mielialan mukaan.”
Tällainen toiminta lisää tehokkuutta, mutta tuo mukanaan uusia haasteita. Jos agentit tukeutuvat samoihin tietoihin, Lazarichevin mukaan:
“Voit saada kasaantunutta käyttäytymistä ja jyrkkiä palautesilmukoita,” jolloin kasvaa paine “lohkoketjutilan, palkkioiden, MEV:n ja suoritustakuun laadun ympärillä.”
Fernando Lillo Aranda, Zoomexin markkinointijohtaja, näkee muutoksen vieläkin syvempänä. Hän toteaa:
”Kun tekoälyagentit ovat lohkoketju-ekosysteemin merkittävimmät osallistujat, siirrytään käyttäjälähtöisestä markkinarakenteesta autonomiseen taloudelliseen koordinaatioon.”
Tällöin lohkoketjut toimivat toteutusjärjestelminä koneiden omille strategioille.
Pauline Shangett, ChangeNOW:n CSO, vahvistaa tämän:
”Verkko ei enää palvele ihmisiä, vaan siellä toimii algoritmeja, joita ihmiset eivät pysty valvomaan reaaliajassa.”
Eksklusiivisissa haastatteluissa näiden neljän kryptopäättäjän kanssa BeInCrypto tarkasteli, miten DeFi muuttuu tekoälyagenttien noustessa sen suurimmiksi käyttäjiksi.
Agenttinen vastuu ei ole vielä saanut selvää vastausta
Kun tekoälyagentit voivat suorittaa tapahtumia, ottaa sopimuksia käyttöön tai siirtää varoja itsenäisesti, vastuun määrittäminen ongelmatilanteissa vaikeutuu.
Lazarichevin mukaan autonomian ei tule olla tekosyy.
”Tärkeintä on, ettei ‘agentti teki tämän’ voi olla vastuukierrepallo,” hän sanoo.
Hänen mielestään agentti kuitenkin toimii “jonkun valtuutuksella, henkilön tai organisaation asettamien oikeuksien ja rajojen puitteissa.” Tästä syystä ratkaisevia ovat seikat kuten “kuka otti agentin käyttöön, kuka määritteli asetukset, kuka hyötyy siitä ja kuka tarjosi mallin ja käyttöympäristön.”
Hän arvioi, että vastuu tukeutuu tuttuihin käytäntöihin.
”Jos otat käyttöön autonomisen järjestelmän, joka voi siirtää arvoa, sinulta odotetaan perusturvatoimia,” mukaan lukien ”käyttöoikeudet, kulutusrajat, transaktiosimulaatiot, hätäpysäytykset sekä lokitiedot.”
Shangettin mielestä nykyinen oikeudellinen ajattelu perustuu yhä vanhentuneisiin perusteisiin:
“Meillä on jo lakeja. Ne ovat vain 30 vuotta vanhoja ja tehty maailmaan, jossa ohjelmisto ei vastannut takaisin. .viitekehykset, joihin viitataan – ETHOS, NIST, uusi PLD – ovat kaikki paikkauksia järjestelmässä, jota ei ole tehty tätä varten. Tarvitaan jotakin uutta. Ja muun väittäminen on vastuutonta.”
Hän nostaa esiin syvemmänkin ongelman. “Agenttilaki olettaa, että agenttia voi haastaa oikeuteen. Tekoälyagenttiasi ei voi. Sillä ei ole lompakkoa, vakuutusta tai juridista henkilöllisyyttä.”
Identiteetti ei tarkoita enää vain ihmistä
Kun ketjussa toimii yhä enemmän itsenäisiä järjestelmiä, myös identiteetin rooli muuttuu. Verkkojen on tunnistettava, millainen toimija on kyseessä ja mitä se saa tehdä.
Lazarichevin mukaan “DID voi auttaa, mutta se ei ratkaise ’ihminen vai botti’ -ongelmaa yksiselitteisesti.”
Hänen mielestään tämä jako ei kuvaa järjestelmien toimintaa tarkasti. “Monet botit ovat laillisia toimijoita,” hän toteaa. “Olennaista on tunnistaa, millainen toimija kyseessä on ja mikä luotettavuustaso sillä on taustalla.”
Tämä johtaa tarkempiin pääsynhallintarakenteisiin. “Todennäköisempi malli on kerroksittainen käyttöoikeus: eri tunnisteet erilaisiin oikeuksiin,” Lazarichev sanoo.
Hän lisää, että identiteettijärjestelmien on toimittava yhdessä käyttäytymisen seurantajärjestelmien kanssa, erityisesti kun agentit hallinnoivat suuria summia tai tärkeitä toimintoja.
Lillo Aranda on samaa mieltä. ”Koneiden taloudessa ’käyttäjä’ on agentti – jolloin luotettavuudesta, deterministisyydestä ja yhteensopivuudesta tulee yksinkertaisuuden sijaan tärkeimmät suunnitteluprioriteetit,” hän toteaa.
Myös Shangett vahvistaa tämän näkemyksen. “Botit eivät enää ole varsinainen ongelma. Agentit ovat.”
Kaikki kolme asiantuntijaa painottavat, että identiteetti keskittyy jatkossa rooliin, oikeuksiin ja vastuuseen.
Lompakon turvallisuus murtuu prompt-kerroksessa
Autonomisille lompakoille suurin turvallisuusuhka ei enää välttämättä ole varastetut avaimet, vaan manipuloidut päätökset.
Lazarichev sanoo, että prompt injection on vaarallista, koska se ”kohdistuu päätöksentekokerrokseen, ei kryptografiaan.” Jos agentti hakee tietoa ulkoisista lähteistä, hyökkääjät voivat ”ohjata sitä tekemään jotain, mitä sen ei pitäisi: vaihtaa kohdeosoite, hyväksyä haitallinen sopimus, laajentaa oikeuksia tai ohittaa sisäisen tarkistuksen.”
Riski kasvaa nopeasti, jos lompakolla on laajat käyttöoikeudet. ”Ei tarvitse murtaa salausta, jos voi manipuloida järjestelmän hyväksymään väärän toiminnon”, Lazarichev toteaa.
Shangett nostaa esiin tarkemman uhkamallin.
”Kaikki ovat innoissaan, kun AI-agentit saavat lompakoita. Itseäni huolettaa enemmän, mitä tapahtuu, kun nuo lompakot saadaan vakuutettua tyhjentämään itse itsensä.”
Hän mainitsee Owockibotin esimerkkinä.
”Owockibot. Helmikuu tänä vuonna. AI-agentti, jolla oli kryptolompakko ja internet-yhteys. Viiden päivän kuluttua lanseerauksesta se julkaisi privaattiavaimensa GitHub-repossa. Kun siltä kysyttiin asiasta, agentti kielsi tehneensä mitään väärää. Kokonaisvahingot jäivät vain 2100 dollariin, koska joku oli tarpeeksi fiksu laittamaan sinne vain pienen kassan. Agenttia ei kuitenkaan hakkeroitu. Sille vain juteltiin tiedot ulos.”
Tämä muuttaa luonnollisesti turvallisuusmallia.
”Tämä on uusi hyökkäyspinta. Älysopimukset ovat deterministisiä: samat syötteet, samat tulokset, niitä voi auditoida ja testata. LLM-mallit eivät ole mitään näistä.”
Hän lisää:
”Kun AI-agentille annetaan lompakko, ei enää suojata vain koodia – suojataan mustaa laatikkoa, jota voidaan manipuloida sanoin.”
Hänen mielestään avainten säilytys ei enää yksin riitä.
”Privaattiavaimen turvallisuus ei ole ollut agenttilompakoiden ensisijainen uhkavektori. Avaimet voidaan laittaa TEE:hen, eristää muistista, tehdä kaikki kryptografiset kikkailut – ja silti agentti voidaan suostutella allekirjoittamaan haitallisia siirtoja, koska joku puhui sen ympäri.”
Molemmat asiantuntijat korostavat, että lompakon turvallisuuden määrittely vaatii uudistamista. Agenttitaloudessa turvallisuus kattaa sekä säilytyksen että sen, mitä agentti tulkitsee ja pystyy tekemään.
Lopuksi
Agenttitalouden nousu voi vaikuttaa siihen, mihin lohkoketjuja rakennetaan, ketä ne palvelevat ja mistä riskit alkavat.
Jos autonomisista järjestelmistä tulee suuria toimijoita lohkoketjussa, verkkojen täytyy tukea jatkuvaa konevetoista toimintaa ja samanaikaisesti selviytyä kokonaan uudenlaisista vaatimuksista toteutuksen, vastuun, identiteetin ja turvallisuuden suhteen.
Kuten Variola toteaa, rationaalisten agenttien ohjaama markkina voi olla yhteistyökykyisempi kuin perinteinen, tunnepohjainen ja usein kuluttava kryptomarkkina.
Lazarichev, Lillo Aranda ja Shangett tuovat kuitenkin esiin, että tämä tulevaisuus tuottaa vaikeampia kysymyksiä. Kun agentti voi siirtää, ottaa käyttöön ja reagoida ilman ihmisen väliintuloa jokaisessa vaiheessa, vastuun määrittely vaikeutuu, identiteetti hämärtyy ja lompakon turvallisuus ulottuu avainten suojaamisen ulkopuolelle aina päätöksentekoon asti.
Jos AI-agentit nousevat tärkeimmiksi toimijoiksi lohkoketjussa, Web3 tarvitsee järjestelmiä, jotka mahdollistavat autonomian säilyttäen samalla vastuun, hallinnan ja luottamuksen. Nämä asiat voivat olla yhtä tärkeitä kuin itse automaatio.