Hvis autonome agenter bliver de dominerende brugere af DeFi, begynder blockchains at udføre en anden opgave. De fungerer som koordinations- og afviklingssystemer for software i stedet for områder styret af menneskers timing, stemning og spekulation.
Federico Variola, direktør for Phemex, siger, at det kan forbedre udviklingen af on-chain-aktivitet. Han udtaler:
“For nyligt har blockchain-økosystemerne haft problemer, fordi mange tokens ikke er lykkedes med at opnå nok momentum, og meget af aktiviteten er blevet til PvP-trading, hvor brugere forsøger at udtrække værdi fra hinanden.”
Ifølge ham ”kan agenter handle mere samarbejdsvilligt end udnyttende, simpelthen fordi de ofte handler mere rationelt end menneskelige deltagere.”
Dmitry Lazarichev, medstifter af Wirex, fokuserer på hvordan det ændrer adfærd:
“Når agenter bliver de vigtigste aktører, begynder kæden at opføre sig mindre som en markedsplads for mennesker og mere som et stykke maskininfrastruktur.”
“Aktivitet bliver kontinuerlig: agenter venter ikke på markedstimer, de bliver ikke trætte, og de handler ikke på humør.”
Den aktivitet øger effektiviteten, men skaber også nye sårbarheder. Hvis agenter benytter lignende input, siger Lazarichev:
“Du kan få flokadfærd og skarpe feedback-loops,” med øget pres omkring “blockspace, gebyrdynamik, MEV og kvaliteten af udførelsesgarantier.”
Fernando Lillo Aranda, Marketingdirektør hos Zoomex, mener, at overgangen rækker endnu dybere. Han udtaler:
“Når AI-agenter bliver de dominerende deltagere i et blockchain-økosystem, går vi fra en brugerbaseret markedsstruktur til et system af autonom økonomisk koordinering.”
I et sådant miljø begynder blockchains at fungere som afviklingssystemer for maskin-indfødte strategier.
Pauline Shangett, CSO hos ChangeNOW, bakker op:
“Netværket tjener ikke længere mennesker, men huser algoritmer, som mennesker ikke længere kan overvåge i realtid.”
I eksklusive interviews med disse fire kryptoledere undersøgte BeInCrypto, hvordan DeFi forandrer sig, når AI-agenter bliver de primære brugere.
Agentisk ansvar har endnu ikke et klart svar
Hvis AI-agenter kan gennemføre transaktioner, deployere contracts eller flytte midler autonomt, bliver det sværere at placere ansvaret, hvis noget går galt.
Lazarichev siger, at autonomi ikke må bruges som undskyldning.
“Hovedpointen er, at ‘agenten gjorde det’ ikke må blive et smuthul for ansvar,” siger han.
Han mener, at en agent stadig handler ”under nogens ansvar, med tilladelser og begrænsninger sat af en person eller organisation.” Dermed bør fokus være på “hvem der deployerede den, hvem der konfigurerede den, hvem der har fordel af den, og hvem der leverede modellen og driftsmiljøet.”
Han siger, at løsningen vil bygge på velkendte standarder.
“Hvis du deployerer et autonomt system, der kan flytte værdi, bør du forvente at have grundlæggende sikkerhedsforanstaltninger på plads,” inklusive “rettighedsstyring, forbrugsgrænser, simulering af transaktioner, sikkerhedsafbrydere og revisionslogs.”
Shangett påpeger, at gældende lovgivning stadig hviler på forældede rammer:
“Vi har allerede love. De er bare 30 år gamle og lavet til en verden, hvor software ikke kunne svare igen. Rammerne folk refererer til, ETHOS, NIST, den nye PLD, det er alle lappeløsninger på et system, der ikke var bygget til det her. Vi har brug for noget nyt. At tro andet er bare uansvarligt.”
Hun fremhæver også et dybere problem. “Agentlovgivningen antager, at agenten kan sagsøges. Din AI-agent kan ikke. Den har ingen wallet, ingen forsikring, ingen juridisk status.”
Identitet betyder ikke kun menneske
Efterhånden som flere autonome systemer arbejder on-chain, får identitet også en ny rolle. Netværk skal afgøre, hvilken type aktør de har med at gøre, og hvad den aktør må gøre.
Lazarichev siger, at “DID kan hjælpe, men det løser ikke ‘menneske vs bot’ på en simpel, sort-hvid måde.”
Han mener, at denne skelnen ikke afspejler, hvordan systemerne egentligt fungerer. “Mange bots vil være legitime deltagere,” siger han. “Det vigtige er at kunne afgøre, hvilken form for aktør der er tale om, og hvilket sikkerhedsniveau der er bag.”
Det fører til mere nuanceret adgangskontrol. “Den mere realistiske model er lagdelt adgang: forskellige legitimationsoplysninger til forskellige rettigheder,” siger Lazarichev.
Han tilføjer, at identitetssystemer skal fungere sammen med overvågning af adfærd, især når agenter håndterer vigtige handlinger.
Lillo Aranda er enig. “I en maskin-økonomi er ‘brugeren’ en agent – så pålidelighed, determinisme og sammensætning erstatter enkelhed som designprioritet,” siger han.
Shangett bakker også op om synspunktet. “Bots er ikke længere problemet. Det er nu agenterne.”
Alle tre eksperters vurderinger peger på en model, hvor identitet handler om rolle, rettigheder og ansvarlighed.
Wallet-sikkerheden bryder ved prompt-laget
For autonome wallets er den største risiko for værdipapirer måske ikke stjålne nøgler, men manipulerede beslutninger.
Lazarichev siger, at prompt injection er farligt, fordi det “rammer beslutningslaget og ikke selve kryptografien.” Hvis en agent får input udefra, kan angribere “få den til at gøre noget, den ikke burde: ændre en destinationsadresse, godkende en ondsindet kontrakt, udvide tilladelser eller omgå en intern kontrol.”
Den risiko vokser hurtigt, når en wallet har bred adgang. “Du behøver ikke bryde kryptering, hvis du kan manipulere systemet til at godkende den forkerte handling,” siger Lazarichev.
Shangett peger på en mere specifik trusselmodel.
“Alle er begejstrede for, at AI-agenter får wallets. Jeg er mere bekymret for, hvad der sker, når de wallets bliver overtalt til at tømme sig selv.”
Hun nævner Owockibot som eksempel.
“Owockibot. Februar i år. En AI-agent med en crypto wallet og internetadgang. Fem dage efter lancering offentliggjorde agenten sine private nøgler i et GitHub-repo. Da agenten blev spurgt om det, nægtede den at have gjort noget galt. Det samlede tab var kun $2100, fordi nogen var klog nok til kun at give den en lille treasury. Men agenten blev ikke hacket. Den blev overtalt til at lække.”
Det ændrer naturligvis sikkerhedsmodellen.
“Det her er den nye angrebsflade. Smart contracts er deterministiske, samme input, samme output, kan revideres og testes. LLM’er er ikke nogen af disse ting.”
Hun tilføjer:
“Giv en AI-agent en wallet, og du sikrer ikke længere kun kode – du sikrer en sort boks, der kan manipuleres med ord.”
I hendes optik er det derfor, at nøgleforvaltning alene ikke er tilstrækkelig.
“Sikkerhed for private nøgler var aldrig den primære trusselsvektor for agent wallets. Du kan gemme nøgler i en TEE, isolere dem fra hukommelsen, lave alle kryptografiske øvelser, og agenten kan stadig manipuleres til at vælge at underskrive ondsindede transaktioner, fordi nogen har overtalt den til det.”
Begge eksperter peger på, at wallet-sikkerhed skal omdefineres. I en agentisk økonomi gælder det både forvaltning og hvad agenten kan fortolke og handle på.
Afsluttende tanker
Udbredelsen af den agentdrevne økonomi kan påvirke, hvad blockchains skal kunne, hvem de henvender sig til, og hvor risiko opstår.
Hvis autonome systemer bliver store aktører on-chain, skal netværk understøtte konstant maskindrevet aktivitet og håndtere helt andre former for pres omkring eksekvering, ansvar, identitet og sikkerhed.
Som Variola antyder, kan et marked styret af rationelle agenter blive mere samarbejdende end de udnyttende, følelsesdrevne miljøer, der ofte har præget krypto.
Lazarichev, Lillo Aranda og Shangett viser samtidig, at denne fremtid stiller sværere spørgsmål. Når agenter kan handle, udrulle og reagere uden menneskelig indblanding i hvert trin, bliver det sværere at placere ansvar, sværere at definere identitet, og wallet-sikkerhed omfatter ikke kun nøglebeskyttelse, men også selve beslutningsprocessen.
Hvis AI-agenter bliver de primære aktører on-chain, får Web3 brug for systemer, der kan håndtere autonom aktivitet og samtidig bevare ansvar, kontrol og fond. Det kan vise sig lige så afgørende som automatiseringen selv.