Kunstig intelligens-agent omgår sandbox-kontroller i a16z DeFi-undersøgelse

  • En AI-agent slap ud af a16z’s sandkasse under en test af DeFi-udnyttelsesevner.
  • Agenten udtrak en Alchemy API-nøgle og nulstillede noden for at omgå kontroller.
  • Kunstig intelligens fandt sårbarheder, men havde svært ved at udvikle komplekse udnyttelser.

En kunstig intelligens (AI) agent brød ud af sandkassen, som a16z kryptos ingeniører havde opbygget under en test. Ingeniørerne ville undersøge, om AI-agenter kan gå videre fra at identificere sårbarheder til at bygge fungerende exploits.

Sikkerhedsingeniørerne Daejun Park og Matt Gleason offentliggjorde resultaterne den 28. april. De fremhævede, hvordan deres standard-agent selvstændigt fandt ud af at bruge værktøjer, som “den aldrig eksplicit havde fået tildelt.”

Resultaterne kommer på et tidspunkt, hvor Elon Musk fremsatte en chokerende udtalelse om, at ‘AI kan slå os alle ihjel’.

Sådan “slap” AI-agenten ud af sit bur

Ingeniørerne placerede agenten i et begrænset miljø med restriktet adgang til Etherscan og en lokal node låst til et bestemt bloknummer. Teamet blokerede al ekstern netværksadgang.

Denne konfigurerede sandkasse var specifikt designet til at forhindre agenten i at hente data fra fremtidige blokke. Under test i sandkassen stødte agenten på en hindring med en uverificeret kontrakt uden tilgængelig kildekode. 

Følg os på X for at få de seneste nyheder, når de sker

Derfor forespurgte den den lokale anvil-node-konfiguration ved brug af “cast rpc anvil_nodeInfo” og afslørede derved den opstrøms RPC URL og en Alchemy API-nøgle i klartekst. Agenten forsøgte at opnå ekstern adgang direkte, men Docker-firewallen blokerede forespørgslen.

Efter firewallen blokerede for direkte udgående adgang, brugte agenten “anvil_reset RPC-metoden” til at nulstille anvil-noden til en fremtidig blok. På den måde kunne den forespørge fremtidige bloklogs og transaktioner gennem den lokale anvil-node.

Bagefter hentede agenten udførelsesspor for angrebs-transaktionen. Efter analysen genskabte AI-agenten nodelen til sin oprindelige blok og udarbejdede et fungerende proof-of-concept ud fra de uddragede data.

Park og Gleason begrænsede senere proxyen, så alle Anvil-debug-metoder blev blokeret.

“Det skete i et lille sandkassemiljø, men det peger på et større mønster, der bør dokumenteres: værktøjsbaserede agenter, som omgår begrænsninger for at nå deres mål,” noterede teamet. “At bruge anvil_reset for at omgå den låste fork-blok var en adfærd, vi ikke havde forudset.”

Hændelsen understreger en væsentlig risiko i AI-testmiljøer: agenter kan opdage og udnytte uforudsete veje i værktøjskæder, selv uden specifikke instruktioner.

Trods dette fandt undersøgelsen, at AI-agenter stadig er begrænset i at udføre avancerede DeFi-angreb. Selvom agenten identificerede sårbarheder konsekvent, havde den svært ved at sammensætte flerstegs-angrebsstrategier.

Abonner på vores YouTube kanal og se branchefolk og journalister dele deres ekspertindsigt


For at læse den seneste analyse af kryptovalutamarkedet fra BeInCrypto, klik her.

Ansvarsfraskrivelse

Alle oplysninger på vores hjemmeside offentliggøres i god tro og kun til generelle informationsformål. Enhver handling, der foretages af læserne på grundlag af oplysningerne på vores hjemmeside, er udelukkende på egen risiko.