AI deepfake-svindel er en stigende trussel i kryptovalutaindustrien. I en nylig sag lykkedes det hackere at stjæle 2 millioner dollars ved at udgive sig for at være grundlæggeren af Plasma, en specialiseret stablecoin-blockchain, og bruge falsk lyd til at berolige målet til at downloade farlig malware.
Derudover gør AI-kodning det muligt for lavt kvalificerede angribere at udvikle sofistikerede protokoller til deres forbrydelser.
Kunstig intelligens gør kryptobedragerier lettere end nogensinde før
Med det forhøjede niveau af kryptokriminalitet lige nu, er sofistikeret svindel og bedrageri stigende. Kriminelle benytter allerede forbedret social engineering til at bedrage brugere, men AI-løsninger har åbnet en ny angrebsvektor.
Specifikt bruger hackere AI deepfakes til at udføre disse svindelnumre og formår at bedrage fremtrædende mål.
Mere specifikt udgav hackeren sig for at være direktøren for Plasma, en layer-1 blockchain for stablecoin, som blev markant populær i de seneste måneder på grund af sin 500 millioner dollars ICO.
Deepfakes har allerede været en stor vektor for kryptokriminalitet, med 200 millioner dollars tab i 1. kvartal 2025 alene. Takket være den ret enestående hastighed af AI-udvikling for nylig, er disse deepfakes mere tilgængelige end nogensinde, hvilket muliggør kryptosvindel med en meget lav adgangsbarriere.
De kriminelle anvendelser for kunstig intelligens stiger
Selv hvor deepfakes ikke er involveret, har AI alligevel drevet mange kryptosvindel. Den lavt kvalificerede karakter af disse nye strategier er særligt tiltalende for kriminelle. For eksempel identificerede cybersikkerhedsvagthunde for nylig en ny wallet drainer udgivet af den anonyme “Kodane.” Det kan have været fuldstændig produceret af AI.
Ved undersøgelse af koden hævdede sikkerhedseksperter, at denne malware virkede teknisk dygtig, omend åbenlyst AI-genereret. Ikke desto mindre var de menneskelige svindlere ikke helt så dygtige og navngav programmet “ENHANCED STEALTH WALLET DRAINER.” Den kriminelles åbenlyse uduelighed fremhæver den reelle fare i denne nye angrebsvektor.
Et kig på den lyse side
Så, mellem AI-malware og nye deepfakes, er der nogen måde for kryptobrugere at undgå svindel? Som en nylig programmeringsbegivenhed viste, er disse programmer meget mere dygtige til angreb end forsvar.
I en nylig åben opfordring til at hacke AI-agenter for kontante præmier, var protokollernes forsvar chokerende dårlige:
Mellem sektorer som shopping, rejser, sundhed og mere, blev den mest sikre agent alligevel penetreret af 1,5% af hackingangrebene.
Mange identificerede sårbarheder var universelle og overførbare, og skar igennem alle agenter uanset deres basismodel. Den slags resultater ville være katastrofale for en reel virksomhed.
Alt dette siger, at der er en klar og aktuel grund til at holde menneskelige udviklere på den ene side af denne kamp. Selv hvis kryptosvindel anvender billig AI-malware og deepfakes, vil de stå over for menneskelige udviklere. Hvis det sker, bør dedikeret sikkerhedspersonale kunne forhindre dem.
I den førnævnte Plasma-sag stoppede eksisterende modforanstaltninger næsten angrebet. Malwaren kom kun igennem, efter at offeret forsøgte at downloade det to gange.
Med andre ord, en Web3-virksomhed med et menneskeligt sikkerhedsteam bør være sikker. Kryptobrugere forbliver mest sårbare på individuel basis.
Disclaimer
Alle oplysninger på vores hjemmeside offentliggøres i god tro og kun til generelle informationsformål. Enhver handling, der foretages af læserne på grundlag af oplysningerne på vores hjemmeside, er udelukkende på egen risiko.
