Den stigende brug af AI-drevne værktøjer til at skabe deepfake-indhold har vakt fornyet bekymring om den offentlige sikkerhed.
Efterhånden som teknologien bliver mere avanceret og let tilgængelig, rejser det også spørgsmål om pålideligheden af de systemer til visuel identitetsverificering, som centraliserede børser benytter.
Regeringer forsøger at begrænse deepfakes
Vildledende videoer spredes hurtigt via de sociale medier, hvilket øger frygten for en ny bølge af desinformation og fabrikeret indhold. Den stigende misbrug af teknologien undergraver i højere grad både offentlig sikkerhed og personlig integritet.
Problemet har nået nye højder, hvor regeringer verden over indfører lovgivning med det formål at gøre brugen af deepfakes ulovlig.
I denne uge blev Malaysia og Indonesien de første lande til at begrænse adgangen til Grok, chatbotten baseret på kunstig intelligens, udviklet af Elon Musks xAI. Myndighederne fortalte, at beslutningen blev truffet efter bekymringer over misbrug til at generere seksuelt eksplicitte og ikke-samtykkende billeder.
Californiens attorney general Rob Bonta annoncerede et lignende tiltag. På onsdag bekræftede han, at hans kontor efterforskede flere sager med ikke-samtykkende, seksualiserede billeder af virkelige personer.
“Dette materiale, der viser kvinder og børn i nøgne og seksuelt eksplicitte situationer, er blevet brugt til at chikanere folk på nettet. Jeg opfordrer xAI til straks at handle for at sikre, at det ikke fortsætter,” sagde Bonta i en udtalelse.
I modsætning til tidligere deepfakes kan nyere værktøjer svare dynamisk på forespørgsler. De efterligner troværdigt naturlige ansigtsbevægelser og synkroniseret tale.
Derfor kan simple tests som at blinke, smile eller bevæge hovedet ikke længere pålideligt bekræfte en brugers identitet.
Disse fremskridt har direkte betydning for centraliserede børser, der benytter visuel kontrol under onboarding-processen.
Centraliserede børser under pres
Den økonomiske påvirkning af deepfake-baseret svindel er ikke længere teoretisk.
Branchefolk og teknologiforskere har advaret om, at AI-skabte billeder og videoer i stigende grad benyttes i situationer som forsikringskrav og retlige tvister.
Kryptobørser, der opererer globalt og ofte benytter automatiseret onboarding, kan blive særligt attraktive mål for den slags, hvis sikkerhedsforanstaltningerne ikke udvikler sig i takt med teknologien.
Efterhånden som AI-genereret indhold bliver mere udbredt, kan tillid baseret alene på visuel bekræftelse ikke længere være tilstrækkelig.
Udfordringen for krypto-platforme bliver at tilpasse sig hurtigt nok, før teknologien overhaler de sikkerhedsforanstaltninger, der skal beskytte brugere og systemer.