Tilbage

Bør brugere af centraliserede børser være bekymrede for fremskridt inden for deepfakes?

editor avatar

Redigeret af
Mohammad Shahid

14. januar 2026 21.46 UTC
  • AI-genererede deepfakes spreder sig hurtigt, hvilket fører til globale regler og skaber nye bekymringer om digital fond.
  • Udfordringer med syntetisk video i realtid for selfie- og live-tjek i centraliserede exchanges KYC-systemer.
  • Uden stærkere beskyttelse kan automatiseret onboarding udsætte centraliserede børser for stigende bedrageri og misbrug af identitet.

Den stigende brug af AI-drevne værktøjer til at skabe deepfake-indhold har vakt fornyet bekymring om den offentlige sikkerhed.

Efterhånden som teknologien bliver mere avanceret og let tilgængelig, rejser det også spørgsmål om pålideligheden af de systemer til visuel identitetsverificering, som centraliserede børser benytter.

Regeringer forsøger at begrænse deepfakes

Vildledende videoer spredes hurtigt via de sociale medier, hvilket øger frygten for en ny bølge af desinformation og fabrikeret indhold. Den stigende misbrug af teknologien undergraver i højere grad både offentlig sikkerhed og personlig integritet.

Problemet har nået nye højder, hvor regeringer verden over indfører lovgivning med det formål at gøre brugen af deepfakes ulovlig.

I denne uge blev Malaysia og Indonesien de første lande til at begrænse adgangen til Grok, chatbotten baseret på kunstig intelligens, udviklet af Elon Musks xAI. Myndighederne fortalte, at beslutningen blev truffet efter bekymringer over misbrug til at generere seksuelt eksplicitte og ikke-samtykkende billeder.

Californiens attorney general Rob Bonta annoncerede et lignende tiltag. På onsdag bekræftede han, at hans kontor efterforskede flere sager med ikke-samtykkende, seksualiserede billeder af virkelige personer.

“Dette materiale, der viser kvinder og børn i nøgne og seksuelt eksplicitte situationer, er blevet brugt til at chikanere folk på nettet. Jeg opfordrer xAI til straks at handle for at sikre, at det ikke fortsætter,” sagde Bonta i en udtalelse.

I modsætning til tidligere deepfakes kan nyere værktøjer svare dynamisk på forespørgsler. De efterligner troværdigt naturlige ansigtsbevægelser og synkroniseret tale.

Derfor kan simple tests som at blinke, smile eller bevæge hovedet ikke længere pålideligt bekræfte en brugers identitet.

Disse fremskridt har direkte betydning for centraliserede børser, der benytter visuel kontrol under onboarding-processen.

Centraliserede børser under pres

Den økonomiske påvirkning af deepfake-baseret svindel er ikke længere teoretisk.

Branchefolk og teknologiforskere har advaret om, at AI-skabte billeder og videoer i stigende grad benyttes i situationer som forsikringskrav og retlige tvister.

Kryptobørser, der opererer globalt og ofte benytter automatiseret onboarding, kan blive særligt attraktive mål for den slags, hvis sikkerhedsforanstaltningerne ikke udvikler sig i takt med teknologien.

Efterhånden som AI-genereret indhold bliver mere udbredt, kan tillid baseret alene på visuel bekræftelse ikke længere være tilstrækkelig.

Udfordringen for krypto-platforme bliver at tilpasse sig hurtigt nok, før teknologien overhaler de sikkerhedsforanstaltninger, der skal beskytte brugere og systemer.

Ansvarsfraskrivelse

Alle oplysninger på vores hjemmeside offentliggøres i god tro og kun til generelle informationsformål. Enhver handling, der foretages af læserne på grundlag af oplysningerne på vores hjemmeside, er udelukkende på egen risiko.