Kunstig intelligens-agenter dominerede ETHDenver 2026, fra autonome finansielle løsninger til blockchain-baseret robotteknologi. Men mens begejstringen for “agentbaserede økonomier” vokser, melder der sig et vanskeligere spørgsmål: kan institutioner bevise, hvad deres AI-systemer er blevet trænet på?
Blandt de startups, der arbejder på at løse dette problem, er Perle Labs, som mener, at AI-systemer har brug for en verificerbar kæde af forvaltning omkring deres træningsdata – især i regulerede og højrisikomiljøer. Med fokus på at skabe en gennemsigtig, troværdig datainfrastruktur for institutioner har Perle rejst $17,5 millioner indtil nu, hvor runden med seneste investering blev ledet af Framework Ventures. Andre investorer inkluderer CoinFund, Protagonist, HashKey og Peer VC. Virksomheden oplyser, at over én million annotatorer har bidraget med over en milliard vurderede datapunkter på platformen.
BeInCrypto talte med Ahmed Rashad, direktør for Perle Labs, under ETHDenver 2026. Rashad havde tidligere en ledende rolle hos Scale AI under deres hypervækst. I samtalen talte han om datakilder, modellernes sammenbrud, risici fra angreb og hvorfor han mener, at suveræn intelligens bliver en forudsætning for at anvende AI i kritiske systemer.
BeInCrypto: Du beskriver Perle Labs som “det suveræne intelligenslag for AI”. For læsere, der ikke kender debatten om datainfrastruktur – hvad betyder det faktisk i praksis?
Ahmed Rashad: “Ordet ‘suveræn’ er valgt med vilje og rummer flere lag.
Den mest bogstavelige betydning er kontrol. Hvis du er en regering, et hospital, en forsvarsvirksomhed eller en stor virksomhed, der implementerer AI i kritiske situationer, skal du eje intelligensen bag systemet – ikke overlade det til en black box, du ikke kan inspicere eller revidere. Suveræn betyder, at du ved, hvad din AI blev trænet på, hvem der har valideret det, og at du kan bevise det. Det er der de fleste i branchen ikke kan sige, at de kan i dag.
Den anden betydning er uafhængighed. At kunne handle uden ydre påvirkning. Netop det har institutioner som DoD eller virksomheder behov for, når de indfører AI i følsomme miljøer. Kritiske AI-systemer må ikke afhænge af datapipelines, du ikke kontrollerer, ikke kan verificere, og ikke kan beskytte mod manipulation. Det er ikke blot en teoretisk risiko. NSA og CISA har begge udstedt operationelle vejledninger om sårbarheder i datastrømmen som et spørgsmål om national sikkerhed.
Den tredje betydning er ansvarlighed. Når AI ikke bare genererer indhold, men også tager beslutninger – medicinske, finansielle, militære – skal nogen kunne svare: hvor kommer den viden fra? Hvem har kontrolleret det? Er denne registrering varig? Hos Perle ønsker vi, at hvert eneste bidrag fra hver annotator logges på blockchainen. Det kan ikke ændres. Netop den uforanderlighed gør ordet ‘suveræn’ korrekt og ikke bare et tomt ideal.
I praksis bygger vi et verifikations- og credential-lag. Hvis et hospital tager et AI-diagnosesystem i brug, skal de kunne spore ethvert datapunkt i træningssættet tilbage til en godkendt professionel, der har valideret det. Det er suveræn intelligens – det er det, vi mener.”
BeInCrypto: Du var en del af Scale AI under deres enorme vækst – også med store forsvarskontrakter og Meta’s investering. Hvad lærte det dig om, hvor traditionelle AI-datapipelines fejler?
Ahmed Rashad: “Scale var en utrolig virksomhed. Jeg var med i den periode, hvor man gik fra $90M til nu $29B, og jeg oplevede på tætteste hold, hvor hullerne opstår.
Hovedproblemet er, at datakvalitet og skala trækker i hver sin retning. Når du vokser hundrededobbelt, er presset altid at bevæge sig hurtigt: flere data, hurtigere annotering, lavere pris pr. mærkat. Præcision og ansvarlighed bliver ofrene. Du får uigennemsigtige forløb: du ved nogenlunde, hvad der kom ind, du har enkelte kvalitetsmålinger på det, der kommer ud – men midten er en black box. Hvem validerede dette? Var de kvalificerede? Var annoteringerne ensartede? Disse spørgsmål bliver nærmest umulige at besvare i stor skala med gammeldags modeller.
Det næste, jeg lærte, er, at menneskelige input næsten altid bliver betragtet som en omkostning, der skal minimeres, fremfor en kompetence der skal udvikles. Når du arbejder med en transaktionsmodel, hvor folk får betaling pr. opgave, og optimerer på gennemløb, falder kvaliteten over tid. Det slider på de bedste bidragsydere. De personer, som kan levere rigtig højkvalitets, ekspert-annoteringer, er ikke dem, der vil sidde og klikke sig igennem et mikroopgave-system i timevis for få øre. Hvis du vil have input af den kaliber, må du bygge systemet på en anden måde.
Den erkendelse er grundlaget for Perle. Dataudfordringen løses ikke med mere arbejdskraft, men ved at behandle bidragydere som professionelle, bygge verificerbar credentialing ind i systemet og sikre, at hele processen kan efterprøves fra start til slut.”
BeInCrypto: I har nået én million annotatorer og har over en milliard vurderede datapunkter. De fleste data-annoteringsplatforme benytter anonymt crowdarbejde. Hvad gør jeres model for omdømme grundlæggende anderledes?
Ahmed Rashad: “Kernen ligger i, at på Perle er din arbejdshistorik din egen og permanent. Når du løser en opgave, registreres dette bidrag, kvalitetsniveauet og hvordan det stemmer overens med eksperternes vurderinger på blockchainen. Det kan ikke ændres, ikke slettes, ikke flyttes. Over tid bliver det til en professionel credential, der vokser i værdi.
Sammenlign det med anonym crowdarbejde, hvor et individ reelt er udskifteligt. De har intet ansvar for kvaliteten, fordi deres omdømme ikke eksisterer – hver opgave er isoleret fra de forrige. Det incitamentssystem giver præcis det, man kan forvente: laveste indsats for at bestå.
Vores model vender det på hovedet. Bidragydere opbygger verificerbare track records. Platformen anerkender domæneekspertise. For eksempel opbygger en radiolog, der konsekvent leverer højkvalitets-annoteringer af medicinske billeder, en profil, der reflekterer det. Det omdømme giver adgang til større opgaver, bedre betaling og mere meningsfuldt arbejde. Det skaber en spiral: kvalitet forstærkes, fordi det belønnes.
Vi har passeret en milliard datapunkter gennem vores annotator-netværk. Det er ikke blot et volumen-tal, men en milliard sporbare, tilknyttede data-bidrag fra verificerede mennesker. Netop det er grundlaget for troværdig AI-træning, og det er strukturelt umuligt at opnå med anonym crowdarbejde.”
BeInCrypto: Model collapse diskuteres ofte i research-kredse, men sjældent i almindelige AI-debatter. Hvorfor tror du det, og bør flere bekymre sig?
Ahmed Rashad: “Det fylder ikke i den brede debat, fordi det er en langsom krise – ikke dramatisk. Model collapse, hvor AI-systemer trænet mere og mere på AI-genereret data mister nuancer og nærmer sig gennemsnittet, laver ikke overskrifter. Det giver en gradvis forringelse af kvaliteten, som er svær at opdage, indtil det er alvorligt.
Mekanikken er enkel: internettet fyldes med AI-genereret indhold. Modeller, der trænes på det, lærer af egne outputs snarere end reel menneskelig viden og erfaring. Hver generation af træning forstærker forvrængningerne. Det er et feedback-loop uden naturlig korrektion.
Bør flere være bekymrede? Ja, især i kritiske områder. Når model collapse rammer et system, der anbefaler indhold, får man dårligere anbefalinger. Men når det rammer et system for medicinsk diagnostik, juridisk vurdering eller forsvarsintelligens, er konsekvenserne markant anderledes. Grænsen for, hvor meget kvaliteten kan forringes, forsvinder.”
Derfor er det menneske-verificerede datalag ikke valgfrit, når kunstig intelligens flytter ind i kritisk infrastruktur. Du har brug for en konstant kilde til ægte, forskelligartet menneskelig intelligens til at træne imod; ikke AI-output, der blot er behandlet gennem en anden model. Vi har over en million annotatorer med reel ekspertise inden for snesevis af områder. Den forskellighed er modgiften til modelsammenbrud. Du kan ikke fikse det med syntetiske data eller mere computerkraft.”
BeInCrypto: Når AI går fra digitale miljøer til fysiske systemer, hvad ændrer sig så grundlæggende ved risiko, ansvar og de standarder, der anvendes på udviklingen?
Ahmed Rashad: Det er uigenkaldeligheden, der ændres. Det er kernen i det. En sprogmodel, der hallucinere, giver et forkert svar. Du kan rette det, markere det, komme videre. Et kirurgisk robotsystem, der handler på en forkert fortolkning, et selvkørende køretøj, der klassificerer forkert, en drone, der handler ud fra et forkert identificeret mål – de fejl kan ikke fortrydes. Omkostningerne ved fejl forskyder sig fra pinlige til katastrofale.
Det ændrer alt omkring, hvilke standarder der skal gælde. I digitale miljøer har AI-udvikling fået lov til at bevæge sig hurtigt og rette sig selv. I fysiske systemer kan den model ikke anvendes. Træningsdataene bag sådanne systemer skal verificeres inden ibrugtagning, ikke gennemgås efter en hændelse.
Det forandrer også ansvaret. I digitale sammenhænge er det forholdsvis let at sprede ansvaret – var det modellen? Dataene? Implementeringen? I fysiske systemer, især hvor mennesker rammes, vil myndigheder og domstole kræve klare svar. Hvem trænede denne? Med hvilke data? Hvem validerede de data, og efter hvilke standarder? De virksomheder og regeringer, der kan svare på de spørgsmål, vil få lov at operere. Dem, der ikke kan, vil møde et ansvar, de ikke havde forudset.
Vi byggede Perle præcis til den overgang. Menneske-verificeret, ekspert-baseret, on-chain auditerbar. Når AI begynder at styre lagre, operationsstuer og militære situationer, skal laget af intelligens nedenunder leve op til en anden standard. Den standard bygger vi mod.
BeInCrypto: Hvor reel er truslen om datapåvirkning eller fjendtlig manipulation i AI-systemer i dag, især på nationalt plan?
Ahmed Rashad: “Den er reel, dokumenteret og bliver allerede håndteret som en national sikkerhedsprioritet af folk med adgang til klassificeret viden om emnet.
DARPAs GARD-program (Guaranteeing AI Robustness Against Deception) har brugt flere år på at udvikle forsvar mod fjendtlige angreb på AI-systemer, herunder datapåvirkning. NSA og CISA udgav sammen i 2025 en vejledning, der direkte advarer om, at sårbarheder i datastrømmen og målrettet manipulerede træningsdata er troværdige trusler mod integriteten af AI-systemer. Det er ikke teoretiske notater – det er operationelle anbefalinger fra myndigheder, der ikke advarer om hypotetiske risici.
Angrebsfladen er omfattende. Hvis du kan påvirke træningsdataene for et AI-system, der bruges til trusselsdetektion, medicinsk diagnose eller logistikoptimering, behøver du ikke hacke systemet direkte. Du har allerede påvirket dets verdensbillede. Det er en langt mere elegant og sværere opdagebar angrebsmetode end klassisk cybersikkerhed.
Scale AIs kontrakt på 300 millioner dollars med Forsvarsministeriets CDAO om at implementere AI på klassificerede netværk eksisterer delvist, fordi regeringen forstår, at man ikke kan bruge AI, der er trænet på ikke-verificerede offentlige data, i følsomme miljøer. Spørgsmålet om datakilde er ikke akademisk på det niveau. Det er operationelt.
Det, der mangler i den brede debat, er, at det ikke kun er et regeringsproblem. Enhver virksomhed, der anvender AI i et konkurrencepræget miljø, finansielle tjenester, medicinalbranchen eller kritisk infrastruktur, har en fjendtlig dataeksponering, de nok ikke har fuldt overblik over. Truslen er reel. Forsvaret er stadig under opbygning.”
BeInCrypto: Hvorfor kan en regering eller en stor virksomhed ikke bare selv bygge dette verificeringslag? Hvad er det reelle svar, når nogen stiller spørgsmålstegn ved det?
Ahmed Rashad: “Nogle prøver. Og dem, der prøver, lærer hurtigt, hvad det reelle problem er.
Teknologien er den nemme del at bygge. Den svære del er netværket. Verificerede, kompetente eksperter – radiologer, lingvister, jurister, ingeniører, forskere – dukker ikke bare op, fordi du opretter en platform til dem. Du skal hverve dem, give dem godkendelse, opbygge incitamentstrukturer, der holder dem engagerede, og udvikle kvalitetskonsensusmekanismer, der gør deres bidrag betydningsfulde i stor skala. Det tager år, og kræver ekspertise, som de fleste myndigheder og firmaer ikke har internt.
Det næste problem er mangfoldighed. En offentlig instans, der laver sit eget verificeringslag, vil automatisk trække på et begrænset og relativt ensartet netværk. Fordelen ved et globalt ekspertnetværk er ikke kun godkendelse – det er bredden af perspektiv, sprog, kulturel forståelse og specialisering, som kun opnås ved at arbejde internationalt i stor skala. Vi har over en million annotatorer. Det kan man ikke bare kopiere internt.
Det tredje problem er incitamentdesign. At fastholde højkvalitets deltagere gennem tid kræver gennemsigtig, retfærdig og programmerbar belønning. Blockchain-infrastruktur muliggør det i et omfang, som interne systemer typisk ikke kan matche – uforanderlige bidragsregistre, direkte anerkendelse og verificerbare betalinger. Et statsligt indkøbssystem er ikke skabt til at håndtere det effektivt.
Det ærlige svar på modargumentet er: Du køber ikke kun et værktøj. Du får adgang til et netværk og et godkendelsessystem, der har taget år at bygge. Alternativet er ikke ‘gør det selv’, men ‘brug det, der allerede findes, eller accepter den datakvalitetsrisiko, der følger med ikke at have adgang’.”
BeInCrypto: Hvis AI bliver central national infrastruktur, hvor ligger det suveræne intelligenslag så om fem år?
Ahmed Rashad: “Om fem år tror jeg, det kommer til at ligne revisionsfunktionen i finansverdenen i dag – et ufravigeligt lag af verificering mellem data og anvendelse, med regulatorisk støtte og professionelle standarder koblet til.
Lige nu arbejder AI-udvikling uden noget, der ligner finansiel revision. Virksomhederne selvrapporterer om deres træningsdata. Der er ingen uafhængig validering, ingen faglig certificering af processen, ingen tredjeparts bekræftelse på, at intelligensen bag en model opfylder en fast standard. Vi er på et tidligt stadie, svarende til finansverdenen før Sarbanes-Oxley, hvor alt byggede på tillid og selvcertificering.
Når kunstig intelligens bliver kritisk infrastruktur – strømnet, sundhedssystemer, finansielle markeder, forsvar – holder den model ikke længere. Myndighederne vil kræve revision. Indkøb kræver verificerede datakilder som betingelse for aftaler. Erstatningsregler vil pålægge konsekvenser for fejl, der kunne være undgået med korrekt verifikation.
Perle skal ligge i det lag som verificerings- og dokumentationslag, den, der kan fremvise uforanderlige, auditerbare data over, hvad en model er trænet på, af hvem og efter hvilke standarder. Det er ikke bare en funktion fem år frem i tiden. Det bliver en forudsætning.
Det vigtige er, at suveræn intelligens ikke kun er relevant for forsvarsleverandører. Det er fundamentet, der gør det muligt at bruge kunstig intelligens i sammenhænge, hvor fejl har alvorlige konsekvenser. Og efterhånden som AI breder sig til flere områder, bliver dette fundament den mest værdifulde del af hele stakken.”