Tilbage

0G træner 107B modellen offentligt, mens decentraliseret kunstig intelligens går ind i en ny fase

Vælg os på Google
author avatar

Skrevet af
Bradley Peak

editor avatar

Redigeret af
Dmitriy Maiorov

27. marts 2026 14.47 UTC
  • 0g siger, at dens DiLoCoX-107B-model allerede blev trænet i juli 2025, måneder før den seneste bølge af opmærksomhed omkring decentraliseret kunstig intelligens.
  • Forskningen rapporterede om en 107B-parametermodel, trænet over 1 Gbps netværksforbindelser med 357x bedre kommunikationseffektivitet end almindelig AllReduce.
  • Den offentlige omskolingsindsats sætter gennemsigtighed i centrum med åben dokumentation, verificeringspåstande og en planlagt open source-udgivelse af modelvægte.

med lille opmærksomhed.

0G siger, at de passerede en vigtig grænse for flere måneder siden. Nu genoplærer de den samme model offentligt for at vise, hvad decentraliseret AI faktisk kan levere, og hvorfor deres tidligere resultat fortjente mere opmærksomhed.

I juli 2025 trænede 0G en model med 107 milliarder parametre kaldet DiLoCoX-107B sammen med China Mobile. Forskningen blev senere offentliggjort på arXiv efter peer review. Ifølge papiret nåede systemet 357 gange bedre kommunikationseffektivitet end traditionelle AllReduce-metoder. Men resultatet vakte næsten ingen opsigt på markedet.

Teamet siger, at timingen arbejdede imod dem. Midt i 2025 var kryptomarkedets opmærksomhed rettet mod mainnet-lanceringer og tokens, mens tekniske resultater vakte langt mindre interesse. Arbejdet var seriøst, men fik kun begrænset opmærksomhed uden for en lille kreds, som fulgte området tæt.

Nu, hvor decentraliseret AI igen er i fokus, vil 0G gerne bringe resultatet frem igen.

En offentlig omskolingsindsats

Denne gang deler virksomheden hele retræningsprocessen offentligt.

0G planlægger at dokumentere hvert trin, herunder checkpoints, målinger på konvergens og dataindsamling. De oplyser også, at retræningen bliver verificeret gennem Trusted Execution Environments med zerogAuth. Når arbejdet er færdigt, bliver modelvægtningen open source.

I sidste ende vil 0G vise, at decentral AI kan auditeres, gentages og verificeres på en måde, som de fleste lukkede systemer ikke kan matche.

Mere end en parameterkonkurrence

Meget AI-dækning kredser stadig om antal parametre. Større tal tiltrækker opmærksomhed, men 0G mener, at en models værdi stammer fra hele systemet omkring den.

For teamet begynder den virkelige prøve med træningen og fortsætter gennem verifikation, lagring, brug og integration i virkelige produkter.

Et af de største tekniske punkter er kommunikationseffektivitet. DiLoCoX bruger pipeline-parallelisering, en dobbelt optimeringsstrategi for lokale og globale opdateringer, en ét-trins forsinkelse overlappingsmekanisme og adaptiv gradientkompression. Kort sagt reducerer designet den nødvendige kommunikation under distribueret træning, hvilket ofte er flaskehalsen i disse systemer.

0G sætter også modellen ind i en komplet stak, der indeholder verifikation på kæden, decentraliseret lagring, data-tilgængelighed, inferens og afregning. Resultatet er et egentligt arbejdsmiljø – ikke blot en enkeltstående forskningsdemo.

Verifikation er også en del af målet. Med Trusted Execution Environments kan brugere tjekke mere end blot en models eksistens. De kan inspicere, hvordan den blev trænet, og hvilke data der indgik i processen. For decentraliseret AI ændrer det fondens fundament på en væsentlig måde.

Den egentlige historie er båndbredde

Ifølge 0G var det vigtigste ved DiLoCoX-107B-resultatet måden, modellen blev trænet på.

Teamet fortæller, at 107B-modellen kørte på standard internethastigheder (én gigabit per sekund) frem for specialiserede datacentre. Den pointe udfordrer en af de største antagelser i AI: at avanceret træning kræver sjældne og dyre netværksmiljøer.

Hvis det holder over tid, kan det få stor betydning. Færre tekniske krav åbner op for langt flere deltagere – fra forskningsgrupper til virksomheder og offentlige institutioner. Her bliver koordinering den største udfordring, og decentraliserede systemer er skabt til netop den slags problemer.

En anden omkostningsmodel

0G siger også, at deres system sænker omkostningerne med cirka 95 % i forhold til centrale alternativer.

Virksomheden tilskriver besparelsen, at dyrt centralt overhead fjernes – ikke billigere hardware. Hvis tallene også holder i praksis, får mange flere organisationer adgang til avanceret modeltræning, heriblandt universiteter, virksomheder og myndigheder som ikke har råd til hyperscale AI-budgetter.

Det kan ændre, hvem der får mulighed for at bygge seriøse modeller.

Kan decentraliseret kunstig intelligens konkurrere?

Skeptikere har længe hævdet, at decentraliseret AI ikke kan følge med på ydelse. 0G mener, at det gamle kompromis er ved at svækkes.

Efterhånden som resultaterne bliver bedre og omkostningerne falder, handler debatten mindre om ideologi og mere om output. Kan systemet træne stærke modeller, verificere dem og gøre det til en pris flere kan betale?

Åben deltagelse indebærer dog stadig reel risiko. Distribueret træning kan gøre systemerne udsatte for datagiftning, gradientmanipulation og varierende bidragskvalitet. 0G fortæller, at de imødegår disse problemer med arkitektoniske beskyttelser, anomali-detektion og kryptografisk verifikation.

Hensigten er ikke perfekt sikkerhed. Det handler om at gøre fejl synlige og sporbare.

Hvad verificerbar kunstig intelligens egentlig betyder

For 0G handler verificerbar AI om at bytte tillid baseret på ry ud med tillid baseret på inspektion.

I stedet for blot at stole på en udbyder får brugerne mulighed for selvstændigt at undersøge, hvordan en model blev trænet, og hvordan den fungerer. Det har en klar værdi især i sektorer med stort ansvar, bl.a. finans, sundhed og myndigheder.

Her begynder decentraliseret AI at skille sig ud, fordi folk kan inspicere systemerne i stedet for bare at skulle stole på dem.

Fra research-demo til fungerende system

Den decentraliserede AI-branche har på kort tid taget store skridt. Tidlige proof-of-concept-forsøg bliver nu til systemer udviklet til træning, verifikation, lagring, inferens og økonomisk afregning – alt sammen i ét miljø.

0G ønsker, at DiLoCoX-107B skal stå som bevis på den udvikling. Den offentlige retræning handler lige så meget om proces som ydelse. Virksomheden vil bevise, at decentraliseret AI kan skabe seriøse modeller og samtidig være åben for inspektion.

Vejen frem

Større modeller ligger stadig ude i horisonten. 0G forventer, at modeller med hundredvis af milliarder – og senere billioner – er inden for rækkevidde.

Næste fase afhænger mindre af et stort teknisk gennembrud og mere af bedre koordinering og stærkere netværksdeltagelse. I decentraliseret AI kan organisering vise sig at være lige så vigtig som regnekraft.

Genoptræningen af DiLoCoX-107B er et forsøg på at genstarte en samtale, som 0G mener, markedet overså første gang. Det er også en test af, om åben, verificerbar kunstig intelligens kan vinde opmærksomhed på baggrund af resultater i stedet for hype.

Lige nu satser virksomheden på, at offentlig genoptræning, gennemsigtig dokumentation og åben adgang vil give decentral kunstig intelligens et stærkere fodfæste i næste konkurrence.

Ansvarsfraskrivelse

Alle oplysninger på vores hjemmeside offentliggøres i god tro og kun til generelle informationsformål. Enhver handling, der foretages af læserne på grundlag af oplysningerne på vores hjemmeside, er udelukkende på egen risiko.