Tilbage

Ocean Network vil omdanne ubrugte GPU’er til et globalt betalingsmarked for computerkraft

Vælg os på Google
author avatar

Skrevet af
Bradley Peak

editor avatar

Redigeret af
Shilpa Lama

16. marts 2026 13.30 UTC

Samtalen om AI compute starter ofte med mangel. GPU’er er dyre, cloud-kapacitet er begrænset, og mindre teams har svært ved at konkurrere med virksomheder, som kan reservere store mængder compute. Det største problem er dog koordinering.

Større mængder hardware står ubenyttet rundt omkring på markedet. Uafhængige operatører har ofte GPU’er, der ikke bliver brugt, mens udviklere mangler compute til inferens, embeddings, batchbehandling eller modeltilpasning.

Ocean Network fokuserer på at forbinde de to sider. Netværket kobler fragmenteret udbud med reel efterspørgsel via et peer-to-peer netværk, hvor containeriserede opgaver kører på eksterne noder og returnerer resultaterne til brugeren.

Ideas hos Ocean er, at ubrugt hardware kan blive en del af et flydende marked, når koordineringen fungerer godt.

AirBnB-metaforen er nyttig – extra værelser blev økonomisk interessante, da der dukkede lag som opdagelse, booking og fond op omkring dem. Ocean vil gøre noget lignende for compute, ved at omdanne spredte maskiner til et styrbart marked, som data scientists og udviklere kan få adgang til efter behov.

Hvad er Ocean-netværket?

Ocean Network anvender en enkel arbejdsgang. Brugeren vælger et compute-miljø, indsender en containeriseret opgave og får resultaterne, når eksekveringen er færdig. 

Inden eksekveringen starter i Ocean Orchestrator, finder brugere typisk ledig compute gennem Ocean Network Dashboard, der fungerer som hovedindgang til at gennemse nodekataloget, tjekke hardware-specifikationer og styre jobs og betalinger.

Her finder man også test-miljøer, som en hurtig CPU-test og støtteadgang til GPU-opgaver, så data scientists og udviklere nemt kan afprøve platformen, inden de kører større jobs.

Ocean Orchestrator er et editor-baseret værktøj, hvor udviklere kan oprette projekter, indsende jobs, overvåge status og hente outputs direkte fra deres udviklingsmiljø.

Udvidelsen fungerer i værktøjer som VS Code, Cursor og lignende editors. I stedet for at bruge en eksisterende Python- eller JavaScript-fil, starter man et nyt projekt, hvor udvikleren genererer de nødvendige filer fra skabeloner, inklusiv en algoritmefil, Dockerfile, dependencies-fil og .env-fil. Når det hele er sat op, kan jobs køre på eksterne noder uden manuel opsætning af maskiner.

Store cloud-udbydere tilbyder allerede brugsbaseret kurs for compute og GPU’er. De systemer kræver stadig, at brugeren vælger instanser og administrerer miljøer. Ocean fokuserer mere på at definere og køre selve opgaven.

Udviklere vælger et eksternt miljø, kører et workload og betaler for de ressourcer, der bruges under kørslen.

For container-opgaver som model-inferens eller batchbehandling føles processen mere som at udføre et job end at leje en maskine.

Oceans orkestreringslag

Ocean Orchestrator er centrum for oplevelsen. Distribueret compute lyder stærkt, men bliver hurtigt kompliceret, hvis brugerne selv skal styre eksterne systemer. Ocean forsøger at gøre arbejdsgangen så tæt på almindelig udvikling som muligt.

Udvidelsen lader udviklere oprette projekter, indsende compute-jobs, overvåge udførelsen og hente outputs i projektmappen. Den understøtter Python, JavaScript og brugerdefinerede containere og fungerer på editors såsom VS Code, Cursor, Antigravity og Windsurf.

Den tilgang får remote execution til at føles som en naturlig forlængelse af udviklingsmiljøet. Et job sendes fra editoren, kører på den valgte node og returnerer outputs, som udvikleren kan undersøge eller arbejde videre med. Orchestratoren hjælper med at koordinere netværket, så spredte maskiner opfører sig som en brugbar pool af compute-kapacitet.

Compute-to-Data sikkerhedsarkitektur

Sikkerhed og datasuverænitet er centrale elementer i løsningen. Oceans Compute-to-Data-model gør det muligt at køre algoritmer der, hvor dataene allerede befinder sig. Jobs kører i isolerede containere, og kun output returneres til brugeren.

Det er vigtigt for følsomme datasæt. Sundhedsdata, virksomhedsdata og forskningsdata kan ofte ikke deles frit mellem parter. Compute-to-Data lader analyse ske, mens de underliggende data forbliver under ejerens kontrol.

For AI og data science-processer åbner det for nye samarbejdsmuligheder. Forskere eller udviklere kan køre godkendte algoritmer, mens dataejeren bevarer lokal kontrol over sine aktiver. Netværket fungerer altså både som et flydende compute-marked og en sikker platform til decentral computation.

Betal efter forbrug versus reserveret infrastruktur

Oceans økonomi følger samme princip. Cloud-platforme som AWS og GCP tager allerede betaling efter forbrug, men udviklere reserverer stadig maskiner og styrer miljøer. Ocean lægger igen vægt på selve jobbet.

Brugeren vælger et compute-miljø ud fra tilgængelige GPU’er, CPU, RAM, diskplads, maksimal jobvarighed og valutatoken og sender derefter en containeriseret workload til noden via Ocean Orchestrator.

Jobbet kører eksternt med live-status og logs, og brugeren betaler ud fra de ressourcer, der forbruges i netop denne kørsel. Oceans egen proces inkluderer også, at jobbet finansieres i depot før start, med et samlet prisestimat på forhånd, så brugeren har et bedre overblik over kurs, inden eksekveringen starter.

I stedet for at reservere kapacitet på forhånd, matcher brugeren workloadet til et miljø med kendte grænser og lader netværket styre kørslen. Udbydere kan knytte afregningen til compute-forbrug, herunder tid og miljø, hvilket gør det muligt at prisfastsætte og fordele ressourcer mere detaljeret.

Hvad det betyder for to målgrupper

Ocean Network henvender sig til to grupper.

  • Data scientists og udviklere får adgang til et katalog af compute-miljøer, hvor de kan køre containeriserede workloads direkte fra deres editor. Jobs som embedding-generering, model-inferens eller databehandling kan udføres eksternt og leverer resultater direkte til det lokale projekt.
  • Node-operatører får mulighed for at tjene på ubenyttet compute-kapacitet. Ved at køre Ocean Nodes kan de udføre jobs for netværket og få betaling for de afsluttede arbejdsopgaver. Denne mulighed bliver åbnet for uafhængige node-ejere senere i Beta-fasen.

Sammen udgør disse elementer et koordineret computermarked. Udviklere får fleksibel adgang til distribueret computerkraft, mens hardwareejere får en mulighed for at tjene på ubrugte maskiner.

Sådan arbejder Ocean Network-teamet på at omdanne opsplittet kapacitet til noget, som AI-brugere kan opdage, benytte og stole på.

Ansvarsfraskrivelse

Alle oplysninger på vores hjemmeside offentliggøres i god tro og kun til generelle informationsformål. Enhver handling, der foretages af læserne på grundlag af oplysningerne på vores hjemmeside, er udelukkende på egen risiko.