Ethereum medstifter Vitalik Buterin har advaret om risiciene forbundet med superintelligent AI og behovet for en stærk forsvarsmekanisme.
Buterins kommentarer kommer på et tidspunkt, hvor den hurtige udvikling af kunstig intelligens har ført til betydelig bekymring omkring AI-sikkerhed.
Buterins AI-reguleringsplan: Ansvar, pauseknapper og international kontrol
I et blogindlæg dateret 5. januar, skitserede Vitalik Buterin sin idé om ‘d/acc eller defensiv acceleration’, hvor teknologi bør udvikles til at forsvare snarere end at skade. Men det er ikke første gang, Buterin har talt om risiciene forbundet med kunstig intelligens.
“En måde, hvorpå AI kan gå galt og gøre verden værre, er (næsten) den værst mulige: det kan bogstaveligt talt forårsage menneskelig udryddelse,” sagde Buterin i 2023.
Buterin har nu fulgt op på sine teorier fra 2023. Ifølge Buterin er superintelligens potentielt kun få år fra at eksistere.
“Det ser ud til, at vi har tre års tidslinjer indtil AGI og yderligere tre år indtil superintelligens. Og derfor, hvis vi ikke ønsker, at verden skal blive ødelagt eller falde i en irreversibel fælde, kan vi ikke kun accelerere det gode, vi skal også bremse det dårlige,” skrev Buterin.
For at mindske AI-relaterede risici foreslår Buterin oprettelsen af decentraliserede AI-systemer, der forbliver tæt forbundet med menneskelig beslutningstagning. Ved at sikre, at AI forbliver et værktøj i menneskers hænder, kan truslen om katastrofale udfald minimeres.
Buterin forklarede derefter, hvordan militæret kunne være de ansvarlige aktører for et ‘AI doom’ scenarie. AI’s militære anvendelse stiger globalt, som det blev set i Ukraine og Gaza. Buterin mener også, at enhver AI-regulering, der træder i kraft, sandsynligvis vil undtage militæret, hvilket gør dem til en betydelig trussel.
Ethereum medstifteren skitserede yderligere sine planer for at regulere AI-brug. Han sagde, at det første skridt i at undgå risici forbundet med AI er at gøre brugerne ansvarlige.
“Mens forbindelsen mellem, hvordan en model udvikles, og hvordan den ender med at blive brugt, ofte er uklar, beslutter brugeren præcis, hvordan AI bruges,” forklarede Buterin og fremhævede den rolle, brugerne spiller.
Hvis ansvarsreglerne ikke virker, ville det næste skridt være at implementere “bløde pause”-knapper, der tillader AI-regulering at bremse tempoet for potentielt farlige fremskridt.
“Målet ville være at have kapaciteten til at reducere verdensomspændende tilgængelig computerkraft med ~90-99% i 1-2 år i en kritisk periode, for at købe mere tid til menneskeheden til at forberede sig.”
Han sagde, at pausen kan implementeres ved AI-lokationsverifikation og registrering.
En anden tilgang ville være at kontrollere AI-hardware. Buterin forklarede, at AI-hardware kunne udstyres med en chip til at kontrollere det.
Chippen vil tillade AI-systemerne at fungere, kun hvis de får tre underskrifter fra internationale organer ugentligt. Han tilføjede yderligere, at mindst et af organerne bør være ikke-militært tilknyttet.
Ikke desto mindre indrømmede Buterin, at hans strategier har huller og kun er ‘midlertidige nødløsninger’.
Disclaimer
Alle oplysninger på vores hjemmeside offentliggøres i god tro og kun til generelle informationsformål. Enhver handling, der foretages af læserne på grundlag af oplysningerne på vores hjemmeside, er udelukkende på egen risiko.