Trusted

Vitalik Buterin varoittaa: superälykäs tekoäly voi saapua nopeammin kuin luulet

2 mins
Tekijä Ann Shibu
Päivittänyt Harsh Notariya

Lyhyesti

  • Ethereumin perustaja korostaa puolustavan kiihdyttämisen tarvetta superälykkäiden tekoälyuhkien hillitsemiseksi.
  • Buterin puoltaa tekoälyjärjestelmien sitomista ihmisten päätöksentekoon väärinkäytön riskien minimoimiseksi, erityisesti armeijoiden toimesta.
  • Hän ehdottaa vastuullisuussääntöjä, "pehmeitä taukopainikkeita" ja tekoälylaitteiston hallintaa vaarallisten edistysaskeleiden viivyttämiseksi.

Ethereum-yhteisön perustaja Vitalik Buterin on nostanut esiin huolenaiheita superälykkään tekoälyn riskeistä ja tarpeesta vahvalle puolustusmekanismille.

Buterinin kommentit tulevat aikana, jolloin tekoälyn nopea kehitys on lisännyt huolia tekoälyn turvallisuudesta merkittävästi.

Buterinin AI-sääntelysuunnitelma: vastuu, taukopainikkeet ja kansainvälinen valvonta

Blogikirjoituksessa 5. tammikuuta Vitalik Buterin esitteli ajatuksensa ‘d/acc tai puolustava kiihdytys’, jossa teknologiaa tulisi kehittää puolustamaan eikä aiheuttamaan vahinkoa. Tämä ei kuitenkaan ole ensimmäinen kerta, kun Buterin on puhunut tekoälyn riskeistä. 

“Yksi tapa, jolla väärin mennyt tekoäly voisi pahentaa maailmaa, on (lähes) pahin mahdollinen: se voisi kirjaimellisesti aiheuttaa ihmiskunnan sukupuuton,” Buterin sanoi vuonna 2023.

Buterin on nyt jatkanut teorioitaan vuodelta 2023. Hänen mukaansa superäly voi olla vain muutaman vuoden päässä olemassaolosta. 

 “On todennäköistä, että meillä on kolmen vuoden aikataulut AGI:lle ja toiset kolme vuotta superälylle. Ja jos emme halua maailman tuhoutuvan tai joutuvan peruuttamattomaan ansaan, emme voi vain kiihdyttää hyvää, meidän on myös hidastettava pahaa,” Buterin kirjoitti.

AI:hin liittyvien riskien vähentämiseksi Buterin puoltaa hajautettujen tekoälyjärjestelmien luomista, jotka pysyvät tiiviisti sidoksissa ihmisten päätöksentekoon. Varmistamalla, että tekoäly pysyy ihmisten käsissä olevana työkaluna, voidaan minimoida katastrofaalisten seurausten uhka.

Buterin selitti sitten, kuinka armeijat voisivat olla vastuullisia toimijoita ‘tekoälytuho’ -skenaariossa. Tekoälyn sotilaallinen käyttö on kasvussa maailmanlaajuisesti, kuten nähtiin Ukrainassa ja Gazassa. Buterin uskoo myös, että mikä tahansa voimaan tuleva tekoälysääntely todennäköisesti vapauttaisi armeijat, mikä tekee niistä merkittävän uhan.

Ethereum-yhteisön perustaja esitteli myös suunnitelmansa tekoälyn käytön sääntelyyn. Hän sanoi, että ensimmäinen askel tekoälyyn liittyvien riskien välttämiseksi on tehdä käyttäjistä vastuullisia.

“Vaikka yhteys siihen, miten malli kehitetään ja miten sitä lopulta käytetään, on usein epäselvä, käyttäjä päättää tarkalleen, miten tekoälyä käytetään,” Buterin selitti korostaen käyttäjien roolia.

Jos vastuullisuussäännöt eivät toimi, seuraava askel olisi ottaa käyttöön “pehmeät taukopainikkeet”, jotka mahdollistavat tekoälyn sääntelyn hidastaa mahdollisesti vaarallisten edistysaskeleiden tahtia.

“Tavoitteena olisi kyetä vähentämään maailmanlaajuisesti saatavilla olevaa laskentatehoa noin 90-99 % 1-2 vuoden kriittisenä aikana, jotta ihmiskunnalle saadaan lisää valmistautumisaikaa.”

Hän sanoi, että tauko voidaan toteuttaa tekoälyn sijainnin varmentamisella ja rekisteröinnillä.

Toinen lähestymistapa olisi hallita tekoälylaitteistoa. Buterin selitti, että tekoälylaitteistoon voitaisiin asentaa siru sen hallitsemiseksi.

Siru sallii tekoälyjärjestelmien toimia vain, jos ne saavat kolme allekirjoitusta kansainvälisiltä elimiltä viikoittain. Hän lisäsi, että ainakin yhden elimistä tulisi olla ei-sotilaallinen.

Kuitenkin Buterin myönsi, että hänen strategioissaan on aukkoja ja ne ovat vain ‘väliaikaisia hätäkeinoja’.

Vastuuvapauslauseke

Kaikki verkkosivustollamme olevat tiedot julkaistaan vilpittömässä mielessä ja ainoastaan yleiseen tiedottamiseen. Lukijan on toimittava verkkosivustomme tietojen perusteella täysin omalla vastuullaan.