Takaisin

Perle Labsin toimitusjohtaja Ahmed Rashad siitä, miksi tekoäly tarvitsee varmennettavan data-infrastruktuurin

Valitse meidät Googlessa
author avatar

Kirjoittanut
Lynn Wang

editor avatar

Toimittanut
Maria Maiorova

20 helmikuu 2026 16.52 UTC

ETHDenver 2026:ssa AI-agentit olivat vahvasti esillä, ulottuen autonomisesta taloudesta lohkoketjurobotiikkaan. Agenttitalouksista käytävä innostus herättää kuitenkin vaikeamman kysymyksen: Voivatko instituutiot todistaa, mihin niiden tekoälyjärjestelmät on koulutettu?

Yksi tähän ongelmaan keskittyvistä start-upeista on Perle Labs, joka katsoo, että tekoälyjärjestelmät tarvitsevat todennettavissa olevan koulutusdatan ketjun, erityisesti säädellyissä ja korkean riskin ympäristöissä. Perle rakentaa auditoitavaa ja kelpuutettua data-alustaa instituutioille, ja yritys on kerännyt tähän mennessä 17,5 miljoonaa dollaria rahoitusta. Viimeisintä rahoituskierrosta johti Framework Ventures. Muihin sijoittajiin kuuluvat CoinFund, Protagonist, HashKey ja Peer VC. Yrityksen mukaan yli miljoona merkkaajaa on tuottanut alustan kautta yli miljardi pisteytettyä datapistettä.

BeInCrypto haastatteli Ahmed Rashadia, Perle Labsin toimitusjohtajaa, ETHDenver 2026:n yhteydessä. Rashad toimi aiemmin operatiivisessa johtotehtävässä Scale AI:lla yhtiön hyperkasvun aikana. Keskustelussa hän avasi datan alkuperää, mallien rappeutumista, haitallisia riskejä ja sitä, miksi hän uskoo suvereenin tiedon olevan edellytys tekoälyn käyttöönotossa kriittisissä järjestelmissä.

BeInCrypto: Kuvailette Perle Labsia “tekoälyn suvereniteetin kerrokseksi”. Mitä tämä konkreettisesti tarkoittaa sellaiselle lukijalle, joka ei seuraa datainfrastruktuurikeskustelua?

Ahmed Rashad: ”Sana suvereeni on harkittu, ja sillä on useita tasoja.

Kirjaimellisin merkitys on hallinta. Jos olet valtio, sairaala, puolustusurakoitsija tai suuri yritys, joka ottaa tekoälyn käyttöön vaativassa ympäristössä, sinun on omistettava järjestelmän älykkyys. Sitä ei voi ulkoistaa mustaan laatikkoon, jota et voi tarkastaa tai auditoida. Suvereeni tarkoittaa, että tiedät, mihin dataan tekoäly on koulutettu, kuka sen on varmistanut ja pystyt todistamaan tämän. Suurimmalla osalla toimijoista tämä ei tänään vielä toteudu.

Toinen merkitys on riippumattomuus, eli toiminta ilman ulkoista vaikutusvaltaa. Juuri tätä esimerkiksi puolustusvoimat tai liiketoiminta tarvitsee, kun tekoäly otetaan käyttöön arkaluonteisissa ympäristöissä. Et voi rakentaa kriittistä tekoälyinfrastruktuuria dataputkien varaan, joita et hallitse, joita et voi tarkastaa ja joita et voi suojata manipuloinnilta. Tämä ei ole vain teoreettinen riski. NSA ja CISA ovat antaneet operatiivisia ohjeita datan toimitusketjujen haavoittuvuuksista kansallisena turvallisuuskysymyksenä.

Kolmas merkitys on vastuu. Kun tekoäly siirtyy sisällöntuotannosta päätöksentekoon – lääketieteessä, rahoituksessa, puolustuksessa – jonkun on pystyttävä vastaamaan: Mistä tekoäly sai tietonsa? Kuka todensi sen? Onko tämä tieto pysyvästi tallella? Perlella tavoitteena on, että jokainen asiantuntijamerkkaajan panos kirjataan lohkoketjuun. Sitä ei voi jälkikäteen muuttaa. Juuri tämä muuttumattomuus tekee suvereenista tiedosta totta eikä vain tavoitetilaa.

Käytännössä rakennamme tarkistus- ja kelpuutuskerrosta. Jos sairaala ottaa tekoälyyn perustuvan diagnostiikkajärjestelmän käyttöön, kaiken koulutusdatassa olevan tiedon pitäisi olla jäljitettävissä kelpuutetun ammattilaisen tekemään varmennukseen asti. Tätä tarkoitamme suvereenilla tiedolla.”

BeInCrypto: Olet ollut mukana Scale AI:n hyperkasvussa, joka sisälsi suuria puolustukseen liittyviä sopimuksia ja Metan sijoituksen. Mitä opit perinteisten tekoälydataputkien ongelmista?

Ahmed Rashad: ”Scale oli vaikuttava yhtiö. Olin mukana vaiheessa, jolloin yhtiön arvo kasvoi 90 miljoonasta 29 miljardiin dollariin – kaikki tuo kehitys tapahtui silmieni edessä, ja näin mistä kohdat alkavat natista.

Perimmäinen ongelma on se, että datan laatu ja skaalautuvuus vetävät eri suuntiin. Kun kasvu on satakertaista, painetta on aina liikkua nopeammin: lisää dataa, nopeampi merkkaus, alhaisempi hintalappu / merkintä. Tämän seurauksena kärsii tarkkuus ja vastuu. Syntyy läpinäkymättömiä dataputkia: tiedetään karkeasti, mitä syötettiin sisään, ja mitattiin tuloksen laatua, mutta keskiosa jää mustaksi laatikoksi. Kuka merkitsi tämän? Oliko hän oikeasti pätevä? Oliko merkintä johdonmukaista? Skaalassa näihin kysymyksiin ei perinteisin keinoin kyetä vastaamaan.

Toinen tärkeä oppi oli, että ihmistyötä kohdellaan lähes aina kustannuksena, jota tulisi minimoida, eikä kykynä, jota kannattaisi kehittää. Transaktiomalli, jossa maksetaan työtehtävästä ja optimoidaan läpimenoa, johtaa ajan myötä laadun heikkenemiseen ja polttaa parhaat tekijät. Tekijät, joilta saa oikeasti korkeatasoisia asiantuntijamerkintöjä, eivät ole samoja, jotka tekevät gamifioituja mikro-tehtäviä mitättömällä palkkiolla. Jos haluat tämän tason panosta, järjestelmä on rakennettava eri tavalla.

Tämä oivallus on Perlen perusta. Datan ongelmaa ei ratkaista kasvattamalla halpatyön määrää, vaan kohtelemalla tekijöitä ammattilaisina, tuomalla tarkistettu kelpuutus järjestelmään ja tekemällä koko prosessista jäljitettävä ja auditoitavissa alusta loppuun.”

BeInCrypto: Olette tavoittaneet miljoonan merkkauksen tekijän ja ylittäneet miljardin datapisteen rajan. Useimmat merkintäalustat toimivat anonyymin joukkotyövoiman varassa. Mikä tekee teidän mainejärjestelmästänne rakenteellisesti erilaisen?

Ahmed Rashad: ”Merkittävin ero on se, että Perlessä työhistoriasi on omaa ja pysyvää. Kun suoritat tehtävän, merkintäsi ja sen laatu, sekä miten se vertautuu asiantuntijakonsensukseen, kirjataan lohkoketjuun. Tietoa ei voi muuttaa, poistaa tai siirtää toiselle. Ajan myötä se muodostaa ammattimaisen kelpuutuksen, joka kasvaa toimijalla.

Vertaa tätä anonyymiin joukkotyöhön, jossa tekijä on käytännössä kasvoton. Laadusta ei ole vastuuta, koska mainetta ei ole, eikä yksittäinen tehtävä liity edelliseen. Tällainen kannusterakenne johtaa täsmälleen odotettuun: minimitason suoritukseen.

Meidän mallissamme tämä käännetään päälaelleen. Osallistujat rakentavat todennettavan suoritushistorian. Alusta tunnistaa alakohtaisen asiantuntijuuden. Esimerkiksi radiologi, joka tuottaa johdonmukaisesti korkeatasoisia lääketieteellisiä merkintöjä, rakentaa siitä kertovan profiilin. Maine avaa pääsyn parempiin tehtäviin, korkeampaan palkkioon ja merkityksellisempään työhön. Se on positiivinen kierre: laatu kasvaa, koska kannusteet ovat sen mukaiset.

Yli miljardi datapistettä on jo kirjattu merkkaajaverkostossamme. Tuo luku ei tarkoita vain määrää, vaan miljardi jäljitettävää, tunnistettua datapanoa aidoilta ihmisiltä. Sellainen luo pohjan luotettavalle tekoälydatalle, ja tätä ei voi rakentaa anonyymin joukkotyövoiman varaan.”

BeInCrypto: Mallien rappeutumista (“model collapse”) käsitellään paljon tutkimuksessa, mutta harvoin valtavirran tekoälykeskusteluissa. Miksi näin, ja pitäisikö asiasta olla enemmän huolissaan?

Ahmed Rashad: ”Tämä ei nouse valtavirtakeskusteluun, koska kyseessä on hitaasti etenevä kriisi, ei dramaattinen tapahtuma. Mallien rappeutuminen, kun tekoäly oppii yhä enemmän pelkästään tekoälyn tuottamasta datasta, heikentää järjestelmien tarkkuutta, poistaa vivahteita ja painaa tuloksia keskiarvoa kohti – tämä ei aiheuta yhtä suurta otsikkotapahtumaa, vaan hiipivää laadun heikkenemistä, joka jää huomaamatta kunnes on jo vakavaa.

Mekanismi on yksinkertainen: internet täyttyy tekoälyn tuottamalla sisällöllä. Uudet mallit oppivat omista tuotoksistaan todellisen ihmistiedon ja kokemuksen sijaan. Jokainen koulutussukupolvi voimistaa edellisen vääristymiä. Kierre jatkuu ilman luonnollista korjausta.

Olisiko syytä olla enemmän huolissaan? Kyllä, etenkin kriittisillä aloilla. Kun mallien rappeutuminen osuu sisältösuositusalgoritmiin, suositukset huononevat. Mutta jos kyseessä on lääketieteellinen diagnoosimalli, oikeudellinen järjestelmä tai puolustustyökalu, seuraukset ovat kategorisesti erilaiset. Heikentymisen marginaali katoaa.

Tämän vuoksi ihmisen varmistama datakerros ei ole valinnainen, kun tekoäly siirtyy kriittiseen infrastruktuuriin. Tarvitaan jatkuva aidon, monipuolisen ihmistiedon lähde koulutusta varten; ei tekoälyn tuottamia vastauksia, joita toinen malli on muokannut. Meillä on yli miljoona annotaattoria, jotka edustavat aitoa asiantuntemusta useilta aloilta. Tämä monimuotoisuus on vasta-aine mallin romahtamiselle. Sitä ei voi korjata synteettisellä datalla eikä lisäämällä laskentatehoa.”

BeInCrypto: Kun tekoäly laajenee digitaalisista ympäristöistä fyysisiin järjestelmiin, miten riskit, vastuut ja kehitykselle asetettavat vaatimukset muuttuvat?

Ahmed Rashad: Peruuttamattomuus muuttuu. Se on olennaista. Kielenmalli, joka ”hallusinoi”, antaa väärän vastauksen. Sen voi korjata, merkitä, jatkaa eteenpäin. Robottikirurginen järjestelmä, joka toimii väärän päättelyn perusteella, autonominen ajoneuvo, joka luokittelee kohteen väärin, drooni, joka toimii väärin tunnistetun kohteen perusteella, näissä virheissä ei ole peruutusnäppäintä. Virheen hinta muuttuu noloista kohtalokkaiksi.

Tämä muuttaa kaiken siihen liittyvän, millaisia vaatimuksia pitäisi asettaa. Digitaalisissa ympäristöissä tekoälykehityksen on annettu edetä nopeasti ja korjata itseään matkan varrella. Fyysisissä järjestelmissä malli ei käy. Järjestelmien koulutusdatan on oltava varmistettua ennen käyttöönottoa, ei vasta tapahtuman jälkeen auditoituna.

Vastuu muuttuu myös. Digitaalisessa ympäristössä vastuun hajauttaminen on melko helppoa: oliko kyseessä malli? Data? Käyttöönotto? Fyysisissä järjestelmissä, erityisesti jos ihmiset kärsivät vahinkoa, viranomaiset ja tuomioistuimet vaativat selviä vastauksia. Kuka koulutti tämän? Millä datalla? Kuka varmisti datan ja millä standardeilla? Yritykset ja valtiot, jotka pystyvät vastaamaan näihin kysymyksiin, saavat toimia. Ne, jotka eivät pysty, kohtaavat yllättäviä vastuita.

Rakensimme Perlen juuri tähän muutokseen. Ihmisen varmistama, asiantuntijoilta peräisin oleva ja lohkoketjussa auditoitavissa oleva järjestelmä. Kun tekoäly toimii varastoissa, leikkaussaleissa ja taistelukentillä, sen taustalla olevan tiedon täytyy täyttää eri vaatimukset. Rakennamme tätä standardia kohti.

BeInCrypto: Kuinka todellinen uhka datan myrkyttämiselle tai vihamieliselle manipuloinnille tekoälyjärjestelmissä on nykyään, erityisesti kansallisella tasolla?

Ahmed Rashad: ”Uhka on todellinen, dokumentoitu ja sitä käsitellään jo nyt kansallisen turvallisuuden asiana ihmisillä, joilla on pääsy asiasta salaiseen tietoon.

DARPA:n GARD-ohjelma (Guaranteeing AI Robustness Against Deception) on käyttänyt vuosia erityisesti puolustuksen kehittämiseen tekoälyjärjestelmien vihamielisiä hyökkäyksiä, mukaan lukien datan myrkyttämistä, vastaan. NSA ja CISA julkaisivat vuonna 2025 yhteisen ohjeistuksen, jossa varoitettiin nimenomaan datan toimitusketjujen haavoittuvuuksista ja pahantahtoisesti muokatun koulutusdatan uhasta tekoälyjärjestelmien eheydelle. Nämä eivät ole teoreettisia asiakirjoja, vaan viranomaisten antamaa ohjeistusta, jotka eivät julkaise varoituksia hypoteettisista riskeistä.

Hyökkäyspinta on laaja. Jos onnistuu vaarantamaan tekoälyjärjestelmän koulutusdatan, jota käytetään uhkien tunnistukseen, lääketieteelliseen diagnosointiin tai logistiikan optimointiin, ei tarvitse murtautua järjestelmään suoraan. Näin on jo muokattu, miten järjestelmä näkee maailman. Tämä on sekä hienovaraisempi että vaikeammin havaittava hyökkäystapa kuin perinteiset kyberturvallisuuden murrot.

Scale AI:n 300 miljoonan dollarin sopimus Puolustusministeriön CDAO:n kanssa, tekoälyn käyttöönottamiseksi salaisissa verkoissa, on olemassa osittain siksi, että hallitus ymmärtää, ettei se voi käyttää tekoälyä, jota on koulutettu varmentamattomalla julkisella datalla, herkissä ympäristöissä. Datan alkuperäkysymys ei ole sillä tasolla akateeminen. Se on toiminnallinen.

Keskustelusta puuttuu usein ymmärrys, että kyse ei ole pelkästään valtion ongelmasta. Kaikilla yrityksillä, jotka ottavat tekoälyä käyttöön kilpailluissa ympäristöissä, kuten rahoituspalveluissa, lääketeollisuudessa tai kriittisessä infrastruktuurissa, on vihamielinen data-altistus, jota ei ole välttämättä täysin kartoitetu. Uhka on todellinen. Puolustuksia rakennetaan vielä.”

BeInCrypto: Miksei valtio tai suuri yritys voi vain rakentaa tätä varmennuskerrosta itse? Mikä on todellinen vastaus tähän vasta-argumenttiin?

Ahmed Rashad: ”Jotkut yrittävät. Ne, jotka yrittävät, oppivat nopeasti, mikä on todellinen haaste.

Teknologian rakentaminen on helppoa. Vaikeinta on verkosto. Varmennetut, akkreditoidut alan asiantuntijat, radiologit, kielitieteilijät, lakiasiantuntijat, insinöörit, tiedemiehet eivät vain ilmesty paikalle, koska olet rakentanut heille alustan. He pitää rekrytoida, akkreditoida, luoda kannustimet pysyvälle osallistumiselle ja kehittää laadunvarmistusmekanismit, jotka tekevät panoksesta merkityksellistä laajassa mittakaavassa. Siihen menee vuosia ja se vaatii erikoisosaamista, jota useimmilla virastoilla ja yrityksillä ei ole itse.

Toinen ongelma on monimuotoisuus. Yhden valtion viraston rakentama varmennuskerros perustuu väistämättä rajoitettuun, melko homogeeniseen joukkoon henkilöitä. Maailmanlaajuisen asiantuntijaverkoston arvo ei ole pelkästään akkreditoinnissa, vaan näkökulmien, kielten, kulttuurisen kontekstin ja erikoisalojen laajuudessa, jonka saa vain toimimalla aidosti globaalisti. Meillä on yli miljoona annotaattoria. Sellaista ei voi toisintaa sisäisesti.

Kolmas ongelma liittyy kannustimiin. Korkealaatuisten osallistujien pysyvän motivaation ylläpito vaatii läpinäkyvää, reilua ja ohjelmoitavaa palkkiota. Lohkoketjuinfrastruktuuri mahdollistaa tämän tavalla, jota sisäiset järjestelmät eivät yleensä pysty: muuttumattomat osallistumismerkinnät, suora attribuutio ja varmennettavat maksut. Valtion hankintajärjestelmät eivät ole rakennettu siihen tehokkaasti.

Rehellinen vastaus vasta-argumenttiin on: et ole ostamassa pelkkää työkalua, vaan pääset verkostoon ja akkreditointijärjestelmään, joka on rakentunut vuosien varrella. Vaihtoehto ei ole ”tee se itse”, vaan joko hyödynnät jo olemassa olevaa tai hyväksyt datan laatuun liittyvän riskin ilman sitä.”

BeInCrypto: Jos tekoälystä tulee kansallisen infrastruktuurin ydin, missä kohtaa suvereeni älykkyyskerros on viiden vuoden kuluttua?

Ahmed Rashad: ”Viiden vuoden kuluttua uskon, että se muistuttaa nykyistä taloudellista tarkastusfunktiota, pakollinen varmennuskerros datan ja käyttöönoton välissä, jolla on sääntelyn tuki ja ammatilliset standardit.

Tällä hetkellä tekoälyn kehitys tapahtuu ilman mitään vastaavaa kuin tilintarkastus. Yritykset raportoivat itse koulutusdatansa. Ei ole riippumatonta varmistusta, ei prosessin akkreditointia, ei kolmannen osapuolen todistusta siitä, että mallin taustalla oleva tieto täyttää määritellyn standardin. Olemme varhaisessa vaiheessa, verrattavissa aikaan ennen Sarbanes-Oxleya rahoitusalalla, jolloin luotettiin lähinnä itseilmoituksiin.

Kun tekoälystä tulee kriittinen infrastruktuuri, se ohjaa sähköverkkoja, terveysjärjestelmiä, rahoitusmarkkinoita ja puolustusverkkoja, tämä malli käy mahdottomaksi. Viranomaiset määräävät vaatimuksen auditoinnille. Hankintaprosessit edellyttävät varmennetun datan alkuperää sopimuksen ehtona. Vastuumekanismit tuovat seurauksia epäonnistumisista, joita asianmukainen varmistaminen olisi voinut ehkäistä.

Perlen rooli tässä kokonaisuudessa on varmennus- ja akkreditointikerros, taho, joka pystyy tuottamaan muuttumattoman, auditoitavissa olevan tiedon siitä, millä datalla ja kenen toimesta malli on koulutettu sekä millaisin standardein. Tämä ei ole tekoälykehityksen ”lisäominaisuus” viiden vuoden päästä. Se on edellytys.

Laajemmin kyse ei ole puolustusurakoitsijoiden niche-huolesta. Se on perusta, joka tekee tekoälyn käyttöönotosta mahdollista missä tahansa ympäristössä, missä epäonnistumisella on todelliset seuraukset. Kun tekoäly laajenee yhä useampiin tällaisiin ympäristöihin, perustasta tulee pinon arvokkain osa.”

Vastuuvapauslauseke

Kaikki verkkosivustollamme olevat tiedot julkaistaan vilpittömässä mielessä ja ainoastaan yleiseen tiedottamiseen. Lukijan on toimittava verkkosivustomme tietojen perusteella täysin omalla vastuullaan.