
Ovatko Britannian tekoälyn kasvusuunnitelmat myös "pääasialliset" kyberuhat?
Sisällysluettelo:
Iso-Britannia on yli vuosikymmenen ollut taloudellinen alijäämäinen. Vuosien 2008–9 finanssikriisin jälkeen tuottavuus on tuskin noussut, mikä on lisännyt maan altistumista taloudellisille sokeille, lietsonut kansan tyytymättömyyttä ja johtanut julkisten palvelujen heikkenemiseen. Uusi hallitus uskoo, että sillä on vastaus: AI. Tärkeä uusi tekoälymahdollisuuksien toimintasuunnitelma paljastettiin tammikuussa on suunniteltu tarjoamaan "kansallisen uudistumisen vuosikymmen" "päälinjaamalla tekoäly tämän yritteliään kansan suoniin".
Kuitenkin, kuten asiantuntijat ovat varoittaneet, se tarjoaa myös merkittäviä uusia mahdollisuuksia uhkatoimijoille varastaa, sabotoida, kiristää ja häiritä. Tärkeintä on varmistaa, että organisaatiot, jotka ovat allekirjoittaneet suunnitelman toteuttamisen, suunnittelevat tekoälyinfrastruktuurinsa ja -järjestelmänsä turvallisuutta silmällä pitäen alusta alkaen.
Mitä suunnitelmassa on?
Itse suunnitelma, jonka hallitus väittää hyväksyvänsä kokonaisuudessaan, ei todellakaan ole kunnianhimoinen. Keskeisiä elementtejä on kahdeksan:
Perustan luominen AI-infrastruktuurille
Tämä sisältää oman tekoälytutkimusresurssin (AIRR) rakentamisen edistyneistä tekoälyä tukevista tietokoneista ja "AI Growth Zones" -alueiden perustamisesta yksityisen sektorin datakeskusten rakentamisen nopeuttamiseksi.
Tietoresurssien lukituksen avaaminen
Kansallisen tietokirjaston (NDL) kehittäminen, joka tarjoaa julkiset tietojoukot "turvallisesti ja eettisesti" tekoälyn tutkijoille ja innovoijille. Näihin suunnitelmiin kuuluu myös julkisen sektorin tiedonkeruuinfrastruktuurin rakentaminen, uusien arvokkaiden tietokokonaisuuksien luomisen rahoittaminen ja teollisuuden kannustaminen "kuroimaan ja avaamaan yksityisiä tietojoukkoja".
Koulutus ja taidot
Arvioidaan tekoälyn osaamisvaje, parannetaan kykyjen monimuotoisuutta, tuetaan korkeakoulutusta tekoälyn valmistuneiden määrän lisäämiseksi ja houkutellaan ammattitaitoisia työntekijöitä ulkomailta.
Sääntely, turvallisuus ja vakuutus
Tekoälyn turvallisuusinstituutin kehittäminen, "Ison-Britannian teksti- ja tiedonlouhintajärjestelmän" kilpailukyvyn parantaminen, sääntelyviranomaisten "kiireellinen" rahoittaminen tekoälyosaamisensa parantamiseksi ja sen varmistaminen, että kaikki sponsoriosastot asettavat etusijalle "turvallisen tekoälyn innovaation". Suunnitelmassa mainitaan myös innovaatioita edistävät aloitteet, kuten sääntelyn hiekkalaatikot ja hallituksen tukemien "korkean laadunvarmistustyökalujen" rakentaminen tekoälyn turvallisuuden arvioimiseksi.
Ota käyttöön "Skannaus > Pilotti > Skaalaus" -lähestymistapa
Tulevan tekoälykehityksen ennakointi, johdonmukainen ja nopea pilotointi ja prototyyppien valmistus sekä keskittyminen kymmenien tai satojen miljoonien kansalaisvuorovaikutusten skaalaamiseen kaikkialla Yhdistyneessä kuningaskunnassa. Tässä vaiheessa viitataan myös infrastruktuurin yhteentoimivuuden, koodin uudelleenkäytettävyyden ja avoimen lähdekoodin tarpeisiin.
Julkisen ja yksityisen sektorin vahvistaminen
Hallitus aikoo käyttää vahvaa ja äskettäin rakennettua digitaalista infrastruktuuriaan luodakseen uusia mahdollisuuksia innovoijille, luodakseen tekoälytietokeskuksen ja lisätäkseen yksityisen sektorin kiinnostusta Scan > Pilot > Scale -lähestymistapaa kohtaan nopeiden voittojen saavuttamiseksi.
Käsittele käyttäjien omaksumisen esteitä
Paranna julkisen ja yksityisen sektorin käyttöönottoa alakohtaisten tekoälymestarien ja uuden teollisuusstrategian avulla.
Advance AI
Luo uusi hallintoyksikkö, jolla on valtuudet tehdä yhteistyötä yksityisen sektorin kanssa maksimoidaksesi Ison-Britannian osuuden rajalla toimivassa tekoälyssä.
Enemmän kuin huulipalvelu?
Kuten suurille hallituksen ilmoituksille on tyypillistä, monet yksityiskohdat ovat vielä selvittämättä. Joten vaikka "turvallisuus" mainitaan suunnitelmassa 14 kertaa, se on vain epämääräisin termein, kuten että hallitus "on sitoutunut rakentamaan huippuluokan, turvallista ja kestävää tekoälyinfrastruktuuria" tai että se "avaa vastuullisesti, turvallisesti ja eettisesti julkisen sektorin datavarojen arvon".
Silti on syytä olla huolissaan seurauksista. Maailman talousfoorumin (WEF) mukaan Globaali riskiraportti 2025, Yritysjohtajat ja asiantuntijat arvioivat "AI-tekniikoiden haitalliset seuraukset" kuudenneksi vakavimmaksi riskiksi seuraavan vuosikymmenen aikana. Nämä tulokset voivat johtua huonosti suunnitelluista malleista tai haitallisista toimista, kuten datan/mallin myrkytyksestä. Jälkimmäisessä skenaariossa uhkatekijät pääsevät tekoälyjärjestelmiin korruptoidakseen koulutustietoja tai manipuloidakseen malliparametreja joko sabotoidakseen tai aiheuttaakseen tiettyjä, ei-toivottuja tuloksia.
He voisivat käyttää samaa pääsyä tekoälyinfrastruktuuriin arkaluontoisten yritysten ja asiakkaiden koulutusdatan varastamiseen tai jopa itse suuren kielimallin (LLM) avulla, jos organisaatio on hienosäätänyt sen tiettyä tarkoitusta varten ja edustaa siksi arvokasta IP:tä sinänsä.
Valitettavasti tutkimus paljastaa, että seuraavan sukupolven AI-lähestymistapojen avainkomponentit, kuten haun lisätty sukupolvi (RAG) ja autonominen "agentti tekoäly", ovat täynnä tietoturvapuutteita. Yksi raportti väittää on löytänyt useita haavoittuvuuksia LLM-isännöintityökaluista ja -alustoista, kuten llama.cpp ja Ollama, sekä vektoritietokannoista, kuten ChromaDB. Se paljastaa myös lukuisia julkisesti näkyviä palvelimia ja tällaisiin työkaluihin liittyviä esiintymiä, joista monet eivät vaadi todennusta. Puhumattakaan vaarantuneiden valtuustietojen aiheuttamasta riskistä.
"Suuri osa kyberhyökkäyksistä käyttää varastettuja tunnistetietoja - joten hyökkääjät kirjautuvat sisään eivätkä hakkeroi sisään", SoSafe CSO Andrew Rose kertoo ISMS.onlinelle. "Monet yritykset luovat tekoäly-chatbotteja auttamaan henkilöstöään, mutta harvat ovat miettineet skenaariota, jossa heidän chatbotistaan tulee rikoskumppani auttamalla hyökkääjää keräämään arkaluontoisia tietoja, tunnistamaan avainhenkilöitä ja saamaan hyödyllistä yritystietoa."
Asiantuntijat nostavat punaisia lippuja
Myös muut turvallisuusasiantuntijat ovat herättäneet hälytystä hallituksen suunnitelmista. Illumion järjestelmätekniikan johtaja Michael Adjei varoittaa "piilotetusta kerroksesta" omaa ja riittämättömästi tarkastettua tekoälyteknologiaa, johon uhkatoimijat voivat kohdistaa yllä selitetyillä tietomyrkytyshyökkäyksillä.
"Haasteena on se, että tekoälyn piilotetut kerrokset toimivat "oppittujen esitysten" kautta, jota turvallisuustiimien on vaikea tulkita ja valvoa haavoittuvuuksien varalta. Tämä vaikeuttaa peukaloitujen tekoälymallien havaitsemista, erityisesti järjestelmissä, jotka toimivat itsenäisesti tai reaaliajassa”, hän kertoo ISMS.online-sivustolle.
”Tekoälyn toimitusketju aiheuttaa lisää riskejä. Vaaralliset kolmannen osapuolen tiedot, koulutusympäristöt, ohjelmistot tai laitteistot voivat vaarantaa kokonaisia tekoälyjärjestelmiä. Hyökkääjät voivat esimerkiksi syöttää haitallista dataa harjoitustietosarjoihin ja luoda harhaa tai haavoittuvuuksia tekoälymalleihin.
Hallituksen suunnitelmassa viitataan avoimen lähdekoodin ohjelmistoihin, mikä on erityinen toimitusketjun huolenaihe alan hyvin dokumentoidut turvallisuushaasteet.
Bridewellin teknologiajohtaja Martin Rileyllä on tausta palvelinkeskusten suunnittelusta ja käytöstä. Hän varoittaa, että "palvelinkeskusmarkkinat eivät ole hyvin säänneltyjä, ja kyberturvallisuus näiden toimipisteiden ympärillä on jonkin verran vajaa". Hän nostaa myös punaisen lipun NDL:stä.
"NDL pyrkii ensisijaisesti varmistamaan, että yksityinen sektori pystyy innovoimaan julkista sektoria tukemaan, joten tietojen, anonymisoinnin ja yksilöiden suojelun kurinalaisuus luo useita kyberturvallisuushaasteita", Riley sanoo. "Mitä kyberturvallisuusvaatimukset ovat niille, jotka haluavat päästä NDL:ään ja käyttää sen tietoja?"
SoSafe's Rose haluaa nähdä enemmän keskittymistä hallintoon.
"Toivon hallituksen toistavan, että tekoälyn on noudatettava olemassa olevia säännöksiä, kuten tietosuojastandardeja. Syöttötietojen laadun ja hallinnan vaatiminen olisi viisasta varmistaa laadukas tulos, jossa ei ole harhaa, mutta tämä tulee haasteeksi, kun tietojoukoista tulee laajoja ja laaja-alaisia, ja ne on hankittu monista paikoista”, hän selittää.
"Tärkeintä on vaatia, että tekoälyä omaksuvat yritykset perustavat hallinto- ja valvontakomitean. Sen pitäisi edellyttää kartoitus siitä, missä tekoälyä käytetään, ja sen vastuiden laajuus, ja sitä tukevat riskiarvioinnit virheellisen tuloksen tai epäonnistumisen aiheuttamista mahdollisista haitoista ja toipumisreitit mahdollisista epäonnistumisista tai rikkomuksista.
ISO 42001 To The Rescue
Sääntelyviranomaisilla on merkittävä rooli sen varmistamisessa, että hallituksen tavoitteet toteutuvat turvallisesti, turvallisesti ja eettisesti. Tekoälyn turvallisuusinstituutista tulee lakisääteinen elin, sponsoriosastoja rahoitetaan "tehostamaan tekoälykykyään", ja "turvallista tekoälyinnovaatiota" korostetaan ohjeissa näille sääntelijöille.
Vaikka jää nähtäväksi, mitä uusia sääntöjä tämän seurauksena voidaan ottaa käyttöön, on jo olemassa parhaita käytäntöjä koskevia standardeja, jotka voivat auttaa tekoälykehittäjiä ja -käyttäjiä navigoimaan tielle tulevissa sääntelypuitteissa. ISO 42001, esimerkiksi on suunniteltu edistämään tekoälyn hallintajärjestelmien vastuullista käyttöä ja hallintaa.
"Se tarjoaa ohjeita turvalliseen tekoälyn käyttöön ja auttaa kehittäjiä ottamaan käyttöön mekanismeja epätavallisen käyttäytymisen tai odottamattomien tulosten havaitsemiseksi, mikä vähentää manipulointialttiutta", sanoo Illumion Adjei.
SoSafe's Rose on samaa mieltä.
”ISO 42001 on tehokas menetelmä auttaa organisaatioita ottamaan tekoäly tietoisesti käyttöön. Se ohjaa huolellista lähestymistapaa tekoälyn toteutuksen arvioimiseen ja hallintaan ja varmistaa, että asiaan liittyvistä riskeistä on riittävä näkemys ja valvonta”, hän päättää.
"Kuten ISO 27001, se ei tee sinusta turvallista. Se luo kuitenkin polun jatkuvalle arvioinnille ja parantamiselle, mikä lisää todennäköisyyttä kestävän ratkaisun luomiseen."
Tiedämme paljon enemmän hallituksen suunnitelmista keväällä, vaikka Ison-Britannian talouden ollessa huonossa kunnossa, jää nähtäväksi, estääkö valtiovarainministeriö vai laimentaako monet näistä aloitteista. Mitä tahansa tapahtuukin, toivokaamme, että sisäänrakennettu tietoturva ja parannettu tekoälyn hallinta eivät ole neuvoteltavissa.