Tutkijat ovat yksityiskohtaisesti selvittäneet Microsoft 365:n Copilot-haitan nimeltä "EchoLeak", jonka avulla hyökkääjät voivat vuotaa arkaluonteisia yritystietoja ilman käyttäjän toimia. Ovatko yritykset tyytyväisiä tekoälyn aiheuttamaan uhkaan, kun tällaiset ongelmat lisääntyvät?

Kesäkuussa tutkijat paljastivat löytäneensä virheen Microsoft 365:stä. Lentoperämies joka voisi antaa hyökkääjille mahdollisuuden varastaa arkaluonteisia yritystietoja "nollaklikkaushyökkäyksellä", joka ei vaadi käyttäjältä mitään toimia.

Kutsutaan nimellä ”EchoLeak” ja sitä pidetään ensimmäinen laatuaan, haavoittuvuus hyödyntää suunnittelussa havaittuja virheitä haun lisätty sukupolvi-pohjaisia chatbotteja ja tekoälyagentteja, Aim Labsin tutkijat sanoivat.

Jonkin sisällä blogitutkijat selittivät, kuinka he käyttivät uutta hyväksikäyttötekniikkaa, jota kutsutaan laajan kielimallin (LLM) laajuusrikkomukseksi. ”Tämä edustaa merkittävää tutkimuslöydöksen edistysaskelta siinä, miten uhkatoimijat voivat hyökätä tekoälyagenttien kimppuun – hyödyntämällä sisäisiä mallimekaniikkoja”, he kirjoittivat.

Microsoft korjasi ongelman ennen kuin sitä ehdittiin käyttää tosielämän hyökkäyksissä, mutta EchoLeak osoittaa, että ongelman aiheuttamat todelliset riskit ovat olemassa. Tekoälytyökalut liiketoiminnassa.

Kun tällaisia haavoittuvuuksia ilmenee yhä enemmän, suhtautuvatko yritykset itsetyytyväisinä tekoälyn aiheuttamaan uhkaan, ja mitä toimia niiden on toteutettava varmistaakseen selviytymiskykynsä?

Tekoälyyn perustuvat uhat

Tekoälytyökalut aiheuttavat yrityksille lukuisia riskejä. Esimerkiksi vaikka ne on koulutettu avuliaiksi, ne eivät aina ymmärrä, mitä ei pitäisi jakaa, sanoo Sam Peters, ISMS.onlinen tuotejohtaja.

Yksi suurimmista riskeistä on siinä, miten generatiivisia tekoälyjärjestelmiä koulutetaan tai kehotetaan. ”Ne voivat tallentaa tai tuoda esiin arkaluonteisia tietoja tahattomasti ilman mitään pahantahtoisia tarkoituksia”, varoittaa Lillian Tsang, vanhempi tietosuoja- ja yksityisyydensuoja-asianajaja Harper Jamesin lakiasiaintoimistossa.

Jos tekoälytyökalut on konfiguroitu huonosti, ne voivat jopa paljastaa asiakas- tai työntekijätietoja vastauksena kehotteisiin. ”Taustaprosessit voivat paljastaa välimuistissa olevia tai tokenoituja tietoja vuorovaikutuksessa ulkoisten järjestelmien kanssa”, Tsang selittää. ”Häiritsevintä on, että käyttäjä ei välttämättä koskaan tiedä, että hänen tietojaan on käsitelty väärin, mikä tekee havaitsemisesta ja reagoinnista entistä vaikeampaa.”

Tilannetta pahentaa tekoälyn käyttöönoton nopeus. Tekoälytyökaluja upotetaan yhä enemmän syvälle liiketoimintainfrastruktuuriin – usein "epämääräisten käytäntöjen" tai "rajoitetun näkyvyyden" ohella siihen, miten ne käsittelevät ja tallentavat dataa, sanoo Robert Rea, Graylogin tekninen johtaja.

Tekoälytyökalujen haavoittuvuudet lisäävät entisestään bensaa liekkeihin. EchoLeak on selvä merkki siitä, että yritysten aiemmin käyttämät tietoturvamallit eivät toimi hyvin tekoälyn käytössä, sanoo SecureFlagin johtaja Emilio Pinna. ”Copilotin kaltaiset työkalut toimivat useiden lähteiden ja käyttöoikeuksien yli ja hakevat tietoja automaattisesti tuottavuuden parantamiseksi. Haasteena on, että tekoäly ei noudata samoja selkeitä rajoja kuin perinteiset sovellukset.”

Tekoälytyökalut, kuten Microsoft Copilot, ovat epäilemättä tehokkaita, mutta ne ovat vain niin turvallisia kuin niitä ympäröivät järjestelmät ja hallinto, Peters sanoo. ”Mielestäni tämä tapaus korostaa sitä, että tekoälyn todellinen riski ei tällä hetkellä ole vain tahallinen väärinkäyttö, vaan tahaton altistuminen.”

Riskitietoinen

Kuten EchoLeak osoittaa, uhka on todellinen ja kasvava, mutta asiantuntijat uskovat, että jotkut yritykset suhtautuvat tekoälytyökaluihin liittyviin vaaroihin välinpitämättömästi. Tämä johtuu osittain siitä, että keskitytään niin paljon tekoälyn mahdollisuuksiin kuin sen aiheuttamiin riskeihin.

”Yritykset ovat tällä hetkellä jossain määrin sokaistuneet tekoälyn uutuudesta ja sen mahdollisuuksista”, kertoo Joseph Thompson, Birketts LLP:n kaupallisen ja teknologiatiimin asianajaja. ISMS.online"Emme kysy itseltämme, onko se turvallista, mitä riskejä on ja miten voimme suojella itseämme ja yrityksiämme."

Suurin ongelma on, että monet organisaatiot pitävät tekoälyä edelleen lisäosana sen sijaan, että se muuttaisi perustavanlaatuisesti sitä, miten dataan päästään käsiksi ja miten sitä paljastetaan, Peters sanoo. ”Oletetaan, että toimittajilla on kaikki hallinnassa.”

Todellisuudessa tekoäly ei kuitenkaan toimi siiloissa, hän sanoo. ”Se vaikuttaa kaikkeen. Juuri tämä keskinäinen yhteys tekee siitä niin riskialtista ilman oikeita valvontatoimia.”

Rean mukaan tekoälyn integroituessa syvälle ydintoimintoihin, siihen liittyvät riskit kasvavat merkittävästi. ”Tekoälyjärjestelmät eivät enää toimi erillisinä työkaluina, vaan niistä kehittyy läpitunkevia kerroksia, jotka on upotettu sovelluksiin, API-rajapintoihin ja viestintäkanaviin. Tämä laajalle levinnyt integraatio lisää väärinkäytösten, vahingossa tapahtuvan datan paljastumisen ja vuotamisen mahdollisuutta.”

Jos ongelman ratkaisemiseksi ei tehdä mitään nyt, tilanne pahenee. Teknologian kehittyessä tekoäly tulee koskettamaan useampia tietoja, järjestelmiä ja työnkulkuja, mikä laajentaa merkittävästi potentiaalisia hyökkäyspintoja, Thompson sanoo.

Samaan aikaan yritysten on painittava vastustajien käyttämien yhä kehittyneempien hyökkäysmenetelmien kanssa. ”Hyökkääjät siirtyvät pelkästä koodin ja infrastruktuurin kohdistamisesta keskittymään itse tekoälyn toimintaan”, Thompson varoittaa.

Kaikki tämä tekee tekoälyn hallinnasta yhä monimutkaisempaa ja vaatii eri puolilta liiketoimintaa tulevia tiimejä työskentelemään yhdessä vaatimustenmukaisuuden valvomiseksi ja mahdollisten uhkien voittamiseksi, Thompson lisää.

Tekoälyn hallintastrategioiden vahvistaminen

Thompsonin mukaan EchoLeak on ennen kaikkea herätys. ”Kyse ei ole vain haavoittuvuuden korjaamisesta ja eteenpäin siirtymisestä. Organisaatioiden on harkittava uudelleen sekä tekoälyn integroinnin laajuutta että tapaa liiketoimintakriittisiin järjestelmiin.”

Tekoälytyökalujen ja -sovellusten määrän kasvaessa markkinoille yritysten on toimittava nopeasti. Petersin mukaan tämä edellyttää "merkittävää parannusta" yritysten tekoälyn hallintaan. "Vaikka se kuulostaakin tylsältä, tähän kuuluvat muun muassa selkeä tietojen luokittelu, vahvemmat käyttöoikeuksien hallinnan keinot, parempi valvonta ja ennen kaikkea henkilöstön kouluttaminen ymmärtämään näiden työkalujen toimintaa."

Kannattaa harkita NIST:iä AI Risk Management Framework, mikä auttaa yrityksiä hyödyntämään teknologian hyödyt ja samalla lieventämään sen riskejä. ISO 42001:2023 -standardi viitekehys ehdottaa myös, miten tekoälyn hallintajärjestelmiä voidaan luoda ja ylläpitää vastuullisesti organisaatioissa.

Tehokas hallinto ei voi olla jälkikäteen mietitty asia. Jos on, olet jo epäonnistunut, Peters sanoo. Jotta hallinto suojaa yritystäsi tehokkaasti, se on sisällytettävä riski- ja vaatimustenmukaisuusstrategioihisi alusta alkaen, hän neuvoo.

”Yksikään yritys ei voi sanoa ’ei tekoälyä’. Me kaikki haluamme hyödyntää sen hyödyt, mutta se on tehtävä vastuullisesti”, Peters selittää.

Tämä tarkoittaa vaikeiden kysymysten esittämistä siitä, missä datasi sijaitsee, miten se virtaa yrityksesi ja toimittajiesi kautta ja kenellä – tai millä – on pääsy siihen.

”Olen huolissani siitä, että jos yritykset eivät puutu tähän nyt, ne huomaavat reagoivansa jatkuvasti tapahtumiin sen sijaan, että ne ehkäisisivät niitä”, Peters sanoo. ”Liiketoiminnan näkökulmasta tekoälyn kehityksen vauhdilla tästä tulee nopeasti kestämätöntä.”