Muistatko varjo-IT:n? Sillä on mullistava uusi sisarus: varjo-tekoäly. Kun työntekijät tottuvat generatiivisten tekoälymallien ajansäästöominaisuuksiin, he kerääntyvät niiden parveilemaan töissä. Ongelmana on, että heillä ei aina ole siihen käyttöoikeuksia.
Varjotekoäly ei ole vain teoreettinen ongelma Check Point Researchin tekoälyn tietoturvaraportti 2025; se on täällä nyt. Tutkimus paljasti, että tekoälypalvelut ovat nyt aktiivisia ainakin puolessa yritysverkoista joka kuukausi. Samaan aikaan, toinen raportti Cyberhaven Labsin viime vuonna tekemä tutkimus osoitti, että tekoälytyökaluilla jaettu data räjähti lähes viisinkertaiseksi yhden vuoden aikana maaliskuun 2023 ja maaliskuun 2024 välillä. Olisi ihan ok, jos käyttö olisi kokonaan sallittua. Cyberhavenin mukaan kolme neljäsosaa työpaikkojen ChatGPT-käytöstä tapahtuu kuitenkin henkilökohtaisten tilien kautta, joita yritysten tietoturvakontrollit eivät rajoita.
Työntekijät eivät aina ole huomaamattomia siinä, mitä he jakavat näiden työkalujen avulla. Lähes joka neljäs myöntää jakaneensa heidän kanssaan arkaluonteisia työtietoja pomonsa selän takana. Check Point Research havaitsi, että 1.25 % kaikista kehotteista aiheutti suuren arkaluonteisten tietojen vuotoriskin, ja toiset 7.5 % kehotteista sisälsivät mahdollisesti arkaluonteisia tietoja.
Cyberhavenin mukaan näihin järjestelmiin päätyvä tieto vaihtelee asiakastukitiedoista (16.3 %) lähdekoodiin, tutkimus- ja kehitysmateriaaleihin ja talousasiakirjoihin.
Todelliset tapahtumat havainnollistavat, mistä on kyse. Huhtikuussa 2023 Samsung kohtasi suuren hämmennyksen kun insinöörit jakoivat puolijohteiden lähdekoodia ja omistusoikeudella suojattuja kokousmuistiinpanoja.
Ovatko tietoni todella vaarassa?
Yritykset saattavat ajatella, että niiden data on turvallisesti lukittuna, jos se pääsee tekoälyistuntoon, mutta näin ei aina ole. Vuotovektoreita on useita. Esimerkiksi monet tekoälypalvelut käyttävät syöttödataa nimenomaisesti mallin koulutukseen. Näihin kuuluvat OpenAI:n ilmainen ChatGPT-versio ja Microsoft Copilotin ilmainen versio, johon se perustuu. Tämä voi paljastaa osia yrityksesi datasta muille käyttäjille tekoälyn vastausten kautta.
Pikainjektiohyökkäykset voivat huijata tekoälyjärjestelmiä paljastamaan aiempia keskusteluja tai harjoitusdataa, kääntäen tekoälyn itseään vastaan ja saadakseen irti tietoja, joita sen ei pitäisi jakaa. Nämä hyökkäykset ovat nyt OWASP:n suurin tekoälyturvallisuusriski potentiaalisen vaikutuksensa vuoksi. Ne mahdollistavat hyökkääjien manipuloida tekoälyjärjestelmiä luomalla huolellisesti hiottuja kehotteita, jotka poimivat arkaluonteisia harjoitusdataa tai kiertävät turvatoimenpiteitä.
Tekoälypalveluntarjoajien tietomurrot itsessään aiheuttavat altistumisriskejä. Kun nämä yritykset hakkeroidaan, arkaluontoiset kehotteesi tulevat osaksi varastettua tietojoukkoa. OpenAI:n oli pakko varoittaa käyttäjiä vuonna 2023 Redis-tietokannassa olleen virheen jälkeen. avoin joidenkin käyttäjien keskustelut toisille. OpenAI:n myötä tilausten alla olla poistamatta käyttäjien kyselyitä Osana New York Timesin oikeudenkäyntiä se säilyttää nyt yksityisiä keskusteluja, jotka voisivat olla alttiita onnistuneelle hakkeroinnille.
Näiden mallien alkuperä ja turvallisuus ovat myös joskus kyseenalaisia. Koska kiinalaisia malleja on nyt saatavilla enemmän ja syvää huolta Kiinalaisen DeepSeek-mallin turvallisuuden suhteen varjo-tekoäly on selkeä ja välitön uhka.
Varjo-tekoälyn seuranta on vaikeaa
Varjotekoälyn on helppo lentää piiloon, varsinkin kun nämä palvelut käynnistyvät nopeammin kuin IT-osastot ehtivät arvioida niitä. Hyväksyttyihin sovelluksiin upotetut tekoälyominaisuudet ovat näkymättömiä perinteisille tunnistusjärjestelmille, ja selainpohjaisten istuntojen estäminen voi olla haastavaa. Estolistat eivät välttämättä ole tietoisia kaikista tekoälypalveluista, ja joka tapauksessa jotkut työntekijät saattavat saada niiden käytön, kun taas toiset eivät. Sitten on otettava huomioon API-pohjaiset vuorovaikutukset ja salattu viestintä.
Tekoälypedon kesyttäminen
Ottaen huomioon tekoälyn lupaukset tuottavuuden kasvusta, sen täydellinen kieltäminen vaikuttaa epäloogiselta. Sen sijaan on realistisempaa luottaa tekoälyyn huolellisesti luomalla tekoälyn käyttökäytäntöjä, varsinkin kun otetaan huomioon työntekijöiden innokkuus käyttää näitä palveluita. Software AG:n viime lokakuussa tekemä tutkimus löytyi että lähes puolet kaikista työntekijöistä jatkaisi henkilökohtaisten tekoälytyökalujen käyttöä, vaikka työnantaja kieltäisi ne.
Työkalut, kuten NIST:n tekoälyriskien hallintakehys, tarjoavat organisaatioille mahdollisuuden hyödyntää tekoälyn etuja ja samalla lieventää sen riskejä. NIST:n viitekehys käyttää "hallitse, kartoita, mittaa ja hallinnoi" -lähestymistapaa, johon sisältyy toimenpiteitä kunkin otsikon alle, jotta organisaatiot voivat omaksua strategisen lähestymistavan tekoälyn käytön hallintaan työntekijöiden keskuudessa. ISO 42001:2023 -viitekehys ehdottaa myös, miten tekoälyn hallintajärjestelmiä voidaan luoda ja ylläpitää vastuullisesti organisaatioissa.
Monet samat periaatteet kuin perinteisen varjo-IT:n torjunnassa pätevät tässäkin. Sisäisten tekoälysovelluskauppojen perustaminen hyväksytyillä työkaluluetteloilla voi auttaa tarjoamaan käyttäjille enemmän valinnanvaraa samalla, kun säilytetään kohtuulliset käyttörajoitukset. Tämä antaa myös enemmän jalansijaa hyväksyttävien tekoälyn käyttökäytäntöjen laatimisessa, jotka kertovat työntekijöille, minkä tyyppisiä kyselyitä on hyväksyttävää (ja minkälaisia ei) tehdä. Työntekijöiden koulutusohjelmat auttavat vahvistamaan näitä käytäntöjä ja tekevät heistä samalla tuottavampia aloittamalla antamalla heille tietoa älykkäistä tekoälyn käyttötapauksista.
Joillekin organisaatioille siirtyminen yksityisiin tekoälyjärjestelmiin, jotka hyödyntävät itse isännöityjä laajoja kielimalleja, auttaa minimoimaan ulkoisten tekoälysovellusten riskin. Monille se on kuitenkin edelleen suuri haaste, joka vaatii merkittävää asiantuntemusta ja budjettia.
Aina kun uusi teknologia tulee valtavirtaan, työntekijät haluavat varmasti kokeilla sitä. Näimme sen mobiililaitteiden ja sitten pilvipalveluiden kanssa. Tekoäly ei ole viimeinen esimerkki. Tärkeintä on omaksua teknologian käyttöön vastaanottava ja vastuullinen asenne ja saada heidät takaisin mukaan.










