Äskettäinen tapaus on herättänyt huolta siitä, miten GenAI-työkalut käsittelevät dataa. Onko aika varmistaa, että datasi ei päädy heidän LLM-ohjelmiinsa? Dan Raywood tarkastelee vaihtoehtoja.

Joku viisas sanoi kerran, että se mitä laitat internetiin, pysyy internetissä. Tarkemmin sanottuna se viittasi sosiaaliseen mediaan, erityisesti Facebookiin.

Tällä vuosikymmenellä haasteena ei niinkään ole sisällön paljastaminen sosiaalisessa mediassa, vaan enemmän se, mitä olette panostaneet generatiiviseen tekoälyyn ja laajojen kielimallien (LLM) järjestelmään, joka sitten säilyttää, käsittelee ja säilyttää tietoja tarjotakseen parempia yksityiskohtia pyynnöissä ja hakutuloksissa.

Luottamus GenAI:n turvallisuuteen kuitenkin horjui kesällä, kun tuhannet Grok-keskustelujen transkriptioista paljastuivat, mikä korosti, kuinka nopeasti yksityiset tekoälykeskustelut voivat tulla julkisiksi. Yksilöille tämä voi olla kiusallista. Yrityksille riskit ovat paljon suuremmat, sillä ne paljastavat asiakastietoja, immateriaalioikeuksia tai oikeudellisia strategioita, ja seuraukset vaihtelevat mainehaitoista sakkoihin.

Chatbotista hakukoneeksi

Mukaan mediaraportitJoka kerta, kun keskustelu jaettiin Grok-botin kanssa, luotiin yksilöllinen URL-osoite, joka asetettiin hakukoneiden saataville. Useimmat käyttäjät eivät tienneet, että nämä linkit indeksoitiin automaattisesti, joten kuka tahansa saattoi löytää ne verkosta.

Netskopen yritystietoturvapäällikkö Damian Chung kertoo IO:lle uskovansa, että tässä tapauksessa vain keskusteluhistoria paljastui, mutta tämä oli "melko huolestuttavaa, koska ei usko, että tekoälyvuorovaikutuksia jaettaessa ne voitaisiin julkaista".

Hän kuitenkin uskoo, että tämä tapaus ainakin lisää tietoisuutta tämän tyyppisestä riskistä, koska "emme tarkastele näiden oikeustieteen maisteriohjelmien turvatoimia, joten niihin ei pitäisi sokeasti päästää mitään tietoa".

Yrityksille opetus on selvä: kun data poistuu ympäristöstäsi, menetät sen hallinnan. Jopa näennäisesti harmittomat lataukset voivat nousta esiin tavoilla, joita et koskaan aikonut.

Varjo-tekoäly ja vuotoriski

Grok, Elon Muskin xAI-yrityksen tuote ja yleisesti X:ssä käytetty, on nyt yksi sadoista GenAI-palveluista. Jos joku voi vuotaa keskusteluja, joita osallistuja pitää yksityisinä tai ainakin salassa pidettyinä, mitä muilla on sellaista, mikä voisi vuotaa tai murtautua?

Chungin mukaan olemme GenAI:n kehityksen alkuvaiheessa, ja on hyvä olla tietoinen riskeistä, mutta ei myöskään pelotella käyttäjiä käyttämästä sitä.

Matt Beard, AllPoints Fibre Networksin kyberturvallisuuden ja tekoälyinnovaatioiden johtaja, sanoo asian suoraan: ”Olipa kyse sitten arkaluontoisista tai yleisistä tiedoista, uhat ovat varmasti todellisia siinä suhteessa. Asiakastietojen tahattomasta paljastamisesta sisäisten strategia-asiakirjojen vuotamiseen seuraukset voivat vaihdella mainehaitoista viranomaissakkoihin.”

Varjotekoäly pahentaa tätä riskiä. Työntekijät, jotka turvautuvat luvattomiin työkaluihin tuottavuuden parantamiseksi, saattavat paljastaa luottamuksellista materiaalia tietämättään. Kun tiedot on indeksoitu verkkoon, ne voivat säilyä pitkään alkuperäisen keskustelun poistamisen jälkeen.

Käytännöt, ei kiellot

Yksi lähestymistapa on estää pääsy tekoälytyökaluihin kokonaan, mutta tietoturvajohtajat varoittavat, että tämä on tehotonta. Kuten Chung toteaa: ”Jos teet niin, käyttäjä löytää toisen tavan käyttää sitä. Estämällä sen emme välttämättä saa samaa tietoturvatasoa kuin luulemme saavamme.”

Sen sijaan asiantuntijat ehdottavat tekoälyn käytön mahdollistamista selkeiden sääntöjen ja suojatoimien mukaisesti. Beardin mukaan tasapaino on "teknisten ja käyttäytymiseen liittyvien valvontatoimien kehyksen rakentamisessa" organisaatiotietojen suojaamiseksi. Kyse on "henkilöstölle näiden työkalujen turvallisen käytön etujen osoittamisesta ja siitä, että heillä on käytettävissään yrityksen hyväksymät järjestelmät, koska lopulta he etsivät kiertotietä, jos ei ole".

Angelo Rysbrack, digitaalisen puolustuksen asiantuntija Pronidus Cybersecuritylla, on samaa mieltä siitä, että viimeaikaiset tietomurrot korostavat yritysten suurinta riskiä: sitä, miten työntekijät ovat vuorovaikutuksessa näiden tekoälytyökalujen kanssa. Arkaluonteisten tai jopa näennäisesti harmittomien tietojen lataaminen voi nopeasti johtaa alttiuteen. Kun tiedot poistuvat ympäristöstäsi, menetät niiden hallinnan.

Käytännön ratkaisuja

Mitä organisaatiot sitten voivat realistisesti tehdä altistumisriskin vähentämiseksi? Tietoturvan asiantuntijat olivat yhtä mieltä siitä, että ratkaisu piilee jäsenneltyjen, kerroksellisten puolustusmekanismien rakentamisessa.

Rysbrack huomauttaa, että useimmilla organisaatioilla on jo hyväksyttävät käyttö- tai IT-käytännöt, ja ne ovat luonnollinen lähtökohta. ”Jos perusta on olemassa, rakenna sen päälle” sen sijaan, että aloittaisit tyhjästä. Hän kuitenkin varoittaa, että paperilla olevat käytännöt eivät riitä, ja työntekijöille on tehtävä säännöt alusta alkaen tietoisiksi ja heille on muistutettava säännöllisesti heidän vastuistaan.

Beard korostaa tarvetta keskittyä turvallisen käytön mahdollistamiseen määriteltyjen suojakaiteiden puitteissa: ”Meidän on omaksuttava tekoäly sen tuomien tehokkuusominaisuuksien vuoksi, mutta se ei tarkoita sokeaa käyttöönottoa. Se tarkoittaa teknisten ja käyttäytymiseen liittyvien valvontamekanismien kehyksen rakentamista tietojemme ja henkilöstömme suojaamiseksi.”

Rysbrackin osalta näiden valvontatoimien on sisällettävä käytännön suojatoimia.: ”Käytä sisällön suodatusta, sovellusten suojauskäytäntöjä ja tietojen menetyksen estämistä estääksesi arkaluonteisten tietojen poistumisen organisaatiosta.” Joissakin tapauksissa voi olla tarkoituksenmukaista ”estää riskialttiita sovelluksia, mutta aina kun mahdollista, tarjota henkilöstölle turvallisia vaihtoehtoja.”

Beard korostaa, että on tärkeää erottaa toisistaan ​​hyväksytyt ja hyväksymättömät tekoälytyökalut ja asettaa työntekijöille selkeät odotukset: ”Ennen kaikkea hyväksyttävän käytön käytäntöjen tulisi selvästi kieltää kaiken julkisen luokituksen yläpuolella olevan tiedon jakaminen hyväksymättömien palveluiden kanssa.”

Tällaisia ​​toimenpiteitä voidaan vahvistaa entisestään ankkuroimalla ne tunnustettuihin viitekehyksiin, kuten ISO 27001 -standardiin tietoturvallisuuden osalta ja ISO 42001 -standardiin tekoälyn hallinnan osalta. Tämä auttaa varmistamaan, että käytännöt, valvonta ja riskienhallinta ovat paitsi johdonmukaisia ​​myös auditoitavissa ja puolustettavissa sääntelyvalvontaa vastaan.

Yhdessä nämä viitekehykset, tekniset suojatoimet ja jatkuva käyttäjätietoisuus luovat kulttuurin, jossa työntekijät ymmärtävät sekä tekoälytyökalujen hyödyt että turvallisen käytön rajat.

Toimi nyt, älä odota

Beard on selkeästi sitä mieltä, että epäröinnin aika on ohi, eivätkä organisaatioiden pitäisi odottaa tietomurtoa, vaan toimia nyt. ”Luo ​​selkeät, erilliset käytännöt tekoälyn käytölle ja kehittämiselle; varmista, että niitä valvotaan läpinäkyvästi ja kouluta henkilöstöäsi. Ennen kaikkea, kohtele tekoälyä ominaisuutena, jota on valjastettava eikä pelättävä.”

Chung on samaa mieltä siitä, että jokaisen uuden tekoälysovelluksen estäminen ei ole realistista. Koska tekoälysovelluksia on jo satoja ja uusia tulee jatkuvasti, hän ehdottaa organisaatioille kevyempien toimenpiteiden harkitsemista, kuten "valmennusviestin" lähettämistä ennen GenAI-verkkosivustolle siirtymistä, jossa muistutetaan työntekijöitä miettimään huolellisesti, mitä he jakavat.

Rysbrack korostaa, että haasteena on löytää tasapaino tiedon suojaamisessa tukahduttamatta innovaatioita. Parhaat tulokset saavutetaan yhdistämällä selkeät säännöt, käyttäjien tietoisuus, koulutus ja tekniset suojatoimet. ”Tällä tavoin työntekijät tuntevat rajat, heillä on oikeat työkalut ja organisaatiolta vältetään joutuminen seuraavaksi otsikoksi.”

Grokin todellinen oppitunti

Grokin vuoto ei ole ensimmäinen, eikä viimeinen kerta, kun tekoälyn luomat keskustelut tulevat haettaviksi verkossa. Yrityksille todellinen opetus on, että luottamusta GenAI:hin ei pitäisi koskaan olettaa.

Ottamalla käyttöön käytännöt, tekniset suojatoimet ja henkilöstön tietoisuuden lisäämisen nyt organisaatiot voivat hyödyntää tekoälyn tuottavuutta ja suojata samalla arvokkainta dataansa. Seuraavan tietomurron odottaminen ei ole vaihtoehto.