ChatGPT:n lanseerauksesta on ehkä kolme vuotta, jolloin se käynnisti uuden teknologiavarustelukilpailun, mutta nyt kaikkien katseet ovat agenttisessa tekoälyssä. Kannattajat väittävät, että se pärjää generatiivista tekoälyä (GenAI) paremmin työskentelemällä itsenäisesti ihmisisäntiensä tehtävien suorittamiseksi. Lähes kaksi kolmasosaa (62 %) organisaatioista kokeilee jo ainakin tekoälyagentteja, ja suuremmat yritykset laajentavat toimintaansa pilottivaiheen jälkeen. McKinsey.

Mutta autonomian mukana tulee riskejä. Juuri viime kuussa Antroppinen paljastettu jonka se väitti olevan ensimmäinen ”tekoälyn ohjaama kybervakoilukampanja”, jossa sen Claude-chatbottia käytettiin kymmenien organisaatioiden kohteeksi. Se on uhka, josta myös analyytikkoyhteisö varoittaa.

Forresterin keskeiset kyberturvallisuusennusteet Vuodelle 2026 ennuste on, että agenttisen tekoälyn käyttöönotto aiheuttaa julkisesti ilmoitetun tietomurron, joka johtaa työntekijöiden irtisanomiseen. Kysymys kuuluu, onko organisaatioilla työkalut, viitekehykset ja osaaminen tällaisten riskien hallintaan ja samalla teknologian tarjoamien valtavien liiketoimintaetujen hyödyntämiseen.

Miten agenttinen tekoäly toimii

Vaikka GenAI vain tiivistää ja luo sisältöä käyttäjän kehotteiden perusteella, agenttiset tekoälyjärjestelmät on suunniteltu toimimaan ilman jatkuvaa ihmisen valvontaa tehtävien suorittamiseksi. Tätä varten ne keräävät tietoa tietokannoista, antureista, käyttäjiltä ja API-rajapinnoista. Sitten ne käsittelevät tätä dataa löytääkseen oivalluksia ja kontekstia. Seuraavaksi tekoäly asettaa itselleen tavoitteita ennalta määriteltyjen tavoitteiden tai käyttäjän syötteen perusteella, selvittää, miten ne saavutetaan, ja käyttää päättelyä valitakseen parhaan useista mahdollisista toimista.

Seuraavaksi tulee kyseisen toiminnon suorittaminen, yleensä vuorovaikutuksessa kolmannen osapuolen järjestelmien ja datan kanssa. Ja sitten tuloksen arviointi sekä jatkuva tarkennus ja oppiminen. Tekoälyn kyky suorittaa monimutkaisia, monivaiheisia tehtäviä tällä tavalla – mahdollisesti mukautuen dynaamisesti uuden tiedon ilmaantuessa – tekee siitä niin hyödyllisen. Käyttötapaukset ovat lähes rajattomat. Teknologia voisi pyörittää kaikkea ennakoivista kunnossapidon työnkuluista teollisuusympäristöissä aina verkkokaupan toimijoiden asiakaspolun hallintaan.

Jos agenttipohjainen tekoäly otetaan käyttöön harkitusti, se voisi poistaa inhimilliset virheet manuaalisista tehtävistä, vapauttaa henkilöstön keskittymään arvokkaampaan työhön ja parantaa merkittävästi toiminnan tehokkuutta ja tuottavuutta. Näiden tehokkuusetujen pitäisi pystyä vähentämään kustannuksia. Tekoälyagentit voisivat myös parantaa merkittävästi asiakaskokemusta tietyillä toimialoilla.

Miten rikkomus voi tapahtua

Koska tekoälyä valvotaan kuitenkin vähemmän, on suurempi mahdollisuus haitalliseen manipulointiin tai tahattomaan tietojen vuotamiseen, ennen kuin turvallisuustiimit edes huomaavat, että jokin on vialla. Mitä tärkeämpiä päätöksiä agentilla on valtuudet tehdä, sitä suurempi on mahdollinen riski. Nopea tietojen injektointi on suuri huolenaihe. Upottamalla haitallisia ohjeita johonkin, mitä agentti käsittelee – kuten asiakirjaan, verkkosivulle tai verkkokommenttiin – uhkatoimija voi huijata sen vuotamaan arkaluonteisia tietoja.

Vuotoja voi tapahtua myös vahingossa, jos kaiteita ei ole asennettu oikein. Yliedustetut agentit ja agenttien hajautuminen lisäävät todennäköisyyttä, että jotain menee pieleen.

Forrester varoittaa, että tietomurrot ovat mahdollisia "virheketjun" vuoksi. Vanhempi analyytikko Paddy Harrington tarjoaa ISMS.onlinelle kolme skenaariota:

Liikaa pääsyä dataan: ”Kiireisessä agenttitekoisen tekoälyn käyttöönotossa osastot ja tiimit saattavat jättää huomiotta nollaluottamusperiaatteen mukaiset käyttöoikeusohjeet. Ja koska kyseessä on ’ohjelma’ eikä ihminen, he saattavat olettaa, että niin kauan kuin he käskevät sitä käyttämään vain tiettyjä tietojoukkoja, sen pitäisi rajoittaa sen laajuutta”, hän selittää. ”Valitettavasti, kuten on opittu käyttäjä- tai laitesegmentoinnin puutteesta, mitä tahansa tietoja käyttävää agenttia voidaan manipuloida käyttämään kyseisiä tietoja. Jos tähän lisätään todennustunnuksen varastaminen, siepattavan tiedon määrä voi lamauttaa yrityksen.”

Huono todennushygienia: ”Agentit tarvitsevat valtuutuksen päästäkseen käsiksi dataan, mikä tarkoittaa todennusta. Jos todennusmenetelmät ovat liian yksinkertaisia ​​– staattiset tokenit on tallennettu väärin tai valtuutus on liian laaja – uhkatoimijat voivat manipuloida näitä agentteja”, Harrington sanoo. ”Jos käyttäjä luo agenttisen työnkulun eikä ohjeita ole, on mahdollista, että he lähettävät tietoja ulkoisiin tietovarastoihin tai käyttävät arkaluonteisia tietoja näiden autonomisten työnkulkujen kautta. Jos kaiteita ei ole, tämä voi tarkoittaa henkilöstöhallinnon, taloushallinnon tai jopa todennustietojen paljastumista.”

Epätarkkaan tietoon luottaminen: ”Monien probabilististen mallien tarkkuus voi vaihdella 60 prosentista 10 prosenttiin. Jos ne asetetaan IT- tai tietoturvahälytysten kontekstiin ja käytetään kiireellistä markkinoille tuontia, voi syntyä useita vääriä positiivisia tai, mikä pahempaa, vääriä negatiivisia hälytyksiä”, Harrington väittää. ”Tämä voi häiritä tiimejä todellisista ongelmista tai saada heidät kokonaan huomaamatta niitä. Mitä tulee ketjureaktioon, jossa agentit työskentelevät yhdessä, valhe yhdessä voi saada seuraavat agentit ruokkimaan tätä valhetta, luomaan omia valheitaan ja jatkamaan tätä, jolloin lopputulos tai lopulliset toimenpiteet ovat tietoturva-/IT-painajainen.”

Kaiteet ja käytännöt

Forresterin neuvo on noudattaa Agetic AI Guardrails For Information Security (AEGIS) -ohjeistusta. puitteetSe perustuu kuuteen "verkkotunnukseen":

  • Hallinto, riskit ja vaatimustenmukaisuus (GRC)
  • Identiteetin ja pääsynhallinta (IAM)
  • Tietoturva ja yksityisyys
  • Sovellusten turvallisuus
  • Uhkien hallinta
  • Zero Trust -arkkitehtuuri

Analyytikko neuvoo aloittamaan GRC:stä – hallinnon luomisesta, agenttien inventaariojärjestelmien rakentamisesta ja hyväksyttävän käytön määrittelemisestä. Hän kehottaa tietoturvatiimejä sitten rakentamaan IAM:n ja tietoturvan ja käsittelemään agentteja "uutena identiteettiluokkana". Seuraavaksi tulisi parantaa DevSecOpsia agenttien elinkaaren turvaamiseksi ja hallusinaatioiden havaitsemiseksi. Ja lopuksi optimointi Zero Trustin avulla, jotta voidaan varmistaa pienimmän toimijuuden käyttö, valvoa suunnittelematonta toimintaa ja eristää epärehelliset agentit.

Parhaiden käytäntöjen standardit, kuten ISO 42001, voivat myös auttaa tässä, koska AEGIS-lähestymistavan kanssa on merkittäviä yhtymäkohtia, Harrington sanoo. Olipa lopullinen menetelmä mikä tahansa, hän kehottaa organisaatioita varmistamaan, että turvallisuus on sisäänrakennettu agenttisiin tekoälyprojekteihin alusta alkaen.

”Kaikki etenevät liian nopeasti, jotta asianmukaiset suojaukset ehtisivät ottaa käyttöön. Yritysjohtajat näkevät tekoälyagenttien ja agenttityönkulkujen käyttöönoton tuovan valtavia kustannussäästöjä ja lisäävän tehokkuutta”, hän päättelee.

”Turvallisuus, 'ei'-osasto, on usein nopeuden este, koska kehotamme ihmisiä noudattamaan turvallisia toimintatapoja. Ja näitä hidastetöyssyjä pidetään tiellä olevina. Mutta melkein joka kerta, kun [turvallisuus jätetään huomiotta], se lopulta päättyy tuskaan.”