Generatiivinen tekoäly (GenAI) on kiivennyt alan hypen huipulle sen jälkeen, kun se ilmestyi markkinoille vuoden 2022 lopulla. Nyt se on ajautumassa siihen, mitä Gartner kutsuu "pettymyksen pohjaksi", koska käyttöönotot eivät vastaa korkeita odotuksia. Vuonna 2023 McKinsey arvioi että GenAI voisi lisätä vuosittain 2.6–4.4 biljoonaa dollaria vastaavan määrän 63 käyttötapauksessa. Mutta alle vuotta myöhemmin alle 30 % tekoälyjohtajista väitti Gartnerin mukaan heidän toimitusjohtajansa olivat tyytyväisiä projektien sijoitetun pääoman tuottoon.

Mikä pahinta, teknologian käyttöön liittyvät liiketoimintariskit voivat olla merkittäviä. Kysy vaikka Deloitte Australialta, jota äskettäin moitittiin tekoälyn aiheuttamien virheiden sisällyttämisestä liittovaltion hallituksen raporttiin. Organisaatioiden kilpaillessa teknologian käyttöönotosta kilpailuedun saavuttamiseksi, hallinnollisista suojakaiteista on tulossa välttämättömiä.

Deloitte jätti naaman punaiseksi

Deloitten tuottama 237-sivuinen raportti julkaistiin alun perin työllisyys- ja työsuhdeministeriön verkkosivuilla heinäkuussa. raporttien mukaanSen löydökset viittasivat ristiriitaan hallituksen sosiaaliturvapetosten kitkemiseen käyttämien järjestelmien ja todellisten poliittisten tavoitteiden välillä. Yliopistotutkija Chris Rudge kuitenkin huomasi, että jokin ei ollut aivan oikein.

Lisätutkimusten jälkeen hän löysi raportista 20 virhettä, mukaan lukien:

  • Tekaistu lainaus liittovaltion tuomarilta, jonka sukunimi oli kirjoitettu väärin
  • Kymmenen viittausta kirjasta nimeltä The Rule of Law and Administrative Justice in the Welfare State, jota ei oikeastaan ​​ole olemassa
  • Kirjan virheellinen nimeäminen Sydneyn yliopiston professorille
  • Viittaukset olemattomiin raportteihin, jotka on liitetty laki- ja ohjelmistokehityksen asiantuntijoihin

Vastauksena Deloitte Australia kertoi vain, että "asia on ratkaistu suoraan asiakkaan kanssa". Hallitus kuitenkin kertoi, että konsulttiyritys oli suostunut maksamaan takaisin osan projektin 440 000 Australian dollarin (290 000 dollaria) palkkiosta. Raportin päivitetyssä versiossa virheet oli ilmeisesti poistettu ja uudessa tiedotteessa lisättiin, että sen kirjoittamiseen käytettiin Azure OpenAI:ta.

Hallusinaatiot ja paljon muuta

Deloitte Australia ei ole ainoa yritys, joka on hämmentynyt tekoälyn käytöstä työpaikalla. Kilpailija KPMG:n huhtikuun raportti. paljastaa senVaikka 67 % työntekijöistä käyttää tekoälyä tuottavuutensa parantamiseen, lähes kuusi kymmenestä (57 %) myöntää tehneensä virheitä työssään teknologian aiheuttamien virheiden vuoksi.

Hallusinaatiot ovat jatkuva haaste, erityisesti silloin, kun julkisesti saatavilla olevia tekoälytyökaluja käytetään tiettyihin tehtäviin, jotka vaativat korkeatasoista asiantuntemusta. Ne johtuvat joskus, mutta eivät aina, puutteellisesta tai virheellisestä harjoitusdatasta. Riskinä on kuitenkin se, että tekoäly valehtelee niin luottavaisesti, että ei-asiantuntija saattaa langeta hallusinaatioon.

Hallusinaatiot eivät kuitenkaan ole ainoa tekoälyn käytöstä työpaikalla johtuva riski. Käyttäjät voivat vahingossa jakaa arkaluonteisia yrityksen IP-osoitteita tai asiakastietoja julkisen mallin kehotteissa. Tämä edustaa merkittäviä tietovuoto- ja vaatimustenmukaisuusriskejä, koska samat tiedot voitaisiin teoriassa levittää muille käyttäjille. Ne ovat myös alttiita varastamiselle mallin kehittäjältä. Tekoälytyökaluissa itsessään voi olla haavoittuvuuksia, tai ne voivat joutua kohdistettujen hyökkäysten kohteeksi, joiden tarkoituksena on luoda ei-toivottuja tuloksia.

Nämä riskit eivät ole teoreettisia. Tietoturvan hallintajärjestelmä Tietoturvan tilaraportti 2025 paljastaa, että 26 % Yhdistyneen kuningaskunnan ja Yhdysvaltojen yrityksistä on kokenut datamyrkytyshyökkäyksen viimeisen vuoden aikana. Ja kolmasosa (34 %) on huolissaan varjotekoälyn leviämisestä organisaatioissa.

Näitä riskejä voisi lisätä agenttisen tekoälyn laajamittainen käyttöönotto, sillä se on suunniteltu toimimaan itsenäisesti eri työnkulkujen välillä huomattavasti vähemmällä ihmisen valvonnalla tehtävien suorittamiseksi. Huolenaiheena on, että agentin oudon tai sääntöjenvastaisen käyttäytymisen havaitseminen voi kestää paljon kauemmin.

Organisaatioille, kuten Deloitte Australialle, tekoälyn hallitsematon käyttö voi altistaa ne maine-, talous- ja vaatimustenmukaisuusriskeille. Tässä nimenomaisessa tapauksessa rahallinen tappio oli mitätön Deloitten kokoiselle organisaatiolle. Mutta tapaus voi saada potentiaaliset uudet asiakkaat harkitsemaan kahdesti sopimusten allekirjoittamista.

ISO 42001 pelastaa?

Tämä ei ole ensimmäinen kerta, kun tekoälyn hallusinaatiot ovat nolottaneet yksilöitä ja organisaatioita, joiden pitäisi tietää paremmin. Vuonna 2023 kävi ilmi, että yhdysvaltalainen lakiasiaintoimisto viittasi henkilövahinko-oikeudenkäynnissä ChatGPT:n keksimiin väärennettyihin tapauksiin ja lainauksiin. Liittovaltion tuomari kuvaili tilannetta tuolloin "ennennäkemättömäksi olosuhteeksi". Vaikka kehittäjät työskentelevät keinojen parissa minimoidakseen tällaiset hallusinaatiot, mitä enemmän teknologiaa käytetään ilman riittäviä suojakaiteita ja valvontaa, sitä todennäköisemmin muut yritykset seuraavat Deloitte Australian jalanjälkiä.

ExpandAI:n perustajajäsenelle Ruth Astburylle tapaus ”on karu muistutus siitä, että tekoälyriski ei ole vain teknistä – se on organisatorista ja koskettaa kaikkia liiketoiminnan riskienhallinnan osa-alueita.” Hän väittää, että riittävä ”hallinto, vastuuvelvollisuus ja jatkuva ihmisen valvonta” puuttuivat ratkaisevasti ja lopulta ruokkivat tapahtumaa, joka voisi aiheuttaa valtavaa maineenvajausta yritykselle.

”Kun tekoälytyökaluja otetaan käyttöön ilman määriteltyjä omistajuuksia, eettisiä rajoja tai käyttökäytäntöjä, et innovoi – pelaat brändisi maineella”, hän kertoo ISMS.online-sivustolle. ”Hallitsemattoman tekoälyn liiketoimintariskit vaihtelevat tietomurroista ja vinoumasta vaatimustenmukaisuuden puutteisiin ja asiakkaiden luottamuksen menetykseen.”

Vaikka tekoäly voi auttaa tutkijoita, sen ei pitäisi koskaan korvata ”vanhanaikaista faktojen tarkastelua, tarkentamista ja varmentamista”, Astbury lisää. ”Yllättävää on, että tämä tapahtui yhdessä neljästä suuresta konsulttiyrityksestä”, hän jatkaa. ”Tekoälykumppanit ja vanhemmat konsultit elävät ja hengittävät omilla toimialoillaan. He voivat ja heidän pitäisi tunnistaa raporteissa viittauksia tai väitteitä, joita he eivät ole koskaan kohdanneet tai jotka ovat selvästi hallusinaatioita.”

Vastaus voisi olla ISO 42001, joka on suunniteltu auttamaan organisaatioita tekoälyn hallintajärjestelmien perustamisessa, käyttöönotossa, ylläpidossa ja jatkuvassa parantamisessa.

”Ratkaisu on yksinkertainen: organisaatiot tarvitsevat tekoälyriskienhallintaan jäsennellyn lähestymistavan, selkeät käytännöt, läpinäkyvän päätöksenteon ja henkilöstön koulutuksen, joka sisältää vastuullisuuden kaikilla tasoilla. Tässä kohtaa tekoälyn hallinta, jota tukee tekoälyn hallintakehys, kuten ISO/IEC 42001”, Astbury selittää.

”ISO/IEC 42001 tarjoaa tekoälylle hallintajärjestelmän, aivan kuten ISO 27001 tarjoaa tietoturvallisuudelle. Se varmistaa, että jatkuva tekoälyn hallinta, riskienhallinta, valvonta ja eettinen suunnittelu on sisäänrakennettu jokaiseen tekoälyaloitteeseen.”

Tekoälytyökalujen käyttöönottoon on vielä matkaa. Gartnerin kuuluisa Tuottavuuden tasanne. Mutta jos organisaatiot aikovat päästä sinne, niiden on ymmärrettävä, että ihmisten asiantuntemus on aina edellytys onnistuneille käyttötapauksille.