
Yrityksiä kehotetaan seuraamaan "nopeasti kehittyviä" tekoälysääntöjä
Sisällysluettelo:
Tekoäly (AI) muuttaa tietotekniikan alaa huimaa vauhtia. Tekoäly on muuttanut sovelluksia, kuten data-analyysiä, asiakaspalvelua ja jopa ohjelmistokehitystä. Yritykset, jotka ovat hitaita omaksumassa tekoälyä, uhkaavat valtavia kilpailuhaittoja. Mutta tekoälyteknologian käyttöönotto ei ole vaaratonta.
Esimerkiksi tekoälyjärjestelmän puutteita Lastenhoitoetuuksiin liittyvien petosten torjumiseksi ajanut perheet Alankomaissa taloudellisiin vaikeuksiin. Amazon joutui romuttamaan tekoälyn rekrytointityökalun, joka osoitti puolueellisuutta naisehdokkaita kohtaan.
Tekoälyn käyttö tiedonkeruussa ja -analyysissä herättää myös tietosuojaongelmia ja mahdollisia tietomurtoja erityisesti talouden herkillä aloilla. Esimerkiksi, monet pankit ovat kieltäneet henkilöstöä käyttämästä työkaluja, kuten ChatGPT:tä ja muita tekoälyn virtuaalisia avustajia koska pelätään, että kyselyjen luonne saattaa vuotaa tietoja liikesalaisuuksista, kuten suunnitelluista yritysostoista tai fuusioista.
Äskettäinen raportti Center for Long-Term Resilience (CLTR) vaati Yhdistynyttä kuningaskuntaa perustamaan järjestelmän tekoälyn väärinkäytön tai toimintahäiriön kirjaamiseksi tapahtumia. Ajatushautomo väittää, että tekoälytekniikan ongelmia on käsiteltävä samalla tavalla kuin Air Accidents Investigation Branch tutkii lento-onnettomuuksia.
Tekoälyongelmien raportointijärjestelmä tarjoaa mahdollisuuden kehittää parhaita käytäntöjä esimerkiksi riskienhallinnan aloilla, oppia oppia ja muokata säädöksiä CLTR:n mukaan.
Sääntelyn edistyminen
Vaikka sääntely on edelleen kuromassa kiinni tekoälyn käyttöön yrityksissä, odottava lähestymistapa vaatimustenmukaisuuteen on kaukana viisasta.
David Corlette, VIPRE Security Groupin tuotehallinnan johtaja, kertoi ISMS.onlinelle, että tekoälysääntely kehittyy (lähes) samanaikaisesti itse tekniikan kanssa.
"Vaikka emme vielä näe kattavaa kehystä tekoälylle, edistystä on tapahtunut", Corlette sanoo. "On olemassa NIST AI Risk Management Framework (AI RMF) ja tietysti ISO 42001, joka tarjoaa lupaavan lähestymistavan tekoälyn hallintaan. ISO 42001 tuo johdonmukaisuutta ja luotettavuutta yli rajojen."
Säätiön luominen
Kehykset, kuten ISO 42001 voi auttaa luomaan vankan perustan ja keventää vaatimustenmukaisuuden saavuttamista, kun uusia säännöksiä otetaan käyttöön.
ISO 42001 hahmottelee, kuinka yritykset voivat luoda puitteet tekoälyn hallintajärjestelmän perustamiselle ja ylläpitämiselle organisaatiossaan. Riskienhallinta on yksi viitekehyksen ydinkomponenteista.
Obsidian Securityn perustajajäsenen ja toimitusjohtajan Glenn Chisholmin mukaan "ISO 42001 -standardi korostaa riskienhallintaa ja sitä voidaan soveltaa sisällyttämään tekoälyyn liittyviä riskejä, mukaan lukien eettiset näkökohdat, riskien ja vaikutusten arvioinnit, tietosuoja, harha ja jatkuva parantaminen. .”
Chisholm lisäsi: "Vaikka se ei automaattisesti takaa muiden standardien noudattamista, ISO 42001 jakaa monia ominaisuuksia standardien kanssa, kuten EU AI Act, NIST AI RMF ja muut."
Peter Wood, Spectrum Searchin tekninen johtaja, lisäsi: "Ottamalla käyttöön ISO 42001 -standardin organisaatiot voivat yksinkertaistaa tulevien määräysten noudattamista proaktiivisen lähestymistavan avulla. Tämä antaa organisaatioille mahdollisuuden sopeutua vaivattomasti muuttuviin sääntelyympäristöihin, mikä minimoi riskin ja mahdolliset rangaistukset noudattamatta jättämisestä."
Maailmanlaajuiset aloitteet
Kansainväliset standardit kehittyvät nopeasti, ja useat maat, kuten Yhdysvallat, Kiina, Intia ja Australia, ovat kaikki laatimassa sääntöjään.
Chisholmin mukaan "Monet näistä standardeista lainaavat todennäköisesti toisiltaan, joten yhdenmukaisuuden etu tulee todennäköisesti siirtymään toiseen."
Laki- ja vaatimustenmukaisuusasiantuntijat sanovat, että äskettäin käyttöön otetun EU:n tekoälylain noudattamisen pitäisi olla Yhdistyneen kuningaskunnan yritysten prioriteetti, koska ne käyvät usein kauppaa EU:n kanssa.
"Monet Yhdistyneen kuningaskunnan yritykset toimivat EU:ssa tai sen kanssa; Siksi yhdenmukaistaminen EU:n tekoälylain kanssa varmistaa jatkuvan pääsyn näille merkittäville markkinoille", Harper Jamesin vanhempi tietosuoja- ja yksityisyyslakimies Becky White kertoi ISMS.online-sivustolle. "Sääntöjen noudattamatta jättäminen voi aiheuttaa markkinoille pääsyn esteitä tai rangaistuksia, jotka vaikuttavat liiketoimintaan ja kilpailukykyyn."
- EU:n tekoälylaki keskittyy korkean riskin sovelluksiin ja tietokokonaisuuksiin. Sen perusperiaatteet korostavat läpinäkyvyyttä ja vastuullisuutta.
"EU:n tekoälylaki on hyvä paikka aloittaa, sillä sen läpinäkyvyyden, turvallisuuden ja tietojen hallinnan ydinperiaatteet ovat todennäköisesti olennaisia minkä tahansa AI-säädöksen kannalta millä tahansa alueella", VIPREn Corletten mukaan. "Tämä lainsäädäntö on ensimmäinen laatuaan ja käytännössä luo puitteet nousevalle teollisuudelle, jolla ei ole aiempaa täytäntöönpanokelpoisia standardeja."
Corlette päätteli: ”Historia viittaa siihen, että muilla alueilla kehitetyt säännökset muistuttaisivat läheisesti myös tätä orastavaa EU-lainsäädäntöä. Esimerkkinä EU:n GDPR.
Vaikka yhdenmukaistaminen EU:n tekoälylain kanssa varmistaa sujuvan liiketoiminnan rajojen yli ja voi välttää mahdolliset sääntelyristiriidat, Yhdistyneen kuningaskunnan yritysten tulisi seurata tiiviisti sääntelyn kehitystä lähempänä kotiaan.
Spectrum Search's Wood neuvoi "suojaamaan vetoja noudattamalla tarkasti Yhdistyneen kuningaskunnan erityisiä säännöksiä ja säilyttämällä joustavuus sopeutua sekä Yhdistyneen kuningaskunnan että EU:n vaatimuksiin."
Asiantuntijat neuvoivat, että Yhdistyneen kuningaskunnan organisaatioiden tulisi sopeutua nopeasti, jos ja kun eri alueiden sääntelyjärjestelmien välillä ilmenee eroja.
Harper James' White kommentoi: ”Monien säännösten täyttäminen samanaikaisesti voi olla resurssivaltaista; Siksi tämäntyyppinen "suojausstrategia" antaa yrityksille mahdollisuuden kohdistaa resursseja tehokkaasti tasapainottaen innovaatioiden ja toiminnan tehokkuutta ja säilyttämällä jonkin verran joustavuutta, yritykset voivat kääntyä ja mukautua muutoksiin sekä Ison-Britannian että EU:n sääntely-ympäristöissä tarpeen mukaan."
Yksityisyys ja hallinto
Tekoälyn yrityskäytöstä johtuvat hallinto- ja tietosuojaongelmat ulottuvat säännöstenmukaisuutta ja sääntelyä pidemmälle.
"Gen AI -mallien ja -tietokantojen koulutus edellyttää usein valtavien tietojoukkojen käsittelyä, jotka sisältävät merkittäviä määriä henkilötietoja, mikä voi johtaa merkittäviin yksityisyyteen ja hallintoon liittyviin riskeihin Iso-Britannian yrityksille", Harper James' White selitti. "Nämä tiedot voivat joskus sisältää arkaluontoisia tai erityisiä henkilötietoja, joiden käsittely voi vahingossa säilyttää tai jopa pahentaa ennakkoluuloja ja johtaa epäreiluihin tai syrjiviin lopputuloksiin. Luodun sisällön väärinkäyttö voi loukata tietosuojaoikeuksia."
Algoritminen harha, jossa tekoälyjärjestelmät voivat tahattomasti toistaa harjoitustiedoissa olevia harhoja, voidaan lieventää säännellyillä auditoinneilla ja erilaisilla tietosarjoilla.
Whiten mukaan yritykset voivat auttaa vähentämään näitä riskejä ottamalla käyttöön vankat tiedonhallintakäytännöt ja keskittymällä siihen, miten heidän työntekijänsä käyttävät tekoälyä.
"Tämä sisältää anonymisointitekniikoiden käyttämisen, tiukan pääsynvalvonnan, säännöllisen harhavalvonnan ja sen varmistamisen, että tekoälymallien kouluttamiseen käytetyt tiedot ovat tarkkoja, täydellisiä ja edustavia", White neuvoi.