
Kuinka yritykset voivat pysyä uusien ja kehittyvien tekoälyä koskevien määräysten päällä
Sisällysluettelo:
Tekoäly (AI) muuttaa radikaalisti elämäämme ja työtämme tulevina vuosina. Mutta koska tämä tekniikka on erittäin riippuvainen suurten tietojoukkojen keräämisestä ja analysoinnista, se aiheuttaa myös suuria tietosuojariskejä.
Mukaan tutkimus Ciscon kuluttajista 60 prosenttia on huolissaan siitä, kuinka organisaatiot käyttävät tekoälyjärjestelmiä. Ja 65 % luottaa vähemmän yrityksiin, jotka käyttävät tätä teknologiaa tuotteissaan ja palveluissaan.
Nämä pelot ovat saaneet monet valtion elimet ja suuret instituutiot kehittämään puitteita yrittääkseen säännellä tekoälyteknologian käyttöä. Kesäkuussa EU ilmoitti suunnittelee uraauurtavaa tekoälylakia sen varmistamiseksi, että tämä tekniikka on "turvallinen, läpinäkyvä, jäljitettävissä, syrjimätön ja ympäristöystävällinen".
Jopa Vatikaani on Santa Claran yliopiston Markkulan soveltavan etiikan keskuksen avulla kehitetty käsikirja, jossa hahmotellaan tekoälytekniikan eettisiä vaikutuksia. He toivovat "edistävänsä syvempää ajattelua teknologian vaikutuksesta ihmiskuntaan". National Institute of Standards and Technology on myös kehittänyt Tekoälyn riskienhallintakehys.
Tekoälytekniikan kehittyessä ilmaantuu epäilemättä uusia lakeja sen kehittämiseen ja käyttöön. Samaan aikaan tekoälyyrityksiin ja -käyttäjiin kohdistuva paine kasvaa ymmärtämään ja noudattamaan uusia lakeja. Mutta kuinka he voivat todella tehdä sen onnistuneesti? Ja onko heidän tarvitse tietää muuta? Pyysimme neuvoja useilta alan asiantuntijoilta.
Tekoälysäännöt eivät ole huono asia teollisuudelle
Vaikka tekoälymääräysten käyttöönotto saattaa kuulostaa pelottavalta mahdolliselta organisaatiolle, joka kehittää ja käyttää tätä teknologiaa, se voi itse asiassa olla hyvä asia teollisuudelle. Aleksandr Gornostal, ohjelmistoarkkitehti ja tekoälyasiantuntija at Tähti uskoo, että tekoälysäännöt "luovat oikeudenmukaisemman ja tasa-arvoisemman pelipaikan pitkällä aikavälillä".
Gornostal odottaa uusien määräysten haittaavan tekoälyn tutkimus- ja kehitystyötä lyhyellä aikavälillä. Mutta tämä ei kestä ikuisesti; hän luottaa siihen, että teknologiayrityksillä on lopulta mahdollisuus kehittää tuotteita, jotka ratkaisevat joitain tekoälyn suurimmista ongelmista, erityisesti ihmisen valvonnan, yksityisyyden ja syrjimättömyyden alalla.
Tietenkin yritysten on varmistettava, että niiden tekoälyjärjestelmät noudattavat uusia ja nousevia lakeja, jos ne haluavat menestyä pitkällä aikavälillä. Gornostal neuvoo yrityksiä aloittamaan säännöllisillä vaikutusarvioinneilla ja varmistamalla jatkuvan läpinäkyvyyden sidosryhmien kanssa. Niiden on myös varattava huomattavat määrärahat ja resurssit näiden sääntöjen noudattamiseksi.
"Tekoälymääräysten noudattamisesta tulee Euroopan markkinoille pääsyn edellytys, ja kaikkien yritysten, jotka haluavat käydä kauppaa tai harjoittaa liiketoimintaa EU:ssa, on noudatettava standardeja", hän sanoo.
Gornostal sanoo, että yksityisyyden suojaa koskevien huolenaiheiden lisäksi generatiivinen tekoäly aiheuttaa riskejä monimuotoisuuden, edustuksen ja osallisuuden suhteen. ”Malleilla on tapana vahvistaa hallitsevinta näkemystä ilman, että arvioidaan, kuinka oikeudenmukainen tai oikea se on. Meidän on oltava tietoisia näistä puutteista ja vältettävä tekoälyn käyttöä kaikukammioiden luomisessa."
By-Design-periaatteen ottaminen käyttöön
Tekoälyvallankumouksesta hyötyvillä yrityksillä ei ole muuta vaihtoehtoa kuin valmistautua uusiin ja kehittyviin alan säännöksiin. Kuitenkin, kuten Immuta vanhempi tietosuoja-asiamies ja lakiinsinööri Sophie Stalla-Bourdillon huomautti, että monet ovat jo tottuneet käsittelemään lakeja, kuten yleistä tietosuoja-asetusta. Hän ehdottaa myös, että uusien tekoälysääntöjen noudattaminen on samanlaista.
”Paras tapa ennakoida uusia lakeja ja määräyksiä on ottaa mahdollisimman varhain käyttöön periaatteellinen lähestymistapa, jota mm. GDPR; Toisin sanoen noudattaa suunnittelun mukaista lähestymistapaa vaatimustenmukaisuuteen", hän sanoo.
Tämä edellyttää kontrolloitujen ympäristöjen suunnittelua, joissa organisaatiot etsivät rutiininomaisesti "mahdollisia tapauksia ja ei-toivottuja käytäntöjä", Stalla-Bourdillonin mukaan. Hän neuvoo myös yrityksiä testaamaan näitä mittareiden, kuten luottamuksellisuuden ja oikeudenmukaisuuden, suhteen.
Hän jatkaa, että yritykset voivat valita kahdesta suunnittelustrategiasta "osoittaakseen yksityisyyden ja turvallisuuden lähentyvän". Ensimmäinen käyttää tietosuojaperiaatteita, kuten minimointia ja tiedon tarvetta.
"Käynnistäessään tämän pitäisi johtaa hienorakeisiin kulunvalvontakäytäntöihin. Nämä käytännöt koskevat koulutustietoja, malliparametreja, kyselyitä tai kehotteita, tuloksia tai vastauksia", hän sanoo.
Toinen suunnittelustrategia tarjoaa yrityksille mittareita, KPI:itä ja auditointilokeja, jotka parantavat läpinäkyvyyttä ja havaittavuutta järjestelmän vahvistuksen, koulutuksen, testauksen, käyttöönoton ja monien muiden ajanjaksojen aikana. Hän lisää: "Näkyvyys koko datan elinkaaren ajan lisää hallintaa ja tekee säännöllisistä arvioinneista helpompia osallistua."
Kaikkien on ymmärrettävä tekoälyn riskit
Vaikka tekoälysäännöt ovat "kipeästi tarpeen", ESET globaali kyberturvallisuusneuvoja Jake Moore myöntää, että yritysten on todennäköisesti vaikea pysyä ajan tasalla jatkuvasti muuttuvista vaatimuksistaan.
"Säännökset voivat vahvistaa yrityksiä ja saada ne tuntemaan olonsa suojatuiksi, mutta ne eivät merkitse mitään kehittyneiden haittaohjelmien kehittäjille. Ison-Britannian määräykset ovat tunnetusti myöhässä puolueelle, mutta tämä näyttää jo lupaavammalta, hän jatkaa.
Hän kutsuu hallituksen puuttumista tekoälyriskeihin "tärkeäksi", mutta kehottaa sääntelyviranomaisia asettamaan realistisia odotuksia. "Pedon [AI] hallinta on lähes mahdotonta jatkuvasti kehittyvän teknologian avulla", hän sanoo. "Lisäksi poliisitoiminta on vaikeutunut, kuten aina, kansainvälisillä, rajat ylittävillä lainkäyttöalueilla."
Sen lisäksi, että hän noudattaa uusia tekoälysääntöjä, hän varoittaa organisaatioita olemaan huomioimatta tekoälyllä toimivien kyberhyökkäysten aiheuttamaa uhkaa. Hän odottaa niiden monimutkaisevan ja laajenevan, ja ne kohdistuvat yrityksiin ja yksityishenkilöihin tulevina vuosina.
Hän lisää: "On tärkeää opettaa henkilökunnalle ja suurelle yleisölle, että näkeminen ei aina ole uskomista ja että meidän on "erehdyttävä varovaisuuteen" enemmän kuin koskaan, koska [AI] inhimillistä elementtiä käytetään edelleen pahasti. ”
Aviv Raff, tietohallintojohtaja bloomreach, on samaa mieltä siitä, että on tärkeää kouluttaa ihmisiä tekoälyyn liittyvistä riskeistä ja toimenpiteistä, joita he voivat tehdä käyttääkseen tätä tekniikkaa turvallisesti.
Hän neuvoo: "Yrityksille on tärkeää, että ne ottavat käyttöön politiikkoja ja standardeja, jotka käsittelevät tekoälyn hyväksyttävää käyttöä, järjestävät työntekijöille koulutusta tekoälyn asianmukaisesta käytöstä, varmistavat, että he käyttävät vain yksityisiä tekoälyn esiintymiä, jotka on sidottu sopimukseen, kieltäytyvät mallista. koulutusta ja käyttää vähiten etuoikeusperiaatetta luvattoman pääsyn estämiseksi. "
Tekoäly tarjoaa valtavia mahdollisuuksia koko yhteiskunnalle, mutta se sisältää myös merkittäviä eettisiä riskejä. Näiden riskien maailmanlaajuisen ymmärtämisen rohkaiseminen ja niiden torjuminen on ratkaisevan tärkeää tekoälyteknologian tarjoamien massiivisten potentiaalien toteuttamiseksi.
Säännökset ovat tässä prosessissa olennainen osa, mutta on selvää, että niiden noudattaminen tulee olemaan yrityksille haastava tehtävä. Tekoälytekniikan kehittyessä ja uusien riskien ilmaantuessa valtion elinten on mukautettava määräyksiään vastaavasti varmistaakseen, että ne pysyvät merkityksellisinä.