eu ai act -blogi

Miksi on aika aloittaa EU:n tekoälylain suunnittelu?

Harvat tekniikat voivat huolestuttaa sääntelijöitä ja ilahduttaa yrityksiä aivan kuten tekoäly (AI). Se on ollut olemassa vuosia eri muodoissa. Mutta eurooppalaiset lainsäätäjät ovat tunteneet pakkoa puuttua asiaan, kun älykkäät algoritmit sulautuvat yhä enemmän liiketoimintaprosesseihin ja kansalaisille suunnattuihin teknologioihin.

Tällaisia ​​järjestelmiä kehittävien yritysten haasteena on arvioida, täyttävätkö ne tiukat kriteerit, joita tarvitaan markkinoille pääsemiseksi blokissa. Erityisesti Yhdistyneen kuningaskunnan yritysten osalta on tehtävä päätös siitä, miten poikkeavia sääntelyjärjestelmiä hallinnoidaan.

Mitä AI-lakissa on?

Hallitukset eri puolilla maailmaa tarkastelevat tekoälyä tarkemmin pyrkiessään minimoimaan väärinkäytön tai tahattoman väärinkäytön. The G7 keskustelee asiasta. Valkoinen talo yrittää luoda perussääntöjä suojella yksilön oikeuksia ja varmistaa vastuullinen kehittäminen ja käyttöönotto. Mutta EU on kauimpana täysin muotoillussa lainsäädännössä. Sen ehdotukset Euroopan parlamentti hyväksyi äskettäin uuden "AI-lain".

Tekoälylaki pyrkii omaksumaan riskiin perustuvan lähestymistavan ja luokittelee tekoälymallit "ei-hyväksyttävän", "korkean", "rajoitetun" ja "minimaalisen" riskin mukaan. 

Käsittämätön riski tarkoittaa järjestelmiä, jotka uhkaavat ihmisten "turvallisuutta, toimeentuloa ja oikeuksia". Niihin kuuluvat kasvojentunnistustekniikka, hallituksen sosiaalinen pisteytys ja ennakoiva poliisitoiminta, ja ne kielletään kokonaan.

Suuri riski järjestelmiin voisi kuulua kriittisessä infrastruktuurissa käytettävä tekoäly, joka saattaa vaarantaa kansalaisten terveyden, tai koulutusympäristöissä, joissa sitä voitaisiin käyttää kokeiden pisteytykseen. Muita esimerkkejä ovat:

  • Tekoälyn käyttö työpaikan asetuksissa, kuten CV:n lajittelussa.
  • Luottopisteytys.
  • Asiakirjojen tarkistaminen rajatarkastuksessa.
  • Poliisi arvioi todisteita.

 

Mepit asettivat myös sosiaalisen median suositusjärjestelmät, ja tekoäly vaikutti äänestäjiin vaalien aikana korkean riskin luokkaan.

Rajoitettu riski viittaa tekoälyjärjestelmiin, joissa käyttäjille on kerrottava, että he ovat vuorovaikutuksessa koneen, kuten chatbotin, kanssa.

Minimaalinen/ei riskiä järjestelmiä, kuten AI-roskapostisuodattimia tai videopelejä, voidaan käyttää vapaasti ilman rajoituksia. EU väittää, että tämä luokka käsittää suurimman osan tällä hetkellä käytössä olevista tekoälytuotteista.

Mitkä ovat velvollisuudet noudattaa yrityksiä?

Potentiaalisesti riskialttiiden tekoälyjen kehittäjien (tarjoajien) on hypättävä useiden kehien läpi, ennen kuin heidän tuotteensa saatetaan markkinoille. Nämä sisältävät:

  • Riskinarvioinnit ja hallintajärjestelmät
  • Korkealaatuisten tietokokonaisuuksien ylläpito riskien ja syrjinnän minimoimiseksi
  • Toiminnan kirjaaminen tulosten läpinäkyvyyden lisäämiseksi
  • Yksityiskohtainen dokumentaatio järjestelmästä ja sen tarkoituksesta jaettavaksi viranomaisille
  • Selkeää ja "asianmukaista" tietoa käyttäjille
  • "Sopiva" inhimillinen valvonta riskin minimoimiseksi 
  • Korkea "kestävyys, turvallisuus ja tarkkuus".

 

Kun järjestelmä on kehitetty ja läpäissyt vaatimustenmukaisuuden arvioinnin, se rekisteröidään EU:n tietokantaan ja sille annetaan CE-merkintä. Tekoälymallien yrityskäyttäjien on kuitenkin varmistettava jatkuva inhimillinen valvonta ja seuranta, kun taas palveluntarjoajilla on velvollisuus valvoa järjestelmiä markkinoille tullessaan. Molempien sidosryhmien on raportoitava vakavista tapauksista ja kaikista tekoälymallien toimintahäiriöistä.

Miten laki vaikuttaa Yhdistyneen kuningaskunnan yrityksiin?

Ero tämän mahdollisen järjestelmän ja Yhdistyneen kuningaskunnan välillä on jyrkkä. Mukaan Edward Machinille, Ropes & Grayn data-, yksityisyys- ja kyberturvallisuustiimin vanhemmalle lakimiehelle, jälkimmäisen väitetään olevan enemmän innovaatiovetoinen ja liiketoimintaa edistävä.

”Toisin kuin EU, Yhdistyneen kuningaskunnan hallitus ei aio ottaa käyttöön tekoälylainsäädäntöä, eikä se myöskään luo uutta tekoälyn säätelyviranomaista. Sen sijaan olemassa olevat virastot (esim. ICO, FCA) tukevat viitekehystä ja antavat alakohtaisia ​​ohjeita”, hän kertoo ISMS.onlinelle.

"Vaikka Yhdistynyt kuningaskunta on hieman poikkeava kevyessä lähestymistavassaan, kehys perustuu periaatteisiin - turvallisuus, avoimuus, oikeudenmukaisuus, vastuullisuus ja hyvitys - jotka ovat yhteisiä sille, kuinka useimmat lainsäätäjät tällä hetkellä ajattelevat tekoälyn sääntelyä."

On kuitenkin epätodennäköistä, että Yhdistyneen kuningaskunnan yritykset, joilla on toimintaa EU:ssa, pystyvät hyödyntämään tätä kevyempää lähestymistapaa, elleivät ne päätä tukea erilaisia ​​noudattamisjärjestelmiä, joista aiheutuu ylimääräisiä yleiskustannuksia.

"Jos Yhdistynyt kuningaskunta jatkaa kevyempää lähestymistapaa sääntelyyn kuin EU, brittiläisten AI-lain alaisten organisaatioiden on päätettävä, ottavatko ne käyttöön yhtenäisen, Euroopan laajuisen lähestymistavan noudattamiseen", Machin jatkaa.

”Vaihtoehtona on erilliset prosessit Isolle-Britannialle ja EU:lle, mikä tulee monille yrityksille kalliita, vaikeasti toteutettavia ja todennäköisesti vähäisiä kaupallisia hyötyjä. Jos yritykset pystyvät selkeästi ja helposti erottelemaan tietyt noudattamisvelvollisuudet maantieteellisesti, niiden tulee tietysti ottaa ne huomioon samalla, kun on myönnettävä, että käytännössä niiden on myös muissa tapauksissa täytettävä korkeammat EU-standardit.

Mitä varoa

Tietenkin säännöt ovat vielä muuttumassa, kunnes ne on viimeistelty. Euroopan komissio, jäsenvaltiot ja parlamentaarikot tapaavat sarjassa "kolmiosapuolikokouksia" selvittääkseen yksityiskohtia. Esimerkiksi jää nähtäväksi, kuinka generatiivisia tekoälymalleja käsitellään. Kaikki komissio on sanonut tähän mennessä Heidän on noudatettava avoimuusvaatimuksia ja estettävä luomasta "laitonta sisältöä" ja rikkomasta tekijänoikeuksia. Stanfordin tutkijat ovat jo väittäneet että monet tekoälymallit, mukaan lukien GPT-4, eivät tällä hetkellä ole tekoälylain mukaisia.

Machin lisää, että korkean riskin malleja kehittävien tai käyttävien yritysten on myös seurattava tarkasti, mitä seuraavaksi tapahtuu.

"Todennäköisesti tulee olemaan erimielisyyksiä "korkean riskin" tekoälyjärjestelmien määrittelystä, ja yritykset seuraavat tarkasti, miten tämä ravistuu, koska perustavanlaatuiset mallit ja teknologiat, jotka vaikuttavat yhä enemmän ihmisten elämään (kuten työllisyyteen ja rahoituspalveluihin) jää tämän määritelmän piiriin”, hän väittää.

Jonathan Armstrong, Corderyn kumppani, arvioi, että kestää vähintään neljä kuukautta, ennen kuin yritykset saavat tarvitsemansa selvyyden.

”Asiakkaillemme tällä hetkellä annettava neuvo on tehdä muodollinen arviointi, mutta sen ei tarvitse olla liian työlästä. Olemme auttaneet asiakkaita muun muassa muokkaamaan tietosuojavaikutusten arviointiprosessiaan. Tämä on hyvä perusta, koska se tarkastelee joitain tekoälylakiin liittyviä asioita, kuten oikeudenmukaisuutta, läpinäkyvyyttä, turvallisuutta ja pyyntöihin vastaamista”, hän kertoo ISMS.online-sivustolle.  

"Se auttaa heitä myös käsittelemään viisi tekoälyperiaatetta Yhdistyneessä kuningaskunnassa [politiikkapaperi]. Mielestäni se ei ole liian suuri ylimääräinen taakka useimmille organisaatioille, jos he tekevät GDPR oikein – mutta joillekin se on iso asia.”

 

DORA on täällä! Paranna digitaalista kestävyyttäsi tänään tehokkaalla uudella ratkaisullamme!