Sääntelyn osalta termi "Yhdysvallat" on oksimoroni. Osavaltioiden lait eivät ole lainkaan yhtenäisiä, ja jokainen lainkäyttöalue on perinteisesti räätälöinyt lainsäädäntöä äänestäjiensä erityistarpeiden mukaan. Missään tämä tilkkutäkkimäinen lähestymistapa lakiin pätee yhtä hyvin kuin tekoälyn alkuvaiheessa olevassa maailmassa.

Lainsäätäjät kaikissa 50 osavaltiossa allekirjoitettu 118 Tekoälyyn liittyvät lakiesitykset tänä vuonna voimaan jo voimassa olevien lakien lisäksi. Tämä edustaa vain 11 prosenttia niistä 1 080 laista, joita osavaltioiden lainsäätäjät käsittelivät vuonna 2025.

Myös hyväksytyt lait laajenevat. Coloradon SB 24-305 (voimaan ensi vuoden kesäkuun 30. päivästä alkaen) on ensimmäinen laaja tekoälyyn liittyvien kuluttajien oikeuksia koskeva kehys, joka vaikuttaa yksityisiin yrityksiin, jotka kehittävät tai käyttävät "korkean riskin tekoälyjärjestelmiä" esimerkiksi työllisyyden, lainanantojen, terveydenhuollon ja asumispäätösten aloilla.

Eri lait lähestyvät ongelmaa eri tavoin, mikä pahentaa tilkkutäkkivaikutusta. Esimerkiksi Texasin vastuullista tekoälyä koskeva TRAIGA-laki (Responsible Artificial Intelligence Governance Act), toinen tänä vuonna allekirjoitettu kattava tekoälyn kuluttajansuojakehys, sitoo vastuun tahallisuuteen, toisin kuin Coloradon tulosperusteinen painotus. Samaan aikaan Kaliforniassa on useita lakeja, mukaan lukien yksi, joka keskittyy koulutusdatan läpinäkyvyys.

Yhdysvaltalaisille yrityksille soivat jo vaatimustenmukaisuuden hälytyskellot seitsemän kymmenestä IT-johtajat luokittelevat nyt sääntelyn noudattamisen yhdeksi kolmesta suurimmasta haasteesta generatiivisen tekoälyn käyttöönotossa. Gartner (tilastojen lähde) uskoo, että tekoälyyn liittyvät sääntelyrikkomukset lisäävät teknologiayritysten oikeudellisia riitoja 30 prosentilla. Yritykset saattavat ymmärtää riskin, mutta se ei tarkoita, että ne olisivat valmiita siihen. Markkina-analyysiyrityksen mukaan alle neljännes on luottavainen siihen, että he todella pystyvät hallitsemaan tekoälyn hallintaa.

Sääntelyn kanssa painiminen ei ole mitään uutta yhdysvaltalaisille yrityksille, joiden täytyi sulatella GDPR:ää (vähän kuin käärme nielisi vuohen) vuonna 2018. Mutta tekoälystä on tulossa heille pahempi.

Trumpin EO-gambiitti

Vaikeuksissa olevat johtajat saattavat etsiä lohtua presidentti Trumpin viimeisimmästä viestistä. Viime viikolla Valkoinen talo antoi Executive Order pyrkii hillitsemään tekoälyn valtion sääntelyä. Näin tehdessään se pyrkii lunastamaan monia sen asettamia lupauksia AI-toimintasuunnitelma, julkaistiin heinäkuussa.

Uusin oikeusministeri Pam Bondin nimittää tekoälyoikeudenkäyntien työryhmän johtajaksi. Työryhmän tehtävänä on selvittää, mitä osavaltioiden lakeja hän pitää laittomina. Kauppaministeriö seuraa tilannetta sitomalla avustushakemukset osavaltioiden sääntelymaisemaan.

Toiminnanjohtajan tavoitteena on korvata osavaltiotason säännökset, joista pääministeri ei pidä, yhdellä oikeudellisella kehyksellä, jonka kehittää tekoälyn ja kryptovaluuttojen erityisneuvonantaja (tällä hetkellä tässä tehtävässä toimii entinen PayPalin operatiivinen johtaja David Sacks). Liittovaltion viestintäkomissio aikoo myös tutkia yhden liittovaltion standardin luomista tekoälymallien raportointiin ja julkistamiseen.

Tämä saattaa ilahduttaa joitakin niistä yrityksistä, jotka ovat huolissaan osavaltiotason lainsäädännön monimutkaisuudesta, mutta käytännössä lakiasiantuntijat eivät usko, että sillä on pohja.

”Liittovaltion virastot, kuten oikeusministeriö ja liittovaltion kauppakomissio, eivät voi puuttua laillisiin osavaltioiden määräyksiin ilman kongressin selkeää valtuutusta.” kirjoitti Olivier Sylvain, oikeustieteen professori Fordhamin yliopistossa ja vanhempi tutkija Columbian yliopiston Knight First Amendment Institutessa.

Kongressi ei pelaa palloa mukana. Heinäkuussa senaatti äänesti ylivoimaisella enemmistöllä ehdotetun 10 vuoden moratorion poistamisesta osavaltioiden tekoälylakien täytäntöönpanosta ehdotetusta lainsäädännöstä. Viime aikoina lainsäätäjät kieltäytyivät lisäämästä tällaista moratoriota kansallisen puolustusvaltuutuslain (National Defense Authorization Act) säännöksiin.

Toimeenpanovallan määräykset koskevat hallitusta, eivät yksityistä sektoria, minkä vuoksi uusimmassa asiakirjassa yritetään käyttää toimeenpanovaltaa osavaltioiden oikeudenkäyntien tukahduttamiseen. Sylvain lisäsi kuitenkin, että "ilman minkäänlaista lakia, joka puuttuisi lähellekään tekoälyn osavaltioiden sääntelyyn, saati sitten estäisi sitä, oikeusministeriön tai liittovaltion kauppakomission hyökkäys osavaltioita vastaan ​​olisi todennäköisesti kuollut välittömästi".

Vaatimustenvastaisen tekoälyn käyttöönoton riskit

Tämän mielessä yritysten kannattaisi suunnitella pitkän aikavälin noudattamista osavaltiotason tekoälysäännösten kanssa. Tätä varten kolmen kysymyksen tulisi nyt olla pakollisia tekoälyä koskevissa hallituskeskusteluissa: Kuka on vastuussa tekoälypäätöksistä? Miten riskit arvioidaan? Ja mitä tapahtuu, kun mallit epäonnistuvat? Mutta näin ei tapahdu. Vain 49 % hallituksista on arvioinut tekoälyä, riskejä, mukaan Yritysjohtajien kansallinen yhdistys.

Riskien arvioimatta jättämisen vaarat ovat moninaiset. Suurin niistä on ehdottomasti mukaan McKinsey, on epätarkkuus, sillä 30 % yrityksistä on kokenut tämän ainakin kerran tekoälyprojekteissa. Vuonna 2024 Air Canada maksoi vahingonkorvauksia sen jälkeen, kun sen chatbotti keksityt surualennuksetmutta nämä kalpenevat verrattuna sen aiheuttamaan mainehaitaan.

McKinseyn listalla toisena oli selitettävyys, joka on vaikuttanut 14 prosenttiin yrityksistä, jotka ovat ottaneet tekoälyä käyttöön tosielämässä. Jos et selitä, miksi mallisi eväsi joltakulta lainan, se voi johtaa sääntelyyn liittyviin ongelmiin. Muita riskejä ovat yksityisyyden loukkaukset ja kyberturvallisuushaavoittuvuudet, jotka kaikki voivat johtaa sääntelyn vastatoimiin.

Yritysten ei tarvitse etsiä kaukaa esimerkkejä pieleen menneistä tekoälyn käyttöönotoista. Yksi tekoälypohjainen ohjelmistokehityspalvelu poisti henkilön tuotantotietokannanesimerkiksi. Ehkäpä huolestuttavin kaikista oli kuitenkin skandaali Alankomaiden veroviranomaisen tekoälyn väärinkäyttö tehdä elämään vaikuttavia etuuksia koskevia päätöksiä.

ISO/IEC 42001 tarjoaa perustan tekoälyn vaatimustenmukaisuudelle

Tällaisina epävakaina aikoina, jolloin tekoälyn sääntelykenttä on kaikkea muuta kuin yhtenäinen, vakiintuneiden standardien, kuten ISO / IEC 42001 auttaa luomaan johdonmukaisesti hyviä käytäntöjä. Joulukuussa 2023 julkaistu kansainvälinen standardi tekoälyn hallintajärjestelmille. Tekoälyn käyttöönottoa harkitsevat organisaatiot voivat käyttää sitä apunaan riski- ja vaikutusarvioinneissa. Se on tekoälyn hallintatyökalu, joka toimii useilla eri lainkäyttöalueilla.

Yritykset voivat auttaa kehittämään ja ylläpitämään vankkoja tekoälyn parhaita käytäntöjä sisällyttämällä vaatimustenmukaisuustoimenpiteitä organisaatiorakenteeseensa. Voit esimerkiksi nimetä vaatimustenmukaisuustiimisi jäsenen valvomaan ISO 42001 -standardin mukaisia ​​tekoälyyn liittyviä vaatimustenmukaisuustoimenpiteitä ja sisällyttää säännöllisiä riskinarviointitoimenpiteitä tekoälyn kehitys-, käyttöönotto- ja käyttöprosesseihin.

Osavaltioiden lakien myrskyisässä meressä ja muuttuvien liittovaltion täytäntöönpanoprioriteettien koetellessa sääntelyn rajoja, ISO 42001 on pelastusrengas, johon yritysten vaatimustenmukaisuusosastot voivat takertua.