Syyskuu oli käännekohta tekoälyn etiikan puolustajille. Liittovaltion kauppakomissio (FTC) liikkeeseen Pykälässä 6(b) määrätään seitsemälle suurelle chatbotteja tuottavalle teknologiayritykselle, että niitä käytetään chatbottien kumppaneina. Tämä on ensimmäinen merkittävä liittovaltion tutkinta, joka kohdistuu erityisesti tekoälyyn perustuviin chatbottien kumppaneina, jotka on suunniteltu matkimaan ihmisen ominaisuuksia, tunteita ja aikomuksia. Liittovaltion kauppakomissio ei tyrkytä toimia. Se iskee joihinkin tekoälyn merkittävimpiin yrityksiin. Alphabet, Meta Platforms, Instagram, OpenAI, Snap, Character Technologies ja Elon Muskin xAI saivat kaikki määräykset.

Komissaarit äänestivät yksimielisesti määräysten antamisesta, mikä viestii molempien puolueiden sääntelyyn liittyvästä huolesta tekoälyä kohtaan. He antoivat yrityksille 45 päivää aikaa selittää tekoälytoimintansa eri osa-alueita, mukaan lukien miten ne ansaitsevat rahaa käyttäjien sitoutumisesta, käsittelevät käyttäjien syötteitä, tuottavat tuloksia vastauksena käyttäjien tiedusteluihin sekä kehittävät ja hyväksyvät tekoälyhahmonsa. Niiden on myös raportoitava, miten ne mittaavat, testaavat ja seuraavat negatiivisia vaikutuksia ennen käyttöönottoa ja sen jälkeen, sekä miten ne lieventävät negatiivisia vaikutuksia, erityisesti lasten osalta.

Näissä raporteissa käsitellään myös sitä, miten ne tiedottavat käyttäjille ja vanhemmille mahdollisista kielteisistä vaikutuksista, tiedonkeruu- ja käsittelykäytännöistään sekä siitä, miten ne käyttävät tai jakavat henkilötietoja. Joten yksityisyyden suojaan ja haavoittuviin käyttäjiin kohdistuvista mahdollisista haitoista on laaja huoli.

Miten tämä vaikuttaa B2B-yrityksiin?

Olemme sekä yllättyneitä että emme yllättyneitä siitä, että FTC toimii näin. Toisaalta Trumpin hallinto on jyrkästi sääntelyä vastaan, erityisesti tekoälyn osalta. Toisaalta useat perheet ovat nostaneet kanteita väittäen, että tekoälychatbotit ovat rohkaisseet teini-ikäisten itsemurhiin. Lapsia on väitetysti yllytetty ottamaan henkensä itseensä vastuuttomasti toimivien tekoälyalgoritmien avulla. Joten on korkea aika tehdä jotain.

Haavoittuvien ihmisten tunnetiloilla nopeasti ja rennosti leikittelevät tekoälyt herättävät kuitenkin kuluttajille aiheutuvan haitan kysymyksiä. Miten tämä voisi vaikuttaa B2B-yrityksiin?

Kaikki oletukset, joiden mukaan B2B-organisaatiot voivat jättää huomiotta kuluttajille suunnatun tekoälyn sääntelyn, ovat vaarallisia. varoitti Mayer Brownin asianajajat Christa Bieker ja Christopher Leach vuonna 2022. Liittovaltion kauppakomission (FTC) pykälä 5 ei sisällä nimenomaisia ​​rajoituksia sille, kuka voidaan luokitella kuluttajaksi. Se on nostanut kanteita esimerkiksi yritysten välisiä maksunvälittäjiä ja pienyritysten lainayrityksiä vastaan.

Ja tämä toiminta viittaa siihen, että FTC ei tule olemaan niin välinpitämätön kuin jotkut meistä ovat ehkä luulleet, kun on kyse tekoälyn aiheuttamien haittojen korjaamisesta.

Vuonna 2023 silloinen puheenjohtaja Lina M. Khan sanoi, että ”tekoälyä koskevassa lainsäädännössä ei ole poikkeusta, ja FTC valvoo lakia voimakkaasti torjuakseen epäreiluja tai harhaanjohtavia käytäntöjä tai epäreiluja kilpailumenetelmiä.” Jää nähtäväksi, kuinka paljon tämä pitää paikkansa uudessa hallinnossa, mutta yritysten vastuuseen saattaminen on selvästi edelleen halukasta.

Yritykset, jotka eivät hyödynnä tekoälyä kunnolla, vaarantavat "algoritmisen väistymisen"

On todella surullista ja harvinaista, että joku rakastuu myyntireskontra-chatbottiinsa. Siitä huolimatta tekoälyn vastuuton käyttö voi silti aiheuttaa ongelmia B2B-yrityksille.

Esimerkiksi Yhdysvaltain kauppakomissio (FTC) otti käyttöön algoritmisen poistonvalvontatoimenpiteen, jonka avulla se voi saada yritykset poistamaan tekoälyjä, jotka on kehitetty väärin hankituilla tiedoilla. Näitä on sovellettu pääasiassa kuluttajatapauksissa, mutta kuten olemme oppineet, yritykset voivat olla myös kuluttajia.

Käytä ISO 42001 -standardia parhaiden käytäntöjen dokumentointiin

Yritykset voivat suojella itseään tietyillä toimenpiteillä varmistamalla, että ne kehittävät ja ottavat käyttöön tekoälyjään vastuullisesti. Yksi tehokkaimmista toimenpiteistä on dokumentoida, että asiat tehdään vastuullisesti alusta alkaen. ISO 42001, kansainvälinen standardi erityisesti tekoälyn hallintajärjestelmille (AIMS), käsittelee tekoälyhaasteita, kuten etiikkaa, läpinäkyvyyttä, jatkuvaa oppimista, puolueellisuutta ja vastuullisuutta. Juuri nämä huolenaiheet ovat FTC:n tutkimuksen taustalla.

Esimerkiksi tätä standardia noudattavien organisaatioiden on tunnistettava ja dokumentoitava mahdolliset haitat ennen käyttöönottoa, arvioitava suhteettomia vaikutuksia suojeltuihin ryhmiin, arvioitava riskit säännöllisesti uudelleen ja toteutettava dokumentoituja lieventäviä toimenpiteitä. Juuri tätä FTC vaatii chatbot-palveluntarjoajilta.

Vastaavasti ISO 42001 -standardin liite A.7 ohjaa tiedonkeruulähteiden sekä muunnoksen, käytön ja tallennuksen dokumentointia. Se tarkastelee tiedon laadunhallintaa, mukaan lukien järjestelmän mahdollisten vinoumien vaikutusta.

Jopa yritysten, jotka eivät ole suoraan tekemisissä kuluttajien kanssa, kannattaisi tarkastella FTC:n meneillään olevaa tutkimusta B2B-näkökulmasta. Chatbotit eivät ole vain uusia käyttöliittymiä olemassa oleviin yritysjärjestelmiin. Pikemminkin ne ovat paljon tehokkaampia tiedonkeruun ja -käsittelyn suhteen, ja niiden kieli on paljon sujuvampaa ja luonnollisempaa. Tämä luo uusia tapoja vuorovaikutukseen yritysasiakkaiden ja työntekijöiden kanssa.

Liittovaltion kauppakomission (FTC) pykälän 6(b) mukaiset määräykset eivät merkitse oikeustoimia; ne ovat tiedonhankintavälineitä, jotka auttavat komissiota täydentämään tietämystään. Jos se ei kuitenkaan pidä löydöksistään, voi seurata täytäntöönpanotoimenpiteitä. Ja tämä voisi luoda ennakkotapauksia kaikenlaiselle tekoälyn käytölle kaikenlaisia ​​kuluttajia (myös pieniä yrityksiä) vastaan. Epävakaassa sääntelyympäristössä, jossa päättäjät painiskelevat uuden teknologian kanssa, kannattaa olla varovainen ja toteuttaa valvontatoimia.