
Miksi tekoäly on riskialtista liiketoimintaa – ja mitä tehdä sille
Sisällysluettelo:
On vuosi 2023, ja tekoäly näyttää olevan kaikkialla. ChatGPT, Elon Muskin perustaman OpenAI-instituutin tuottama tekoäly, on opiskelijoiden esseiden kirjoittaminen, kirjottaa kirjoja, Ja jopa haastavia pysäköintisakkoja. Eräässä tapauksessa, joka todistaa, että elämme Black Mirrorin jaksossa, erityisen sieluton yliopiston työntekijä jopa käytti sitä lohduttaa opiskelijoita joukkoampumisen jälkeen.
Miten ChatGPT toimii
Tietosuoja- ja turvallisuusasiantuntijat saattavat pohtia, kuinka tekoäly voisi auttaa heitäkin. Voisiko se esimerkiksi kirjoittaa tietosuojakäytäntösi? Vastaus on kyllä – tavallaan.
Jotta voit purkaa kysymyksen perusteellisemmin, kannattaa ymmärtää, miten ChatGPT:n uudempi tekoäly toimii. Se perustuu suureen kielimalliin (LLM). Tämä on tekoälymalli, joka on koulutettu käyttämällä suurta tekstikokonaisuutta, joka on tyypillisesti kaavittu Internetistä. Harjoitteluprosessi jakaa tämän tekstin tunnuksiksi, jotka voivat olla sanojen osia. Sitten se käyttää valtavia määriä laskentatehoa löytääkseen kielestä malleja, jotka auttavat sitä ymmärtämään, kuinka nämä tunnukset liittyvät toisiinsa.
Kun joku kysyy tekoälyltä pyyntöä (sanotaan "selitä kylmäfuusio Sherlock Holmesin tyyliin"), tekoäly käyttää laajaa koulutusmalliaan ottamaan sanapalstoja ja ennustamaan, mitkä niistä todennäköisesti tulevat seuraavaksi. Näin se voi tuottaa vakuuttavan kielen, joka näyttää noudattavan kehotteessa esitettyjä käsitteitä.
Itsevarma ja tyhmä: Huono yhdistelmä
Tämän lähestymistavan ongelmana on, että tekoäly ei tiedä mistä se puhuu. Tutkijat ovat verranneet sitä "stokastiseen papukaijaan", joka yhdistää satunnaisia sanoja ymmärtämättä niitä. Tätä kuvaava lehti, Stokastisten papukaijojen vaaroista, huomauttaa, että "kielet ovat merkkijärjestelmiä eli muodon ja merkityksen pareja." Kun joku sanoo "kani", ymmärrät kanin käsitteen ja sen, miten se liittyy moniin muihin asioihin (pääsiäinen, kevät, lemmikit, maukas muhennos jne.). "Mutta LM:iden koulutustiedot ovat vain muotoa", tutkijat sanovat. "Heillä ei ole pääsyä merkitykseen."
Tämä aiheuttaa ongelmia LLM:ille, joihin luotat asiasisällön suhteen. Koska he hankkivat sanat pikemminkin tilastollisen todennäköisyyden kuin tiedon perusteella, heillä on tapana kirjoittaa asioita, jotka eivät ole totta. Tekoälyslangissa tätä kutsutaan "hallusinaatioksi", ja se on ongelma, jos haluat luottaa niihin asiasisällön suhteen.
Ihmiset ovat kokeilleet käyttämällä ChatGPT:tä tietosuojakäytännön kirjoittamiseen, ja tulokset ovat kyseenalaisia. He havaitsivat ennustettavasti, että tulokset olivat huonompia, kun LLM:n piti täyttää enemmän tyhjiä kohtia.
Yksinkertaiset tekoälykehotteet palauttivat käytännöt, jotka eivät perustuneet tiettyihin tietosuojalakeihin eivätkä liittyneet tiettyihin liiketoimintakäytäntöihin. Tietosuojakäytäntö parani testaajien lisättyä tietoa siihen pisteeseen, jossa se tuotti vaikuttavan tuloksen. Kuitenkin siihen mennessä "sinun täytyy käyttää tunteja, päiviä tai jopa viikkoja ensin selvittääkseen, mitä tietosuojalakeja sovelletaan sinuun, analysoimalla näiden lakien julkistamisvaatimuksia ja toimittamalla sitten nämä tiedot ChatGPT:lle yhdessä erityisten liiketoimintakäytäntöjesi kanssa, " hän sanoo. Mikä herättää kysymyksen: miksi ei vain tehdä kaikkea itse ensin?
Toiset ovat kuvanneet ChatGPT:tä ja vastaavia LLM:itä "sanojen laskimiksi". Ne ovat todella hyödyllisiä kirjoittamiseen vain, jos teet itse paljon työtä ja tarkistat huolellisesti tulokset.
Ihmisten tekoälyn käyttö on usein myös itsevarmaa ja tyhmää
Emme voi luottaa tekoälytyökaluihin, mutta voimme luottaa siihen, että ihmiset käyttävät niitä väärin. Olemme jo nähneet huonosti suunnitellun ja sopimattomasti sovelletun tekoälyn seuraukset, mikä on johtanut merkittäviin laskuihin, jotka vaikuttavat tosielämään.
Viranomaiset ovat käyttäneet tekoälyllä varustettuja järjestelmiä, jotka ovat osoittautuneet puolueellisiksi suositellessaan oikeudellisia tuomioita. Esimerkiksi Alankomaiden veroviranomaisen tekoälyohjelmistojen väärinkäyttö johti virastoon epäoikeudenmukaisesti syyttää vanhempia petoksesta– sokea usko virheellisiin tekoälypohjaisiin kasvojentunnistusalgoritmeihin johti siihen viattomien ihmisten laiton pidätys. Harhaa esiintyi myös Amazonin tekoälyllä toimivassa rekrytointijärjestelmässä, joka poistettiin sen säilymisen jälkeen. ei voi suositella päteviä naisia teknologiatehtäviin.
Miten voimme lähestyä tätä ongelmaa? Jotkut asiantuntijat ovat jo tehneet kutsuttu Tekoälykehityksen kuuden kuukauden moratorio saadaksemme päämme koko valitettavan sotkun ympärille, ennen kuin asiat karkaavat vielä enemmän käsistä.
Ohjeista ei ole pulaa
Meillä on jo paljon vastuullisia tekoälyohjeita, joista valita, ja niissä sanotaan samanlaisia asioita. Edunvalvontaryhmä Algorithm Watch pitää inventaario eri toimielimiltä, mukaan lukien EU:lta, antamia tekoälyohjeita Luotettavan AI: n etiikkaohjeet. Yksi, jota ei ollut mukana kirjoitushetkellä, oli National Institute of Standards and Technology (NIST's) AI Risk Management Framework, julkaistu tämän vuoden tammikuussa. Kuten useimmat muutkin suuntaviivat, NIST-kehys pyrkii tarjoamaan joitain kiskoja tekoälyn kehittämiseen ja soveltamiseen. Se toistaa myös useita yhteisiä periaatteita muissa eettisissä ohjeissa, kuten läpinäkyvyys, vastuullisuus, yksityisyys, turvallisuus ja joustavuus.
Per OEDC, kirjoitettaessa on yli 800 tekoälypoliittista aloitetta lähes 70 maassa, mutta sitovan ja ei-sitovan politiikan välillä on suuri ero. Useimpien aloitteiden noudattaminen, mukaan lukien NIST:t, on vapaaehtoista.
Katsaus Clearview AI:n kaltaisiin yrityksiin osoittaa, kuinka tärkeää on valvoa vastuullisten tekoälykäytäntöjen laillista täytäntöönpanoa sen sijaan, että vain kysyisit kauniisti. Startup, joka myy kasvojentunnistuspalveluita lainvalvontaviranomaisille, saa ne käyttöön miljoonien valokuvien kautta ryöstetty sosiaalisen median verkoista ilman ihmisten suostumusta.
Sääntely ei riitä
Maat ovat jakautuneet suhtautumisessaan politiikkansa tiukkaan säätelyyn. Kaikilla on sama haaste: liian vähän sääntelyä, ja heillä on riski teknologian ennakoimattomasta ja vastuuttomasta käytöstä. Liian paljon, ja ne saattavat pakottaa potentiaalisesti tuottoiset tekoälyinnovaattorit muuttamaan pois.
Yhdysvallat ei ole vielä sääntelenyt tekoälyä. kongressi ehdotettu Algorithmic Accountability Act vuonna 2022, mutta se kuoli ilman äänestystä. FTC:llä on luvattu käyttää olemassa olevia valtuuksiaan suojellakseen Yhdysvaltain asukkaita tekoälyn räikeältä käytöltä. Se on myös julkaissut an ennakkoilmoitus ehdotetusta säännöstöstä Tämä voisi ennakoida uusia laaja-alaisia kauppasääntöjä, jotka koskevat automatisoituja päätöksenteko- ja valvontajärjestelmiä.
EU on ollut aggressiivisempi ja ehdottanut AI-laki, joka puoltaa toivon menevän ohi tänä vuonna. Se kattaisi kaikki tekoälytuotteet ja -palvelut, luokitellaan ne niiden koetun riskitason mukaan ja soveltaen tiukkoja arvioita ja tietojen noudattamista koskevia sääntöjä riskialttiimpiin tuotteisiin. Lainrikkojia uhkaa suuret sakot.
Iso-Britannialla on otettava mitä se eufemistisesti kutsuu "innovaatiota edistävä lähestymistapa". Sen sijaan, että nimittäisi yksi uusi tekoälysäätelijä, se jakaa vastuun tekoälyn sääntelemisestä olemassa olevien sääntelijöiden kesken eikä anna niille aluksi uusia laillisia valtuuksia tehdä niin.
Kun poliitikot kävelevät tiukkana köyden etiikan ja taloudellisen hyödyn välillä, tekoälyn tulevaisuus on vaakalaudalla. Yksi asia on varma: vastuullisen toiminnan jättäminen yksin teknologiayritysten tehtäväksi olisi…vastuutonta.