syvän väärennetyn väärän tiedon voima Yhdistyneen kuningaskunnan vaalibannerissa

The Power of the Deepfake: väärää tietoa Yhdistyneen kuningaskunnan vaaleissa

Tekoälyn (AI) käyttämä deepfake-tekniikka ei ole uusi ilmiö. Termiä "deepfake" on käytetty kuvaamaan synteettistä mediaa jo vuodesta 2017 lähtien, ja monia esimerkkejä deepfakeista on julkistettu laajasti. Esimerkkejä viruksista ovat tekoälyn luoma video Mark Zuckerbergistä, joka puhuu Facebookin ilkeästä voimasta, TikTok-tili, joka on omistettu näyttelijä Keanu Reevesin syväfake-videoiden jakamiseen, ja jopa video Yhdysvaltain edustajainhuoneen puhemiehestä Nancy Pelosista, joka sai hänet näyttämään humalassa. 

Deepfake-tekniikka kehittyy jatkuvasti, ja on monimutkaisempaa kuin koskaan kertoa, mikä on totta ja mikä ei. Kun Yhdistyneen kuningaskunnan parlamenttivaalit ovat käynnissä, ovatko syvät väärennökset muokanneet tapaa, jolla äänestäjät näkevät poliittisia ehdokkaita – ja jopa vaikuttaneet heidän äänestämiseensa?

Deepfakes Yhdistyneen kuningaskunnan vaaleissa

Viime kuussa X:ssä (entinen Twitter) julkaistiin työväenpuolueen poliitikko Wes Streetingin käsikirjoitettu video, jossa hänen väitetään kutsuvan työväenpuolueen parlamentin jäsentä Diane Abbottia "tyhmäksi naiseksi". BBC kertoi, että video ja monet kommentit vastauksena X:ään tulivat tiliverkostosta, joka luo ja jakaa leikkeitä poliitikoista ja julkaisee sitten harhaanjohtavia kommentteja vahvistaakseen vaikutelmaa niiden olevan todellisia. 

Pyrkiikö verkosto heikentämään ja diskreditoimaan kohteena olevia poliitikkoja joko poliittisissa tarkoituksissa tai vain viihteen vuoksi? BBC:n raportissa todettiin, että samat tilit julkaisivat fake-leikkeitä työväenpuolueen Luke Akehurstista sekä Reform UK:n Nigel Faragesta, jotka kattavat Ison-Britannian poliittisen kirjon. Eräässä asiaan liittymättömässä tapahtumassa Britannian pääministeri Rishi Sunakista tehdyt satiiriset deepfake-videot levisivät myös äskettäin, kun hän ilmoitti kansallisen palvelun ehdotuksista. 

Tekoälyn vaikutus ei rajoitu myöskään sosiaaliseen mediaan: siellä on jopa AI Riippumaton ehdokas nimeltä AI Steve, tosielämän liikemies Steven Endacottin avatar. 

YouGovin tutkimus havaitsi, että 43 % briteistä saa uutisensa vaalien aikana sosiaalisesta mediasta, toiseksi vain television jälkeen (58 %). Yhteensä 77 % saa uutisensa verkossa. Joten vaikka monet syvänväärennösteknologian sovellukset voivat olla vaarattomia ja viihdyttäviä, videoiden, kuten Wes Streeting -leikkeen, seuraukset voivat olla poliittisesti haitallisia. Kun britit antavat äänensä, joidenkin mielestä syvät väärennökset vaikuttavat todennäköisesti heidän äänestysvalintoihinsa.

GenAI vaikuttaa edelleen myös yrityksiin

Uhkatoimijat jatkavat myös kohdistamistaan ​​yrityksiin ja niiden asiakkaisiin. Viime viikolla australialainen uutiskanava 7News huomasi YouTubensa hakkeroituneen uhkatoimijoiden toimesta, ja he käyttivät sitä suoratoistaakseen tekoälyn luomaa videota, jossa Elon Musk mainostaa kryptovaluuttahuijausta. Sydney Morning Herald kertoi, että syväväärennös rohkaisi katsojia skannaamaan Tesla-brändätyn QR-koodin ja tallettamaan rahaa kryptovaluuttajärjestelmään "kaksinkertaistaakseen kryptoomaisuutensa". 

Hakkerointi osoittaa, että uhkatoimijat ovat tulossa yhä taitavammiksi lähestyessään yrityksiä vaarantamaan kriittisten tietojen – ja asiakkaiden – pääsyn. 7Newsin YouTube-kanavalla on yli miljoona tilaajaa, joten hyökkäyksen takana olevat huijarit voivat tavoittaa 7Newsin merkittävän yleisön: Salausuutiset raportoi, että suoraa lähetystä katsoi noin 60,000 45,000 katsojaa ja toista samanaikaista lähetystä katsoi noin XNUMX XNUMX ihmistä. 

Deepfakesin avulla uhkatekijät voivat myös suorittaa BEC-tyylisiä hyökkäyksiä organisaatioita vastaan ​​käyttämällä tekoälyn tuottamaa ääntä, kuvia ja videoita esiintyäkseen johtavien henkilökunnan jäseninä. Huhtikuussa LastPass kertoi, että a uhkanäyttelijä oli esiintynyt toimitusjohtajana Karim Toubbana WhatsAppilla lähettämällä työntekijälle puheluita, tekstejä ja ääniviestejä, joissa on syväväärennös. Tässä tapauksessa työntekijä ilmoitti tapauksesta ja uhkaa lievensi LastPass. Silti on monia viimeaikaisia ​​tapauksia, joissa tämä hyökkäystapa on onnistunut ja johtanut taloudellisiin menetyksiin.

Tekoälyteknologian edistysaskeleet lisäävät kyberuhkia

Tekoälystä on tulossa yhä helpommin saatavilla oleva teknologia uhkatekijöille, mikä johtaa yksilöihin ja yrityksiin kohdistuvien hyökkäysten lisääntymiseen. Meidän Tietoturvan tilaraportti Kyselyssä yli 1,500 30 tietoturva-ammattilaista ja todettiin, että lähes kolmasosa (12 %) yrityksistä on kokenut deepfake-hyökkäyksen viimeisen XNUMX kuukauden aikana. 

Suurin osa vastaajista (76 %) oli kuitenkin myös samaa mieltä siitä, että tekoäly ja koneoppimisteknologia (ML) parantavat tietoturvaa ja tarjoavat uusia tapoja automatisoida, analysoida ja tehostaa turvatoimia. 62 % odottaa lisäävänsä tekoäly- ja ML-tietoturvasovelluksiin kulujaan seuraavan 12 kuukauden aikana. 

Tekoälypohjaisen teknologian ansiosta, joka tarjoaa yrityksille sekä haasteita että uskomattomia mahdollisuuksia, miten voimme puuttua ja estää syväväärennöstapauksia?

Deepfake-tapahtumien riskin vähentäminen

Yrityksille työntekijöiden koulutus ja tietoisuus ovat elintärkeitä vakavien väärennösten riskin vähentämiseksi. Standardit, kuten kansainvälinen tietoturvastandardi ISO 27001, tarjoavat puitteet tietoturvan hallintajärjestelmän (ISMS) rakentamiselle, ylläpitämiselle ja jatkuvalle parantamiselle. Tämä sisältää tietoturvapolitiikan toteuttamisen, joka opastaa työntekijöitäsi ilmoittamaan epäillystä tapahtumasta, kuten BEC-hyökkäyksestä, sähköpostitse tai deepfake-muodossa. 

Yhdistyneen kuningaskunnan parlamenttivaaleissa suuren yleisön on oltava valppaana pohtiessaan, ovatko sosiaalisen median alustoille lähetetyt videot ja äänikatkelmat todellisia vai manipuloituja. Useat visuaaliset ja äänelliset vihjeet voivat auttaa tunnistamaan syvän väärennöksen. 

Visuaalisia vihjeitä ovat: 

  • Epäluonnollinen silmien liike (tai silmän liikkeen puute)
  • Epäjohdonmukaiset ilmeet
  • Hajanaiset tai nykivät kehon liikkeet
  • Hampaat, jotka eivät näytä todellisilta tai yksittäisten hampaiden ääriviivojen puuttuminen
  • Sumea tai väärin kohdistettu kuva. 

Äänimerkkejä ovat:

  • Robottikuuloisia ääniä
  • Äänihäiriöt 
  • Epäjohdonmukainen ääni
  • Outoja sanojen ääntämisiä
  • Huulten synkronointivirheet, joissa puhuttujen sanojen ja huulten liikkeiden välillä on eroja.

Taistelu synteettisten välineiden vaikutusta vastaan

Tekoälyn luomien syväväärennösten vaikutusta Yhdistyneen kuningaskunnan vaaleihin on vaikea mitata. Kun 43 % briteistä saa uutisensa sosiaalisessa mediassa, monet äänestäjät ovat todennäköisesti nähneet poliittiseen puolueeseen liittyvän synteettisen median muodon – olivatpa he tietoisia siitä tai eivät. 

X:n käyttäjät tunnistavat kuitenkin säännöllisesti mahdolliset syväväärennökset ja varoittavat muita käyttäjiä yhteisön muistiinpanoominaisuuden kautta. Itse X-alustalla on nyt manipuloitu mediapolitiikka, jonka mukaan "et saa jakaa synteettistä, manipuloitua tai kontekstista riippumatonta mediaa, joka voi pettää tai hämmentää ihmisiä ja aiheuttaa vahinkoa". Tili, joka alun perin julkaisi Wes Streetingin manipuloidun videon, on nyt jäädytetty, mutta sen vaikutus jää nähtäväksi.

Deepfake-tapausten lisääntyessä yritysten tulisi myös pohtia, kuinka heidän turva-asentoaan voidaan parantaa. ISO 27001:2022 -standardin mukaisen vankan ISMS:n kehittäminen auttaa organisaatioita vahvistamaan puolustustaan ​​kyberuhkia vastaan, vähentämään onnistuneiden hyökkäysten riskiä ja varmistamaan, että työntekijät ovat tietoisia tietoturvarooleistaan ​​ja -vastuistaan.

DORA on täällä! Paranna digitaalista kestävyyttäsi tänään tehokkaalla uudella ratkaisullamme!