Tekoäly on kehittynyt nopeasti ja sen avulla pystytään nykyisin tuottamaan nopeasti ja edullisesti aidolta näyttäviä ja kuulostavia video- ja äänisisältöä.
Lintukodon aika on ohi – deepfake-huijaukset ovat uhka suomalaisyrityksille
Tekoäly on kehittynyt nopeasti ja sen avulla pystytään nykyisin tuottamaan nopeasti ja edullisesti aidolta näyttäviä ja kuulostavia video- ja äänisisältöä. Se pystyy muokkaamaan valokuvissa ja videoissa ihmisen kasvoja tai lisäämään niihin esimerkiksi julkisuuden henkilöitä. Tällaiset deepfake-huijaukset eli syväväärennökset ovat lisääntyneet useiden lähteiden mukaan räjähdysmäisesti viime vuonna.
Financial Timesin mukaan yksistään Britanniassa varastettin noin 50 miljoonaa puntaa esittämällä poliisia, pankkivirkailijaa tai yritysjohtajia alkuvuonna 2023. Varmennuspalveluyhtiö Regulan mukaan 37 prosenttia yrityksistä on raportoinut äänihuijauksista ja 29 prosenttia videohuijauksista vuonna 2023.
Myös sosiaalinen media on otollinen alusta syväväärennöksille. LinkedInissä on muun muassa käytetty tekaistuja, aidon oloisia profiileja rekrytointiyrityksiin kohdistuneissa huijauksissa.
Suomalaisissa yrityksissä on tuudittauduttu siihen, ettei tekoäly osaa jäljitellä suomen kieltä. Lintukodon aika on ohi, sillä toimitusjohtajan ääntä jäljitteleviä huijauspuheluita on jo soiteltu suomalaisiin yrityksiin. Lisäksi liikkeellä on ollut deepfake-sähköpostiviestejä. On todennäköistä, että deepfake-huijaukset tulevat yleistymään voimakkaasti myös meillä, ja syväväärennöksistä tulee todellinen uhka myös suomalaisille yrityksille.
Deepfake-huijauksilta suojautuminen edellyttää tietoisuuden lisäämistä, teknologisten turvamekanismien hyödyntämistä ja henkilöstön kouluttamista. Säännölliset tietoiskut ja koulutukset auttavat henkilöstöä tunnistamaan väärennökset. On tärkeää, että henkilöstö oppii ymmärtämään, miltä väärennökset voivat näyttää tai kuulostaa sekä miten ne voidaan tunnistaa ja raportoida.
Sisäiset turvallisuusprotokollat ja -prosessit sekä uhkakuvien kartoittaminen ja ymmärtäminen ovat myös olennaisessa roolissa. Kaksivaiheinen varmennus, useiden henkilöiden suorittamat tarkistukset ja luottamuksellisen tiedon huolellinen suojaaminen voivat auttaa torjumaan deepfake-rikollisuutta. Lisäksi tekniset apuvälineet, kuten tekoälyyn ja koneoppimiseen perustuvat äänen- ja kasvontunnistustekniikat, voivat tarjota lisäsuojaa.
Deepfake-tekniikan ymmärtämisessä piilee myös mahdollisuuksia. Yritysten on välttämätöntä luoda turvallisempia työprosesseja, kouluttaa henkilöstöä ja innovoida uusia teknologisia ratkaisuja. Näin voidaan luoda turvallisempi ja osaavampi työyhteisö.
Erilaisten tekoälysovellusten myötä työntekijäkokemusta voidaan parantaa. Useissa yrityksissä rakennetaan jo jatkuvasti uusia tekoälyä hyödyntäviä sovelluksia ja mietitään tulevaisuuden mahdollisuuksia.
Toki tällaisessa tekoälyn käytössä on koettu myös takaiskuja: eräässä yrityksessä uusille työntekijöille annettiin osana rekrytointiprosessia mahdollisuus keskustella yrityksen pääjohtajalta näyttävän ja kuulostavan videohahmon kanssa. Lopputuloksena työntekijöiden luottamus ja usko yritykseen ja pääjohtajaan laski. Uusia sovelluksia tuleekin käyttää vastuullisesti ja tarkoituksenmukaisesti.
On tärkeää, että suomalaisyrityksissä herätään tekoälyn uhkiin, ja myös mahdollisuuksiin. Kieli ei suojaa meitä, mutta valmistautuminen suojaa. Valmistautumisen täytyy ulottua henkilöstöön saakka, se ei saa jäädä teknologiseksi tietohallinto-osaston asiaksi.