content/nb-no/images/repository/isc/2020/how-to-protect-yourself-against-deepfake.jpg

En ny verden med Deepfake

Deepfake-videoer er en kombinasjon av ordene «deep», som stammer fra «deep learning» (dyp læring), og «fake» (falsk). Dyp læring er en avansert metode innen kunstig intelligens, som bruker flere lag med maskinlæringsalgoritmer for å trekke ut egenskaper på et stadig høyere nivå fra rå inndata. Den er i stand til å lære fra ustrukturerte data, for eksempel et menneskeansikt. Kunstig intelligens kan for eksempel innhente data om de fysiske bevegelsene dine.

Disse dataene kan deretter behandles for å lage en Deepfake-video gjennom et GAN-nettverk (Generative Adversarial Network). Dette er en annen type spesialisert maskinlæringssystem. To nevrale nettverk brukes til å konkurrere mot hverandre i å lære egenskapene til et opplæringssett (for eksempel bilder av ansikter) og deretter generere nye data med de samme egenskapene (nye «bilder»).

Ettersom et slikt nettverk hele tiden tester bildene det lager, opp mot opplæringssettet, blir de falske bildene stadig mer overbevisende. Dette gjør Deepfake til en stadig større trussel. GAN-nettverk kan også forfalske andre data i tillegg til bilder og videoer. De samme Deepfake-maskinlærings- og sammensetningsteknikkene kan faktisk også brukes til å forfalske stemmer.

Deepfake-eksempler

Det er ikke vanskelig å finne kjente eksempler på Deepfake. Ett eksempel på Deepfake er videoen som skuespilleren Jordan Peele la ut, der han brukte ekte videomateriale av Barack Obama kombinert med hans egen imitasjon av Obama for å advare om Deepfake-videoer. Han viste deretter hvordan de to delene av den kombinerte videoen så ut hver for seg. Rådet hans? Vi må stille spørsmål ved det vi ser.

En video der det ser som om Mark Zuckerberg, administrerende direktør i Facebook, snakker om hvordan Facebook «kontrollerer fremtiden» via stjålne brukerdata – på Instagram. Originalvideoen stammer fra en tale han holdt om russisk innblanding i valget, og bare 21 sekunder av den talen var nok til å sette sammen den nye videoen. Etterligningen av stemmen var imidlertid ikke like god som det Jordan Peele klarte med Obama, så sannheten ble avslørt.

Men også forfalskninger som ikke er så godt laget, kan ha stor påvirkning. En video av en «beruset» Nancy Pelosi fikk millioner av visninger på YouTube, men det var bare en forfalskning. Tempoet i videoen hadde blitt redusert, slik at det virket som hun hadde snøvlete tale. Og mange kjendiskvinner har opplevd å bli ofre for hevnporno, ved at ansiktet deres har blitt plassert i pornofilmer eller pornografiske bilder.

Deepfake-trusler – forfalskning og utpressing

Deepfake-videoer har blitt brukt til politiske formål så vel som til personlig hevn. Men de blir i stadig større grad brukt i utpressings- eller svindelforsøk.

Administrerende direktør i et britisk energiselskap ble svindlet for USD 243 000 av en Deepfake-stemme som fremstilte sjefen i morselskapet som ba om en hasteoverføring av penger. Forfalskningen var så overbevisende at han ikke tenkte på å sjekke det. Pengene ble ikke overført til hovedkontoret, men til en tredjeparts bankkonto. Den administrerende direktøren ble først mistenksom da «sjefen» ba om enda en overføring. Denne gangen ringte alarmklokkene, men det var for sent å få tilbake pengene han allerede hadde overført.

I Frankrike ble det nylig gjennomført et svindelforsøk som ikke tok i bruk Deepfake-teknologi, men som tok i bruk personetterligning, sammen med nøyaktig kopiering av innredningen på kontoret til utenriksminister Jean-Yves le Drian, for å svindle toppsjefer for flere millioner euro. Svindleren Gilbert Chikli skal ha utgitt seg for å være ministeren for å be rike personer og toppsjefer om løsepenger for å befri franske gisler i Syria. Rettsaken mot ham pågår.

Deepfake-trusler og -farer

Det er også mulig at de som lager Deepfake kan drive utpressing mot administrerende direktører i selskaper, ved å true med å publisere en skadelig Deepfake-video hvis de ikke får betalt. Eller inntrengere kan få tilgang til nettverket ditt bare ved å lage et videoanrop fra informasjonssjefen, som lurer ansatte til å avsløre passord og rettigheter. Dermed kan hackerne få full tilgang til sensitive databaser.

Pornografiske Deepfake-videoer har allerede blitt brukt til utpressing av kvinnelige reportere og journalister, for eksempel Rana Ayyub i India, som jobber med å avdekke maktmisbruk. Etter hvert som teknologien blir rimeligere, kan vi forvente å se mer bruk av Deepfake til utpressing og svindel.

Hvordan kan vi beskytte oss mot Deepfake?

Man har allerede begynt å utarbeide lover som er rettet mot trusselen fra Deepfake-videoer. I fjor ble det for eksempel innført to lover i staten California som gjør enkelte sider ved Deepfake ulovlig – med AB-602 ble det forbudt å sette sammen bilder av mennesker for å lage pornografi uten tillatelse fra de som var avbildet, og med AB-730 ble det forbudt å manipulere bilder av politiske kandidater innen 60 dager før et valg.

Men går det langt nok? Selskaper innen Internett-sikkerhet klarer heldigvis å utarbeide stadig bedre oppdagelsesalgoritmer. Disse analyserer videobilder og oppdager små avvik som oppsto i forfalskningsprosessen. Et eksempel er nåværende Deepfake-funksjoner som modellerer et 2D-ansikt og deretter endrer på ansiktet slik at det passer inn i 3D-perspektivet i videoen. Hvis man ser på hvilken vei nesen peker, kan man avsløre det.

Deepfake-videoer er fremdeles på et stadium der du kan oppdage tegnene selv. Se etter følgende egenskaper i en Deepfake-video:

  • ujevn bevegelse
  • endringer i lyset fra det ene bildet til det andre
  • endringer i hudtone
  • merkelig blunking eller ingen blunking i det hele tatt
  • leppene er dårlig synkronisert med talen
  • digitale artefakter i bildet

Men etter hvert som Deepfakes blir bedre, er et godt Internett-sikkerhetsprogram til mer hjelp enn øynene.

Avansert teknologi mot forfalskning

Enkelte nye teknologier hjelper nå videoskapere med å autentisere videoene sine. En kryptografisk algoritme kan brukes til å sette inn hash-koder ved angitte intervaller i videoen. Hvis videoen blir endret på, endres hash-kodene. Kunstig intelligens og blokkjede kan registrere et digitalt fingeravtrykk for videoer, som ikke kan manipuleres. Det ligner på vannmerker i dokumenter, men det som er vanskelig med videoer, er at hash-kodene må overleve hvis videoen komprimeres for bruk med ulike kodeker.

En annen måte å forhindre Deepfake-forsøk på, er å bruke et program som setter inn spesialdesignede digitale artefakter i videoer for å skjule pikselmønstrene som ansiktsgjenkjenningsprogramvare bruker. Disse svekker så Deepfake-algoritmene og gir resultater av dårlig kvalitet, noe som gjør det mindre sannsynlig at Deepfaking lykkes.

Gode sikkerhetsprosedyrer er den beste beskyttelsen

Men teknologi er ikke den eneste måten å beskytte seg mot Deepfake-videoer på. Gode grunnleggende sikkerhetsprosedyrer er svært effektive for å bekjempe Deepfake.

Det å for eksempel ha automatiske kontroller integrert i alle prosesser som omhandler utbetaling av penger, ville ha stoppet mange Deepfake-forsøk og lignende svindler. Du kan også gjøre følgende:

  • Sørge for at ansatte og familie vet om hvordan Deepfaking fungerer, og utfordringene ved det.
  • Sørge for at du og andre vet hvordan man oppdager en Deepfake.
  • Sørge for at du har kjennskap til medier og bruker nyhetskilder av god kvalitet.
  • Ha gode grunnleggende protokoller – «stol på, men verifiser». En skeptisk holdning til talepost og videoer er ingen garanti mot at du aldri vil bli lurt, men det kan hjelpe deg å unngå mange feller.

Husk at hvis Deepfake begynner å bli brukt av hackere i forsøk på å trenge inn i hjemmenettverk og bedriftsnettverk, vil grunnleggende prosedyrer for god Internett-sikkerhet spille en avgjørende rolle for å minimere risikoen:

  • Regelmessig sikkerhetskopiering beskytter dataene dine mot løsepengevirus og gjør det mulig å gjenopprette skadede data.
  • Det å bruke ulike, sterke passord for forskjellige kontoer betyr at selv om noen har klart å bryte seg inn i ett nettverk eller én tjeneste, så betyr ikke det at andre nettverk eller tjenester også er kompromittert. Hvis noen bryter seg inn i Facebook-kontoen din, vil du ikke at de skal kunne bryte seg inn i de ande kontoene dine også.
  • Bruk en god sikkerhetspakke som Kasperskys Total Security for å beskytte hjemmenettverket, den bærbare PC-en og smarttelefonen din mot nettrusler. Denne pakken inneholder antivirusprogramvare, en VPN for å hindre at Wi-Fi-tilkoblingene dine blir hakket, og beskyttelse for webkameraene dine.

Hvordan ser fremtiden til Deepfake ut?

Deepfake utvikler seg hele tiden. For to år siden var det veldig enkelt å se hva som var en Deepfake-video, fordi det var dårlig kvalitet på bevegelsene, og fordi det virket som om den forfalskede personen aldri blunket. Men den siste generasjonen falske videoer har utviklet og tilpasset seg.

Man estimerer at det finnes over 15 000 Deepfake-videoer der ute nå. Noen er bare morsomme, mens andre prøver å manipulere meningene dine. Men ettersom det nå bare tar en dag eller to å lage en ny Deepfake, kan det tallet stige raskt.

Relaterte koblinger

Kjente tilfeller av kjendishacking og hvordan det kan påvirke deg

Webkamera-hacking: Kan webkameraet spionere på deg?

Hva betyr økningen i deepfakes for Internett-sikkerheten i fremtiden?

Falske videoer og Deepfake – hvordan kan brukere beskytte seg selv?

Tidligere brukte hackere Photoshop til for eksempel å plassere hodet til en politiker på kroppen til en pornostjerne, men nå har de blitt mye mer avanserte. I dag bruker de teknologi som ligner på det man ser i Hollywood-filmer. Med Deepfake-videoer kan man legge ord i munnen på offeret, noe som kan brukes til å skade vedkommendes omdømme eller til utpressing.
Kaspersky Logo