Deepfake ir kiti netikri vaizdo įrašai – kaip apsisaugoti?
| | | |

Deepfake ir kiti netikri vaizdo įrašai – kaip apsisaugoti?

Deepfakes: naujos apgaulės technologijos

Žodis deepfake yra sudėtinis žodis ir kilęs iš gilaus mokymosi ir netikros. Gilusis mokymasis yra sudėtinga dirbtiniu intelektu pagrįsta technika, kuri naudoja daugiasluoksnius mašininio mokymosi algoritmus, kad iš neapdorotų įvesties duomenų išskirtų vis sudėtingesnes charakteristikas. Tuo pačiu metu AI gali mokytis iš nestruktūruotų duomenų, pvz., veido vaizdų. Pavyzdžiui, AI gali rinkti duomenis apie jūsų kūno judesius.

Tada šie duomenys gali būti apdorojami siekiant sukurti netikrus vaizdo įrašus, naudojant vadinamąjį generacinį priešpriešinį tinklą arba GAN. Tai dar viena specializuota mašininio mokymosi sistema. Tai apima du neuroninius tinklus, kurie konkuruoja vienas su kitu, išmokdami mokymo duomenų rinkinių ypatybes (pavyzdžiui, veidų nuotraukas) ir kurdami naujus duomenis, pagrįstus šiomis savybėmis (ty naujomis „nuotraukomis“).»).

Kadangi toks tinklas nuolat tikrina savo sukurtus pavyzdžius pagal originalų treniruočių rinkinį, netikri vaizdai atrodo vis labiau įtikinami. Štai kodėl „deepfake“ keliama grėsmė nuolat auga. Be to, GAN gali sukurti kitus netikrus duomenis, be nuotraukų ir vaizdo įrašų. Pavyzdžiui, „deepfake“ technologijos gali būti naudojamos balsams imituoti.

Deepfake pavyzdžiai

Nesunku rasti aukštos kokybės padirbinių su įžymybėmis. Vienas iš pavyzdžių – netikras vaizdo įrašas, kurį paskelbė aktorius Jordanas Peele’as. Jis įrašė trumpą kalbą Baracko Obamos balsu, kuri vėliau buvo sujungta su vaizdo medžiaga iš tikrosios politiko kalbos. Tada Peele’as pademonstravo, kaip atrodo abi vaizdo įrašo dalys, ir paskatino savo žiūrovus kritiškai vertinti viską, ką mato..

„Instagram“ tinkle pasirodė vaizdo įrašas, kuriame „Facebook“ generalinis direktorius Markas Zuckerbergas tariamai kalba apie tai, kaip „Facebook“ „valdo ateitį“ vogtais vartotojų duomenimis.. Originaliame vaizdo įraše užfiksuota jo kalba, susijusi su skandalu dėl „Rusijos pėdsakų“ JAV prezidento rinkimuose – klastotei sukurti pakako vos 21 sekundės fragmento. Tačiau Zuckerbergo balsas nebuvo mėgdžiojamas taip gerai, kaip Jordano Peele’o Obamos parodija, o klastotę buvo lengva atpažinti..

Tačiau net ir prastesnės kokybės klastotės gali sukelti gyvą reakciją. Vaizdo įrašas, kuriame Nancy Pelosi, JAV Atstovų rūmų pirmininkė, yra „girta“, sulaukė milijonų peržiūrų „YouTube“, tačiau tai buvo tik klastotė, padaryta sulėtinus tikrąjį vaizdo įrašą, kad jis atrodytų kaip neaiški kalba. Be to, daugelis žinomų moterų staiga atsidūrė pornografijos žvaigždžių vaidmenyje – jų veidai buvo įterpti į pornografinius vaizdo įrašus ir vaizdus..

Sukčiavimas ir šantažas naudojant gilius klastojimus

Deepfake vaizdo įrašas buvo ne kartą panaudoti politiniais tikslais, taip pat kaip keršto būdas. Tačiau dabar šios technologijos vis dažniau naudojamos šantažui ir didelio masto sukčiavimui..

Iš Didžiosios Britanijos energetikos įmonės generalinio direktoriaus sukčiai sugebėjo išvilioti 220 000 eurų panaudojo giliai padirbtą patronuojančios įmonės vadovo, kuris esą prašė skubiai pervesti nurodytą sumą, balso imitaciją. Pakeitimas buvo toks natūralistinis, kad apgautas direktorius informacijos netikrino dar kartą, nors lėšos buvo pervestos ne į buveinę, o į trečiosios šalies sąskaitą. Tik „šefui“ paprašius dar vieno pervedimo, pašnekovas įtarė, kad kažkas negerai, tačiau pervesti pinigai jau buvo dingę be žinios.

Neseniai Prancūzijoje kilo sukčiavimas, kurioje vis dėlto nebuvo panaudota „deepfake“ technologija, sukčius, vardu Gilbert Chicli, apsimetė Prancūzijos užsienio reikalų ministru Jeanu-Yves’u Le Drianu, labai tiksliai atkurdamas ne tik jo išvaizdą, bet ir biuro apstatymą. Aferistas ministro vardu kreipėsi į turtingus asmenis ir įmonių vadovus su prašymu skirti lėšų išpirkai iš Prancūzijos piliečių, teroristų laikomų Sirijoje. Tokiu būdu jam pavyko išvilioti kelis milijonus eurų. Ši byla šiuo metu nagrinėjama teisme.

Grėsmės ir pavojai, susiję su giliomis klastotėmis

Deepfake autoriai gali šantažuoti didelių kompanijų vadovus, grasindami paskelbti netikrą vaizdo įrašą, kuris gali pakenkti jų reputacijai, jei jie nemokės kompensacijos. Sukčiai taip pat gali, pavyzdžiui, įsiskverbti į jūsų tinklą, suklastodami IT direktoriaus skambutį ir apgaudinėdami darbuotojus, kad jie pateiktų slaptažodžius ir prieigos teises, o po to jūsų konfidencialūs duomenys bus visiškai prieinami įsilaužėlių žinioms..

Suklastoti pornografiniai vaizdo įrašai jau buvo naudojami šantažuojant moteris žurnalistes, kaip nutiko Indijoje su Rana Ayyub, kuri stengėsi atskleisti piktnaudžiavimą valdžia. Deepfake gamybos technologijos vis pigėja, todėl galime prognozuoti jų panaudojimo šantažui ir sukčiavimui didėjimą..

Kaip apsisaugoti nuo gilių klastočių?

Jie jau bando pradėti spręsti giliųjų klastotės problemą įstatymų leidybos lygmeniu. Taigi, praėjusiais metais Kalifornijos valstijoje buvo priimti du įstatymai, ribojantys giliųjų klastotės naudojimą: įstatymo projektas AB-602 draudė naudoti žmogaus atvaizdų sintezės technologijas pornografiniam turiniui gaminti be pavaizduotų asmenų sutikimo, o AB-730 uždraudė klastotę. kandidatų į valstybines pareigas atvaizdų likus 60 dienų iki rinkimų.

Bet ar šių priemonių pakaks? Laimei, saugos įmonės nuolat kuria geresnius atpažinimo algoritmus. Jie analizuoja vaizdo įrašus ir pastebi nedidelius iškraipymus, atsirandančius kuriant klastotę. Pavyzdžiui, šiuolaikiniai giliųjų klastotės generatoriai imituoja 2D veidą ir iškraipo jį, kad tilptų į 3D vaizdo įrašo perspektyvą. Galite nesunkiai pastebėti klastotę pagal tai, kur nukreipta nosis..

Kol kas gilių klastočių kūrimo technologijos dar nėra pakankamai pažengusios, o klastotės požymiai dažnai matomi plika akimi. Atkreipkite dėmesį į šiuos būdingus požymius:

  • grubus judesys;
  • apšvietimo pokyčiai gretimuose kadruose;
  • odos atspalvių skirtumai;
  • asmuo vaizdo įraše keistai mirksi arba visai nemirksi;
  • prastas lūpų sinchronizavimas su kalba;
  • skaitmeniniai artefaktai paveikslėlyje.

Tačiau tobulėjant technologijoms, jūsų akys vis rečiau atpažins apgaulę, tačiau gerą apsaugos sprendimą bus daug sunkiau apgauti..

Unikalios apsaugos nuo padirbinėjimo technologijos

Kai kurios naujos technologijos jau padeda vaizdo įrašų turinio kūrėjams apsaugoti jų autentiškumą. Naudojant specialų šifravimo algoritmą, maišos įterpiamos į vaizdo srautą tam tikrais intervalais; jei vaizdo įrašas bus pakeistas, keisis ir maišos. Taip pat galima sukurti skaitmeninius vaizdo įrašų parašus naudojant AI ir blokų grandinę. Tai panašu į dokumentų apsaugą vandens ženklais; Tačiau vaizdo įrašų atveju sunkumų kyla dėl to, kad maišos turi likti nepakitusios, kai vaizdo srautas suglaudinamas įvairiais kodekais.

Kitas būdas kovoti su giliais klastotėmis yra naudoti programą, kuri į vaizdo turinį įterpia specialius skaitmeninius artefaktus, kurie užmaskuoja pikselių grupes, kuriomis vadovaujasi veido atpažinimo programos. Ši technika sulėtina giluminio padirbinėjimo algoritmus ir sukels prastesnės kokybės klastotę, o tai savo ruožtu sumažins tikimybę, kad gilus klastojimas bus sėkmingai panaudotas..

Geriausia apsauga yra saugos taisyklių laikymasis

Technologijos nėra vienintelis būdas apsisaugoti nuo padirbtų vaizdo įrašų. Netgi pagrindinės saugos taisyklės yra labai veiksmingos kovojant su jais..

Pavyzdžiui, automatinių patikrų integravimas į visus procesus, susijusius su lėšų pervedimu, užkirstų kelią daugeliui nesąžiningų veiksmų, įskaitant giliųjų klastočių naudojimą. Tu taip pat gali:

  • Supažindinkite savo darbuotojus ir šeimos narius apie tai, kaip veikia giliosios klastotės ir galima su tuo susijusi rizika..
  • Sužinokite, kaip atpažinti gilią klastotę ir papasakokite apie tai kitiems.
  • Pagerinkite savo žiniasklaidos raštingumą ir naudokite patikimus informacijos šaltinius.
  • Išlaikykite pagrindinę apsaugą ir laikykitės taisyklės „Pasitikėk, bet patikrink“. Kritiškas požiūris į balso paštą ir vaizdo skambučius negarantuoja, kad nebūsite apgauti, tačiau tai gali padėti išvengti daugelio spąstų..

Atminkite, kad jei įsilaužėliai pradės aktyviai naudoti giliuosius klastotes, kad įsiskverbtų į namų ir įmonių tinklus, pagrindinių kibernetinio saugumo taisyklių laikymasis bus svarbiausias veiksnys siekiant sumažinti riziką.:

  • Reguliarios atsarginės kopijos apsaugos jūsų duomenis nuo išpirkos reikalaujančių programų ir padės atkurti sugadintus failus.
  • Skirtingoms paskyroms naudokite skirtingus stiprius slaptažodžius – jei vienas tinklas ar paslauga bus pažeista, tai padės apsisaugoti nuo visų kitų. Pavyzdžiui, jei kas nors sugebės pavogti jūsų „Facebook“ paskyrą, jis bent jau automatiškai neturės prieigos prie visų kitų jūsų paskyrų..
  • Norėdami apsaugoti savo namų tinklą, nešiojamąjį kompiuterį ir išmanųjį telefoną nuo kibernetinių grėsmių, naudokite patikimą saugos sprendimą, pvz Kaspersky Premium. Tai apima antivirusinę programą, VPN paslaugą, kad jūsų „Wi-Fi“ ryšiai nebūtų pažeisti, ir žiniatinklio kameros apsauga..

Kaip išsivystys gilios klastotės?

Deepfake vystosi nerimą keliančiu greičiu. Dar prieš dvejus metus klastotes buvo galima nesunkiai atskirti iš prastos judesio perdavimo kokybės; Be to, žmonės tokiuose vaizdo įrašuose beveik niekada nemirksėjo. Tačiau technologijos nestovi vietoje, o naujausios kartos deepfake gaminami pastebimai geresnės kokybės.

Apytikriais skaičiavimais, šiuo metu internete sklando daugiau nei 15 000 padirbtų vaizdo įrašų. Kai kurie iš jų yra humoristiniai, tačiau yra ir tokių, kurie buvo sukurti manipuliuoti visuomenės sąmone. Šiais laikais naujo „deepfake“ sukūrimas užtrunka daugiausia porą dienų, todėl greitai jų gali būti daug daugiau.

Naudingos nuorodos

Didelis įžymybių įsilaužimas ir kaip tai gali jus paveikti

Internetinių kamerų įsilaužimas:ar jūsų internetinė kamera gali jus šnipinėti?

Kaip giliųjų klastotės gali turėti įtakos kibernetinio saugumo ateičiai?

Rekomenduojami produktai:

Įvertinkite straipsnį

0 / 12

Your page rank:

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *