Kazalo:

Globoki ponaredki: Neuroset so učili ustvarjati zvočne in video ponaredke
Globoki ponaredki: Neuroset so učili ustvarjati zvočne in video ponaredke

Video: Globoki ponaredki: Neuroset so učili ustvarjati zvočne in video ponaredke

Video: Globoki ponaredki: Neuroset so učili ustvarjati zvočne in video ponaredke
Video: ✊ LIBERTY ENGINE ПРОТИВ КОММЕРЧЕСКИХ ЭЛЕКТРОСТАНЦИЙ!!! - СВОБОДНАЯ ЭНЕРГИЯ 2024, Maj
Anonim

Za ustvarjanje »individualne« novičarske slike za vsakogar od nas in za ponarejanje v njej izbranih medijskih poročil je danes dovolj trud enega programerja. O tem so za Izvestije povedali strokovnjaki za umetno inteligenco in kibernetsko varnost.

Pred kratkim so ocenili, da je za to potrebno delo več ekip. Takšen pospešek je postal mogoč z razvojem tehnologij za napade na nevronske mreže in generiranjem avdio in video ponaredkov z uporabo programov za ustvarjanje "globokih ponaredkov". Podobnemu napadu je bil pred kratkim tudi časopis Izvestia, ko so trije libijski novičarski portali naenkrat objavili sporočilo, ki naj bi se pojavilo v eni od številk. Po mnenju strokovnjakov lahko v 3-5 letih pričakujemo invazijo robotskih manipulatorjev, ki bodo samodejno lahko ustvarili veliko ponaredkov.

Pogumen nov svet

Vse več je projektov, ki informacijsko sliko prilagajajo percepciji konkretnih uporabnikov. Eden od primerov njihovega dela je bila nedavna akcija treh libijskih portalov, ki so objavili novico, ki naj bi bila objavljena v številki Izvestia 20. novembra. Ustvarjalci ponaredka so spremenili naslovno stran časopisa in na njej objavili sporočilo o pogajanjih med feldmaršalom Khalifo Haftarjem in predsednikom vlade vlade nacionalnega soglasja (PNS) Fayezom Sarrajem. Ponaredku, v pisavi Izvestia, je bila priložena fotografija obeh voditeljev, posneta maja 2017. Oznaka z logotipom publikacije je bila izrezana iz dejanske izdane številke 20. novembra, vsa ostala besedila na strani pa iz številke 23. oktobra.

Z vidika strokovnjakov se lahko v bližnji prihodnosti takšne ponarejanja izvajajo samodejno.

The Truman Show - 2019: Kako so nevronske mreže naučile ponarejati sliko novic
The Truman Show - 2019: Kako so nevronske mreže naučile ponarejati sliko novic

"Tehnologije umetne inteligence so zdaj popolnoma odprte, naprave za sprejemanje in obdelavo podatkov pa se miniaturizirajo in postajajo cenejše," Jurij Vilsiter, doktor fizikalnih in matematičnih znanosti, profesor Ruske akademije znanosti, vodja oddelka FSUE "GosNIIAS", je povedal za Izvestije. - Zato je velika verjetnost, da nam bodo v bližnji prihodnosti lahko prisluškovali in vohunili ter manipulirali z realnostjo niti država in velike korporacije, temveč zgolj zasebniki. V prihodnjih letih bo nanj mogoče z analizo uporabniških preferenc vplivati preko novic in zelo pametnih ponaredkov.

Po besedah Jurija Vilsiterja tehnologije, ki jih je mogoče uporabiti za takšen poseg v mentalno okolje, že obstajajo. Teoretično je invazijo robotskih botov mogoče pričakovati v nekaj letih, je dejal. Omejitev pri tem je lahko potreba po zbiranju velikih baz podatkov o odzivih resničnih ljudi na umetne dražljaje s sledenjem dolgoročnih posledic. Takšno sledenje bo verjetno zahtevalo več let raziskav, preden bodo ciljno usmerjeni napadi dosledno pridobljeni.

Napad vida

Z Jurijem Vilsiterjem se strinja tudi Aleksej Parfentijev, vodja analitičnega oddelka pri SearchInformu. Po njegovih besedah strokovnjaki že napovedujejo napade na nevronske mreže, čeprav zdaj takih primerov praktično ni.

- Raziskovalci iz Gartnerja menijo, da bo do leta 2022 30 % vseh kibernetskih napadov namenjenih pokvarjenju podatkov, na katerih je nevronska mreža usposobljena, in kraji že pripravljenih modelov strojnega učenja. Takrat lahko na primer vozila brez posadke nenadoma začnejo zamenjati pešce z drugimi predmeti. In ne bomo govorili o finančnem tveganju ali tveganju za ugled, ampak o življenju in zdravju navadnih ljudi, meni strokovnjak.

V okviru raziskav se zdaj izvajajo napadi na sisteme računalniškega vida. Namen takšnih napadov je, da nevronska mreža zazna nekaj na sliki, česar ni. Ali, nasprotno, ne videti, kaj je bilo načrtovano.

The Truman Show - 2019: Kako so nevronske mreže naučile ponarejati sliko novic
The Truman Show - 2019: Kako so nevronske mreže naučile ponarejati sliko novic

"Ena od tem, ki se aktivno razvija na področju usposabljanja nevronskih mrež, so tako imenovani adversarial napadi (" adversarial napadi. "- Izvestia)," je pojasnil Vladislav Tushkanov, spletni analitik pri Kaspersky Labu. - V večini primerov so usmerjeni v sisteme računalniškega vida. Za izvedbo takega napada morate v večini primerov imeti popoln dostop do nevronske mreže (tako imenovani napadi na belo skrinjico) ali do rezultatov njenega dela (napadi na črno skrinjico). Ni metod, ki bi lahko v 100% primerov zavajale kateri koli sistem računalniškega vida. Poleg tega so že bila ustvarjena orodja, ki vam omogočajo testiranje nevronskih mrež na odpornost proti nasprotovalnim napadom in povečanje njihove odpornosti.

Med takšnim napadom poskuša napadalec nekako spremeniti prepoznano sliko, tako da nevronska mreža ne deluje. Na fotografiji se pogosto pojavi šum, podoben tistemu, ki se pojavi pri fotografiranju v slabo osvetljenem prostoru. Oseba običajno takšne motnje ne opazi dobro, vendar nevronska mreža začne delovati nepravilno. Toda za izvedbo takega napada napadalec potrebuje dostop do algoritma.

Po besedah Stanislava Ashmanova, generalnega direktorja Neuroset Ashmanov, trenutno ni metod za reševanje tega problema. Poleg tega je ta tehnologija na voljo vsakomur: povprečen programer jo lahko uporablja tako, da prenese potrebno odprtokodno programsko opremo iz storitve Github.

The Truman Show - 2019: Kako so nevronske mreže naučile ponarejati sliko novic
The Truman Show - 2019: Kako so nevronske mreže naučile ponarejati sliko novic

- Napad na nevronsko mrežo je tehnika in algoritmi za zavajanje nevronske mreže, zaradi česar ta daje napačne rezultate in jo pravzaprav zlomi kot ključavnico, - meni Ashmanov. - Zdaj je na primer precej enostavno prisiliti sistem za prepoznavanje obrazov, da misli, da pred njim niste vi, ampak Arnold Schwarzenegger - to se naredi tako, da se v podatke, ki prihajajo v nevronsko mrežo, mešajo aditivi, ki niso zaznavni za človeško oko. Isti napadi so možni za sisteme za prepoznavanje in analizo govora.

Strokovnjak je prepričan, da bo le še slabše - te tehnologije so šle v množice, goljufi jih že uporabljajo in zaščite pred njimi ni. Ker ni zaščite pred avtomatiziranim ustvarjanjem video in zvočnih ponaredkov.

Globoki ponaredki

Deepfake tehnologije, ki temeljijo na Deep Learning (tehnologije globokega učenja nevronskih mrež. - Izvestia), že predstavljajo resnično grožnjo. Video ali zvočni ponaredki nastanejo z urejanjem ali prekrivanjem obrazov znanih ljudi, ki naj bi izgovarjali potrebno besedilo in igrali potrebno vlogo v zapletu.

"Deepfake omogoča zamenjavo gibov ustnic in človeškega govora z videom, kar ustvarja občutek realizma dogajanja," pravi Andrey Busargin, direktor oddelka za inovativno zaščito blagovnih znamk in intelektualno lastnino pri Group-IB. - Lažni zvezdniki uporabnikom na družbenih omrežjih "ponujajo" sodelovanje pri žrebanju dragocenih nagrad (pametni telefoni, avtomobili, denarni zneski) itd. Povezave iz takšnih video objav pogosto vodijo do goljufivih in lažnih spletnih mest, kjer se od uporabnikov zahteva, da vnesejo osebne podatke, vključno s podatki o bančni kartici. Takšne sheme ogrožajo tako navadne uporabnike kot javne osebnosti, ki so omenjene v reklamah. Tovrstna prevara začne povezovati podobe slavnih s prevarami ali oglaševanim blagom in tu naletimo na škodo osebne blagovne znamke, pravi.

The Truman Show - 2019: Kako so nevronske mreže naučile ponarejati sliko novic
The Truman Show - 2019: Kako so nevronske mreže naučile ponarejati sliko novic

Druga grožnja je povezana z uporabo "lažnih glasov" za telefonske goljufije. Na primer, v Nemčiji so kibernetski kriminalci uporabili glasovno ponaredek, da bi vodjo hčerinske družbe iz Združenega kraljestva v telefonskem pogovoru, ki se je predstavljal kot vodja podjetja, nujno nakazal 220.000 €.na račun madžarskega dobavitelja. Vodja britanskega podjetja je posumil na trik, ko je njegov "šef" zahteval drugo položnico, a je klic prišel z avstrijske številke. V tem času je bila prva tranša že nakazana na račun na Madžarskem, od koder so denar dvignili v Mehiko.

Izkazalo se je, da trenutne tehnologije omogočajo ustvarjanje posamezne novičarske slike, polne lažnih novic. Poleg tega bo kmalu mogoče razlikovati ponaredke od resničnega videa in zvoka samo s strojno opremo. Po mnenju strokovnjakov ukrepi, ki prepovedujejo razvoj nevronskih mrež, verjetno ne bodo učinkoviti. Zato bomo kmalu živeli v svetu, v katerem bo treba nenehno vse preverjati.

"Na to se moramo pripraviti in to je treba sprejeti," je poudaril Jurij Vilsiter. - Človeštvo ni prvič, da prehaja iz ene realnosti v drugo. Naš svet, način življenja in vrednote se radikalno razlikujejo od sveta, v katerem so živeli naši predniki pred 60.000 leti, pred 5.000 leti, pred 2.000 leti in celo pred 200-100 leti. V bližnji prihodnosti bo človek v veliki meri prikrajšan za zasebnost in zato prisiljen ničesar ne skrivati in ravnati pošteno. Hkrati pa nič v okoliški realnosti in v lastni osebnosti ni mogoče vzeti na vero, vse bo treba dvomiti in nenehno preverjati. Toda ali bo ta prihodnja realnost grozna? št. Preprosto bo popolnoma drugače.

Priporočena: