Taula de continguts:

Falsificacions profundes: Neuroset es va ensenyar a generar falsificacions de so i vídeo
Falsificacions profundes: Neuroset es va ensenyar a generar falsificacions de so i vídeo

Vídeo: Falsificacions profundes: Neuroset es va ensenyar a generar falsificacions de so i vídeo

Vídeo: Falsificacions profundes: Neuroset es va ensenyar a generar falsificacions de so i vídeo
Vídeo: Argon arc welding machine. Welder's aid. Fixer accessories 2024, Abril
Anonim

Per crear una imatge de notícies "individual" per a qualsevol de nosaltres i per falsificar els informes de mitjans seleccionats en ella, els esforços d'un programador són suficients avui. Especialistes en intel·ligència artificial i ciberseguretat ho van explicar a Izvestia.

Més recentment, estimaven que això requeria el treball de diversos equips. Aquesta acceleració s'ha fet possible amb el desenvolupament de tecnologies per a atacs a xarxes neuronals i la generació de falsificacions d'àudio i vídeo mitjançant programes per crear "falsificacions profundes". El diari Izvestia va ser sotmès recentment a un atac similar, quan tres portals de notícies libis van publicar alhora un missatge que suposadament apareixia en un dels números. Segons els experts, d'aquí a 3-5 anys podem esperar una invasió de manipuladors robòtics, que automàticament podran crear moltes falsificacions.

Nou món valent

Cada cop hi ha més projectes que ajusten la imatge informativa a la percepció d'usuaris concrets. Un exemple del seu treball va ser l'actuació recent de tres portals libis, que van publicar una notícia suposadament publicada al número d'Izvestia el 20 de novembre. Els creadors de la falsificació van modificar la portada del diari i hi van publicar un missatge sobre les negociacions entre el mariscal de camp Khalifa Haftar i el primer ministre del Govern d'Acord Nacional (PNS) Fayez Sarraj. El fals, en tipografia Izvestia, anava acompanyat d'una foto dels dos líders feta el maig del 2017. L'etiqueta amb el logotip de la publicació es va tallar del número real publicat del 20 de novembre, i tots els altres textos de la pàgina del número del 23 d'octubre.

Des del punt de vista dels especialistes, en un futur previsible, aquestes falsificacions es poden fer automàticament.

The Truman Show - 2019: Com les xarxes neuronals van ensenyar a falsificar la imatge de la notícia
The Truman Show - 2019: Com les xarxes neuronals van ensenyar a falsificar la imatge de la notícia

"Les tecnologies d'intel·ligència artificial ara estan completament obertes i els dispositius per rebre i processar dades s'estan miniaturitzant i s'estan abaratint", va dir Yuri Vilsiter, doctor en ciències físiques i matemàtiques, professor de l'Acadèmia Russa de Ciències, cap del departament "GosNIIAS" de la FSUE. va dir a Izvestia. - Per tant, és molt probable que en un futur proper, ni tan sols l'estat i les grans corporacions, sinó simplement els particulars, puguin escoltar-nos i espiar-nos, així com manipular la realitat. En els propers anys serà possible, mitjançant l'anàlisi de les preferències dels usuaris, influir-hi a través de notícies i falsificacions molt intel·ligents.

Segons Yuri Vilsiter, les tecnologies que es poden utilitzar per a aquesta intervenció en l'entorn mental ja existeixen. En teoria, la invasió de robots robòtics es pot esperar d'aquí a uns anys, va dir. Un punt límit aquí pot ser la necessitat de recopilar grans bases de dades d'exemples de respostes de persones reals a estímuls artificials amb un seguiment de les conseqüències a llarg termini. Aquest seguiment probablement requerirà uns quants anys més d'investigació abans que els atacs dirigits s'obtinguin constantment.

Atac de visió

Alexey Parfentiev, cap del departament d'anàlisi de SearchInform, també està d'acord amb Yuri Vilsiter. Segons ell, els experts ja prediuen atacs a les xarxes neuronals, tot i que ara pràcticament no n'hi ha.

- Els investigadors de Gartner creuen que el 2022, el 30% de tots els atacs cibernètics tindran com a objectiu corrompre les dades sobre les quals s'entrena la xarxa neuronal i robar models d'aprenentatge automàtic ja fets. Aleshores, per exemple, els vehicles no tripulats poden començar de sobte a confondre els vianants amb altres objectes. I no parlarem de risc financer o reputacional, sinó de la vida i la salut de la gent normal, creu l'expert.

Ara s'estan duent a terme atacs a sistemes de visió per ordinador com a part de la investigació. L'objectiu d'aquests atacs és fer que la xarxa neuronal detecti alguna cosa a la imatge que no hi és. O, al contrari, no veure què estava previst.

The Truman Show - 2019: Com les xarxes neuronals van ensenyar a falsificar la imatge de la notícia
The Truman Show - 2019: Com les xarxes neuronals van ensenyar a falsificar la imatge de la notícia

"Un dels temes que es desenvolupen activament en el camp de la formació de xarxes neuronals són els anomenats atacs adversaris ("atacs adversaris. "- Izvestia)", va explicar Vladislav Tushkanov, analista web de Kaspersky Lab. - En la majoria dels casos, estan dirigits a sistemes de visió per ordinador. Per dur a terme aquest atac, en la majoria dels casos, cal tenir accés complet a la xarxa neuronal (els anomenats atacs de caixa blanca) o als resultats del seu treball (atacs de caixa negra). No hi ha mètodes que puguin enganyar cap sistema de visió per ordinador en el 100% dels casos. A més, ja s'han creat eines que permeten provar les xarxes neuronals per a la resistència als atacs adversaris i augmentar-ne la resistència.

En el curs d'aquest atac, l'atacant intenta canviar d'alguna manera la imatge reconeguda perquè la xarxa neuronal no funcioni. Sovint, el soroll se superposa a la foto, similar al que es produeix quan es fotografia en una habitació poc il·luminada. Normalment, una persona no nota bé aquesta interferència, però la xarxa neuronal comença a funcionar malament. Però per dur a terme aquest atac, l'atacant necessita accedir a l'algorisme.

Segons Stanislav Ashmanov, director general de Neuroset Ashmanov, actualment no hi ha mètodes per fer front a aquest problema. A més, aquesta tecnologia està disponible per a qualsevol: un programador mitjà la pot utilitzar descarregant el programari de codi obert necessari des del servei Github.

The Truman Show - 2019: Com les xarxes neuronals van ensenyar a falsificar la imatge de la notícia
The Truman Show - 2019: Com les xarxes neuronals van ensenyar a falsificar la imatge de la notícia

- Un atac a una xarxa neuronal és una tècnica i algorismes per enganyar una xarxa neuronal, que la fan produir resultats falsos i, de fet, trencar-la com un pany de porta, - creu Ashmanov. - Per exemple, ara és bastant fàcil fer que el sistema de reconeixement facial pensi que no sou vosaltres, sinó Arnold Schwarzenegger al davant; això es fa barrejant additius imperceptibles per a l'ull humà a les dades que arriben a la xarxa neuronal. Els mateixos atacs són possibles per als sistemes de reconeixement i anàlisi de veu.

L'expert està segur que només empitjorarà: aquestes tecnologies han arribat a les masses, els estafadors ja les fan servir i no hi ha protecció contra elles. Com que no hi ha protecció contra la creació automatitzada de falsificacions de vídeo i àudio.

Falsificacions profundes

Les tecnologies deepfake basades en Deep Learning (tecnologies d'aprenentatge profund de xarxes neuronals. - Izvestia) ja suposen una amenaça real. Les falsificacions de vídeo o àudio es creen editant o superposant les cares de persones famoses que suposadament pronuncien el text necessari i juguen el paper necessari en la trama.

"Deepfake us permet substituir els moviments dels llavis i la parla humana per vídeo, cosa que crea una sensació de realisme del que està passant", diu Andrey Busargin, director del departament de protecció de marques innovadores i propietat intel·lectual de Group-IB. - Els famosos falsos “ofereixen” als usuaris a les xarxes socials participar en el sorteig de premis valuosos (telèfons intel·ligents, cotxes, sumes de diners), etc. Els enllaços d'aquestes publicacions de vídeo solen conduir a llocs fraudulents i de pesca, on se'ls demana als usuaris que introdueixin informació personal, incloses les dades de la targeta bancària. Aquests esquemes suposen una amenaça tant per als usuaris corrents com per als personatges públics que s'esmenten als anuncis. Aquest tipus d'estafa comença a associar imatges de celebritats amb estafes o béns anunciats, i aquí és on ens trobem amb danys a la marca personal, diu.

The Truman Show - 2019: Com les xarxes neuronals van ensenyar a falsificar la imatge de la notícia
The Truman Show - 2019: Com les xarxes neuronals van ensenyar a falsificar la imatge de la notícia

Una altra amenaça s'associa amb l'ús de "vots falsos" per al frau telefònic. Per exemple, a Alemanya, els ciberdelinqüents van utilitzar la falsificació de veu per fer que el cap d'una filial del Regne Unit transferís urgentment 220.000 € en una conversa telefònica, fent-se passar per un gerent de l'empresa.al compte d'un proveïdor hongarès. El cap de la firma britànica va sospitar d'una trampa quan el seu "cap" va demanar un segon gir, però la trucada venia d'un número austríac. En aquest moment, el primer tram ja s'havia transferit a un compte a Hongria, des d'on es van retirar els diners a Mèxic.

Resulta que les tecnologies actuals us permeten crear una imatge de notícies individual plena de notícies falses. A més, aviat serà possible distingir les falsificacions de vídeo i àudio reals només per maquinari. Segons els experts, és poc probable que les mesures que prohibeixen el desenvolupament de xarxes neuronals siguin efectives. Per tant, aviat viurem en un món en el qual caldrà revisar-ho tot constantment.

"Ens hem de preparar per a això, i això s'ha d'acceptar", va subratllar Yuri Vilsiter. - La humanitat no és la primera vegada que passa d'una realitat a una altra. El nostre món, forma de vida i valors són radicalment diferents del món en què van viure els nostres avantpassats fa 60.000 anys, 5.000, 2.000 i fins i tot fa 200-100 anys. En un futur proper, una persona es veurà privada en gran part de la privadesa i, per tant, es veurà obligada a no amagar res i actuar amb honestedat. Al mateix temps, res de la realitat circumdant i de la pròpia personalitat no es pot assumir amb fe, tot s'haurà de qüestionar i revisar constantment. Però aquesta realitat futura serà nefasta? No. Simplement serà completament diferent.

Recomanat: