Ó, régi szép idők, amikor mondhattuk: „a fénykép nem hazudik". A manipulált képek és videók bizony képesek hazudni - a mesterséges intelligenciát pedig használhatjuk manipulációra éppúgy, mint a manipuláció leleplezésére. Vajon melyikre alkalmas jobban?

„Ó, ez nem probléma, egy pillanat alatt kiretusálom én!”

- nyilatkozta magabiztosan a fiam, amikor mérgelődtem, hogy a tökéletes naplementés képembe minden irányból belerondít egy otromba villanyoszlop. Elegánsan ki is kapta a képből, itt-ott igazított a fényeken, és kész is, íme, a tökéletes naplemente, helló villanyoszlop. Ezt a remek funkciót persze nem csak ártatlan célokra lehet használni, hanem szabályos hamisításra is: megváltoztatható az arckifejezés, a kimondott szavak, a szereplő teljes környezete. 

A hamisítók a mesterséges intelligenciát hívhatják segítségül, hogy minél tökéletesebb kép, videó készülhessen. A határ a csillagos ég: eltüntethető a pattanás, a ferde fogazat kiegyenesedik, Kőbánya-alsó helyett Tahitiből posztolhatunk (Bélám, még mindig belóg a panelház...), a fekete fehér lesz, a nem pedig igen. Ha az eredmény csak a moziban látható, akkor nincs is semmi gond az illúzióval - mikor beülünk a moziba, általában nem hiteles dokumentumfilmet várunk. Nem úgy a hírfolyamokban vagy a közösségi médiában, ahol egy tökéletes hamisítvány választási eredményeket dönthet el, karriereket dönthet romba, régi barátságokat törhet szét.  Mire kiderül az igazság, általában nem helyrehozható károkat okoz az átverés.

Nyom nélkül azonban egyelőre nem tüntethetőek el vagy változtathatóak meg a részletek, még ha az emberi szemet és fület viszonylag könnyű is becsapni.  Amit Roy-Chowdhury professzor és kutatócsoportja hadat üzent a hamisítóknak: az általuk létrehozott ún. „mély neurális hálózat” manipuláció nyomai után kutat a digitális képi állományokban: hol nyisszantottak ki a képből valamit, hol változtattak meg egy-egy kisebb-nagyobb területet. A hálózatot számos képen edzették arra, hogyan ismerhetőek fel az utólag beillesztett képrészletek, milyen jellegzetességei vannak annak, ha utólag „belenyúltak” a látványba: a manipulált képrészletek szélei például elmosódottabbak, mint a tárgyak természetes körvonalai.

A videók is egymás utáni képek
 

A kutatók egyelőre az állóképeken tökéletesítik a technikát, amely már most meglepően jó aránnyal szűri ki a hamisítás, manipuláció nyomait.

A videók lényegében egymást követő állóképek, tehát már egyetlen manipulált képkocka gyanús

- magyarázta a professzor, aki ennek ellenére nem gondolja, hogy rövid időn belül teljesen automatizálható az a feladat, amit jelenleg főleg emberi moderátorok végeznek, hogy az úgynevezett „deepfake” videókat (technológiai úton meghamisított videók) kiszűrjék, így véve elejét a manipulációnak. Viszont pár éven belül elérhető lehet olyan megoldás, amely megkönnyíti az alkalmazottak dolgát, kiszűrve a „gyanús” állományokat.

Egyfajta macska-egér harc ez, mint szinte minden a kiberbiztonságban

- tette hozzá, hangsúlyozva, hogy a hamisítók eszközei is fejlődnek, miközben a hamisítás elleni harcban is bevetik a legmodernebb technológiákat.

Az ártatlan képjavításoktól persze nem két lépésben jutunk el a komplett hírhamisításig, de egy gyereket meglepően könnyű lehet becsapni. Az átlagos mobilokban lévő, már most hatékony technológia egyelőre arra még nem elég, hogy hitelesen manipulált filmekkel állhasson elő akár egy tinédzser, aki bosszút forral mondjuk egy neki ártó ismerőse ellen. De a primitív eszközökkel készített kamukat is meglepően sokan beveszik, ezért már a tízéveseknek is érdemes megmutatni, mikor érdemes gyanakodni, hogy az eléjük kerülő videó talán nem egészen hiteles. Ha ők is tudnak készíteni ártatlan képmanipulációkat (mondjuk hogy valami színesebb vagy viccesebb legyen), akkor talán gyorsabban felismerik mások trükkjeit is - legyen az egy túl tökéletes Insta-fotó, vagy egy ritmusra doboló macska a videón. Vagy akár egy osztálytársa, géppisztollyal....

Deepfake
A „deepfake” kifejezést 2017-től használják, valamilyen mesterségesintelligencia-eszköz segítségével digitálisan manipulált képre, videóra. Első pillantásra teljesen hitelesnek tűnő felvételek is lehetnek hamisítottak, ahol személyek nem a felvétel valódi környezetében láthatóak, nem azok társaságában, akik valójában jelen voltak, de élhet a hamisító olyan eszközzel is, hogy a felvétel lassításával vagy gyorsításával torzítja például a beszélő hangját vagy mozdulatait. A technológia nemcsak úgy rombolhatja a hiteles tájékoztatás esélyeit, hogy segítségével álhírek terjeszthetőek, hanem a valódi felvételekről, információkról is állíthatja valaki, hogy „kamu” - amennyiben a felvételen látható információk kínosak vagy leleplezőek, így gyengítve például az oknyomozó újságírást.  

Érdemes például ezeket a cikkeket közösen elolvasni:  http://www.urbanlegends.hu/2018/04/kamuvideo-deepfake-hatasa-emlekezet/
http://www.urbanlegends.hu/2018/04/hogyan-ismerhetunk-fel-egy-hamisitott-videot/
Forrás: https://news.ucr.edu/articles/2019/07/18/deep-neural-network-fights-deepfakes

Vakmacska

Ezeket is érdemes elolvasnod:

Meztelen gyerekek a neten - a szülő a felelős?

Védd a gyereked Momótól!

Mielőtt okostelefont adsz a gyerek kezébe