Eddig nem látott veszélyt jelenthet az emberiségre a mesterséges intelligencia, tömeges manipulációra készülnek

4 hónap ezelőtt 7

Nehéz elképzelni, hogy nem használják egymás ellen

Bár ezek a szintetikus felvételek már évek óta léteznek, az elmúlt évben az új "generatív AI" eszközök, mint például a Midjourney, olcsóbbá és egyszerűbbé tették a meggyőző hamis felvételek elkészítését - derül ki a Reuters által készített interjúkból, amelyekben mintegy két tucat szakembert kérdeztek meg olyan területekről, mint az AI, az online félretájékoztatás és a politikai aktivizmus.

A választók nehezen tudják majd megkülönböztetni a valódit a hamisítványtól. És nehéz elképzelni, hogy akár Trump, akár Biden támogatói ne használnák fel majd ezt a technológiát arra, hogy az ellenfelet rossz színben tüntessék fel

- mondta Darrell West, a Brookings Institution technológiai innovációs központjának vezető munkatársa.

Donald Trump volt elnök, aki Ron DeSantisszal és másokkal verseng a republikánus jelölésért, a hónap elején maga is megosztott egy manipulált videót a CNN műsorvezetőjéről, Anderson Cooperről a Truth Social nevű közösségi médiaplatformján. Cooper a felvételen trágár szavakat fűz a mondandójába, amelyek valójában sosem hangzottak el, az viszont feltűnő, hogy a beszéd nincs szinkronban az ajkai mozgásával. A CNN szerint a videó egy deepfake volt, az azonban még a héten is látható volt, Donald Trump fia, Donald Jr. Twitter-oldalán.

Im told this is real it seems real and its surprisingly honest and accurate for CNN but who knows these days. #cnn

— Donald (Trump) May 11, 2023

Érdemes felidézni, mit gondoltak a kibervédelmi szakértők néhány éve a deepfake-ek jelentette fenyegetésről, mivel szemléletessé teszi, milyen rohamosan fejlődik a technológia. 2022 elején Giorgio Patrini, a Sensity deepfake-leleplező szoftvert fejlesztő startup vezérigazgatója még arról beszélt, hogy a jóslatokkal ellentétben a deepfake videók belátható időn belül még nem lesznek alkalmasak arra, hogy befolyásolják a választások eredményét, a legtöbb hamis videót inkább gúnyolódás, lejáratás, vagy kisstílű bosszúállás céljából készítik majd el. Most úgy tűnik, az AI exponenciális fejlődése rácáfol az "optimistább" feltételezésre.

Nem csak a demokratikus választások tisztasága kerülhet veszélybe a deepfake-ek miatt, de akár krízishelyzetekben is sokat fordíthatnak az események kimenetelén a hamis videók. Az ukrajnai háború kitörésekor például felkerült a közösségi médiaoldalakra egy felvétel Zelenszkij ukrán elnökről, aki bejelenti a megtámadott ország fegyverletételét. A szakértők szerint ez volt az első alkalom, hogy az ukrán-orosz háborúban deepfake videót alkalmaztak dezinformációs zavarkeltés céljából. A felvételen azonnal látszott, hogy hamisítvány, ám mégis több ezren osztották meg a közösségi médiában.

Mindössze pár dollárba kerül

A DeepMedia, egy szintetikus felvételek azonosításával foglalkozó cég szerint idén háromszor annyi videós deepfake-et, és nyolcszor annyi hangalapú deepfake-et tettek közzé az interneten, mint 2022-ben ugyanebben az időszakban. A DeepMedia becslése szerint 2023-ban összesen mintegy 500 000 videó- és hangalapú deepfake-et osztanak majd meg világszerte a közösségi oldalakon. Egy hang legenerálása a tavalyi év végéig 10 000 dollárba került szerver- és AI-tréningköltségekkel együtt, de mostanra startupok által kínált eszközökkel néhány dollárért megvalósítható - állítja a cég.

A Midjourney, a Stable Diffusion és a Dall-E 2 képgeneráló alkalmazások, bár nem tökéletesek, egyre jobb minőségben állítják elő a képeket. Emiatt a generatív modellek egyre nagyobb teret nyernek majd a reklámiparban, a terméktervezésben, a díszlettervezésben, és most már a félretájékoztatásban is. Ezekkel az eszközökkel fillérekért lehet már-már valósághű képeket generálni, amelyeket most már egyre árgusabb szemekkel kell nézni ahhoz, hogy felismerjük az MI által egyelőre még szimptomatikusan elkövetett hibákat (a kezeket néha még mindig elrontja). De talán nem is ez a lényeg, hanem az, hogy lehetőleg minél többen osszák meg a felvételeket a közösségi médiában, ahol a felületes hírfogyasztási szokások miatt sokaknak eszükbe sem jut figyelni az árulkodó jelekre.

A Midjourney más képgenerátorokkal ellentétben azt is megengedi, hogy a felhasználók ismert személyekkel hozzanak létre új illusztrációkat. Mivel a szoftver képes hiperrealisztikus képeket generálni hírességekről és politikusokról, a Midjourney vált az AI-művészek kedvencévé. Némileg megnyugtató, hogy David Holz, a Midjourney vezérigazgatója szerint a cég hajlandó együttműködni egy olyan iparági megoldás kidolgozásán, amely lehetővé teszi a mesterséges intelligencia által generált képek nyomon követését a vízjel digitális megfelelőjével, és fontolóra venné a politikai személyek képeinek blokkolását is.

A Reuters által megkérdezett szakértők közül senki nem tudta megjósolni, hogy mire lehet még képes a generatív AI, vagy hogyan lehet hatékonyan védekezni a tömeges félretájékoztatás ellen. Aza Raskin, a Center for Human Technology nonprofit szervezet társalapítója szerint súlyosbítja a problémát, hogy

az AI fegyverkezési verseny miatt sok deepfake felvétel elkészítésére alkalmas AI-szoftvert gyenge védőkorlátokkal látnak el.

Bár a nagy közösségi médiaplatformok, mint a Facebook, a Twitter és a YouTube jelentős erőfeszítéseket tesznek deepfake-ek eltávolítására, a tartalommoderáció hatásfoka nem éri el a kívánt szintet.  

Több szoftver is létezik a piacon, amelyekkel egyelőre még hatékonyan lehet védekezni a deepfake-ek ellen, bár a technológia fejlődési ütemét látva, nem egyértelmű, ez meddig lesz így. A Microsoft Video Authenticator például kielemzi a fotókat és videókat, és egy megbízhatósági pontszámban fejezi ki, mekkora valószínűséggel manipulálták őket mesterséges intelligenciával. Szintén hatékony eszköz a deepWare AI, amely egy webalapú szolgáltatás, de vannak olyan programok is, amelyek meg tudják akadályozni, hogy a deepfake-e eljussanak az eszközökre.

Címlapkép forrása: Getty Images