Burjánzó program

2020.10.29. 14:54

Terjed a nők „levetkőztetésére” képes mesterséges intelligencia

Rendkívül népszerű lett a mélytanulási technológiákat használó applikáció, amivel a kiszemelt áldozat öltözékét lehet eltüntetni.

Forrás: Shutterstock

Még tavaly készült az app, ami most új változatban, a Telegramon újjáéledve, korlátlanul terjed.

2019 júniusában fedezte fel a Vice a DeepNude alkalmazást, amely mesterséges intelligenciát használt nők „vetkőztetésére”.

A felhasználók 50 dollárért tölthették fel egy akár teljesen felöltözött nő fényképét, és visszakapták a látszólag teljesen meztelen fotóját. Valójában persze a szoftver deepfake – deep learning (mély tanulás) és a fake (hamis) – technológiát használt, vagyis a női ruházatot nagyon reális, az áldozat alkatának megfelelő meztelen testre cserélte. (Férfi változatról nem tudunk.)

Jutalmazzák a sikeres hamisítványokat

Akkor a Vice írása 24 órán belül olyan botrányt keltet, hogy fejlesztői visszavonták, a DeepNude a Twitter-fiókjában jelentette be, hogy újabb verziókat nem adnak ki, és más nem férhet hozzá a technológiához.

We are sorry for the various problems. Really. We didn't expect this traffic. The best thing, if it doesn't download well now, is to try later.

De a Sensity AI kiberbiztonsági vállalat most az említett elődre nagyon is hasonlító technológiára bukkant, amelyet egy nyilvánosan elérhető bot használ a Telegram üzenetküldő alkalmazásban.

Most még egyszerűbb a program felhasználói felülete: bárki elküldheti a botnak a Telegram mobil- vagy webalkalmazáson keresztül a kiszemelt személy fényképét, és percek alatt aktot kap vissza.

Today we go public with the findings of a new investigation: early this year we uncovered a new deepfake bot on Telegram, an evolution of the infamous DeepNude from 2019, which „undressed” at least 100.000 women without their knowledge.https://t.co/JLhDtfo7jq pic.twitter.com/gjMIZ2CzV1

A szolgáltatás ingyenes, bár kisebb összegeket lehet fizetni olyasmikért, hogy például távolítsák el a csupaszított fotóról a vízjelet.

A programot idén július óta már százezernél több nő levetkőztetéséhez használták: többségüknek persze fogalmuk sincs arról, hogy

a megtévesztésig reális, sikamlós kép készült róluk, s ismeretlen csatornákon terjed.

Általában fiatal lányokat szemelnek ki – magyarázza az MIT Technology Review-nek Giorgio Patrini, a Sensity vezérigazgatója és vezető tudósa. – Sajnos néha kiskorúak az áldozatok.

A jelentésben közzétett adatok valószínűleg csak a jéghely csúcsát jelentik a tudós szerint.

Our latest investigation on " target="_blank" rel="noopener noreferrer">#deepfake bots on Telegram was covered by Israeli @i24NEWS_EN TV last night. Here's a short interview I gave about the findings of my team @sensityai

Full video: https://t.co/heg8xpgyZB……

— Giorgio Patrini 🛡️👾 (@GiorgioPatrini) " target="_blank" rel="noopener noreferrer">October 23, 2020

A deepfake bot hét Telegram csatornához kapcsolódik, összesen százezernél több felhasználóval. A központi csatorna magának a botnak a tárolására szolgál, míg a többit technikai támogatásra, képmegosztásra használják.

A képmegosztó csatornákon közzétett, jól sikerült meztelen „alkotásokat” tokenekkel jutalmazzák, amelyekkel a készítők hozzáférhetnek a bot prémium funkcióihoz. Az úgynevezett alkotók olyan ösztönzést kapnak, mintha valamilyen játékot játszanának – mondja Patrini.

A kutatók csak kevés nőt tudtak a való életben azonosítani, de egyikük sem válaszolt a megkeresésükre. A Telegram üzemeltetőihez, valamint bűnüldöző szervekhez, köztük az FBI-hoz is fordultak. A Telegram nem reagált, s egyelőre nincs nyoma hatósági intézkedésnek sem.

Az ostoba játékból bosszúpornó lehet

A bántalmazók gyakran használnak pornográf képeket a nők zaklatására. 2019-ben az Amerikai Pszichológiai Egyesület tanulmánya szerint tizenkét nőből egy lett bosszúpornó áldozata. Az ausztrál kormánynak készült, Ausztráliát, az Egyesült Királyságot és Új-Zélandot vizsgáló tanulmány szerint minden harmadik nőt megfenyegették már intim képekkel.

A deepfake bosszúpornó új dimenziót nyújt a zaklatóknak, mert az áldozatokról valójában még el sem kell készíteniük a meztelen képeket.

Gyakorta alkalmazzák a technológiát hírességek, művészek ellen; zaklatási kampányokra; megtörtént, hogy újságírónők elhallgattatására vetették be.

A „vetkőztető” algoritmust bedobják videók, például a kifutón sétáló bikinis modellek felvételeinek hamisítására is. Jelenleg az algoritmust csak kezdetleges módon, képkockánként tudják videók átalakítására bevetni, de Patrini biztos benne, hogy a szoftvert hamarosan tökéletesíteni fogják.

Egyelőre nagyon keveset lehet tenni az ilyen jellegű hamisítások leállításáért, de veszélyességük kezd tudatosulni. Az olyan vállalatok, mint a Facebook és a Google, ellenlépéseket akarnak tenni: olyan technológiákat fejlesztenek, amelyek azonosítják és megkülönböztetik a deepfake termékeket a valóságos képektől.

Borítóképünk illusztráció

Ezek is érdekelhetik

Hírlevél feliratkozás
Ne maradjon le a kisalfold.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!