Зростання підроблені порно і як воно може бути використано для шантажу


Опубликованно 03.01.2019 03:45

Зростання підроблені порно і як воно може бути використано для шантажу

Тільки, це не зовсім ви, але шокуюче підробку, яка виглядає і звучить так само, як ви.

Ваші варіанти, щоб заплатити і сподіваюся, що шантажист тримає свої слова, або прориватися переконати всіх — у тому числі і чужих, хто знайти його в інтернеті — що ви невинні.

Це тривожна реальність, яка не тільки можливо, завдяки швидко розвивається і широко застосовуваної технології, але вже в новому тренді під назвою 'шкідливих deepfakes'.

Жертвою в США заявив "Вашингтон Пост" , що вона виявила відео її обличчя цифровий зшиті на тіло порнографією актриса, що циркулюють в інтернеті.

"Я відчуваю себе ображеним — ця бяка роду порушення," жінка, яка перебуває у її 40-х роках, розповів газеті. “Це таке дивне відчуття, ніби ви хочете відірвати все з інтернету. Але ви знаєте, ви не можете".

Переконливих підробок безневинних людей у відвертих відео будуть з'являтися онлайн і влади намагаються боротися з тривожною нової тенденції.

У доповіді говориться, що подібні фейки, зроблені з використанням відкритих джерел технології машинного навчання, розроблена Google, використовувалися для того, щоб залякувати і вимагати жінок.

Голлівудська зірка Скарлетт Йоханссон стала жертвою нудотний тренд, з десятками важко помітити підроблені секс відео циркулюють в інтернеті.

В одному випадку, у відео описано, як просочилося секс-відео було переглянуто майже два мільйони разів.

"Ніщо не може зупинити когось від вирізування і вставки мої зображення або кого-небудь іншого на інше тіло і робить його виглядати, як до остраху реалістично, як хотілося", - сказав Йоханссон.

Інші зірки, у співачки Тейлор Свіфт, щоб Диво-жінка актриса Галь Гадот, були вставлені у аналогічно мерзенне відео.

Але технологія дала ті зловісні і підступні мотиви можливість швидко зіпсувати комусь життя по клацанню миші.

Технологія, розроблена компанією Google з відкритим вихідним кодом, це означає, що це доступно кожному.

ПРОВІВ НА ВИКУП

В 2016 році, людина в Каліфорнії був звинувачений в пристрілювати його екс-дружина, а на початку цього року

Індійський журналіст Рана Айюб виявилася жертвою відео deepfake.

Вона швидко поширилася через соціальні медіа в помсту на аркуші вона написала викриття корупції в уряді.

"Те, що ти повія і ненависті відчувала, як карають натовпом для моєї роботи в якості журналіста, намагаючись змусити мене замовкнути," МС Айюб написав у колонці для Нью-Йорк Таймс.

"Вона була спрямована на те, щоб принизити мене, зламати мене, намагаючись визначити мене як 'брудний', 'розпусна жінка'".

Технологія дозволяє зробити підробку відео практично будь-якої людини, як цей Барака Обами.

Є форуми в інтернеті, присвячені deepfakes, де користувачі можуть робити запити для жінок, що вони хочуть вставити в невтішних і, як правило, порнографічного сценарію.

І творці теж платно — як правило, близько 20 $за штуку для тих, хто хоче готових відео колишніх, колег, друзів, ворогів і однокласників.

Дослідники тестують технологію створення відео Барак Обама в ході свого виступу, зіставлення його міміку з тисячами доступних образів і кадрів.

З використанням штучного інтелекту, кінцевий продукт виглядав і звучав, як колишній президент США, крім того, що він ніколи не виголошував цих слів.

І хоча результат був невинний, весело і чисто для прикладу, він показав, як легко хтось міг використовувати цю технологію в зло.

Для жертви дав інтерв'ю газеті "Вашингтон Пост", з'ясувалося, що творцеві потрібні тільки 450 її зображення, всі отримані з пошукових систем і соціальних медіа.

Чотиривимірний Лю, ад'юнкт-професор комп'ютерних наук в Університеті Олбані, сказав, що були деякі тонкі натяки, що відео може бути підробкою.

"Коли алгоритм deepfake навчається на зображення обличчя людини, це залежить від фотографій, які доступні в інтернеті, які можуть бути використані в якості тренувальних даних", - сказав він.

“Навіть для людей, які часто фотографують, кілька зображень, які доступні в інтернеті, показуючи закритими очима.

"Без підготовки зображення людей моргаючи, алгоритми deepfake, менш імовірно, щоб створити межі, які зазвичай блимають."

Команда кібер експертів виступати в якості цифрового детективи, пошук і викорінення актів помсти порно в Австралії, в рамках зусиль комісар безпечне. Фото: Бріан Макін

Однак, пан Лю визнає, що програмне забезпечення, призначене для сканування для фальшивок щосили намагається йти в ногу з досягненнями в технології, яка створює їх.

"Люди, які хочуть, щоб заплутати громадськість будуть краще на помилкові відео — і ми, і інші в технологічне спільнота повинні продовжувати шукати шляхи, щоб виявити їх."

ВЕЛИЧЕЗНІ РИЗИКИ

У дослідному документі, опублікованому в цьому році, Роберт Чесні з Техаського університету і Даніель Ситрон з Університету Меріленда сказав, що шкода може бути "глибоким".

"Жертв може почувати себе приниженим і наляканим," вони написали.

"Коли потерпілі виявляють, що вони були використані підроблені секс відео, психологічна травма може бути глибоким — Будь або не це було метою творця відео."

Технології стрімко розвиваються, роблячи фейки все більш важко виявити.

Вони можуть бути використані, щоб вимагати та погрожувати потерпілим, щоб поширювати дезінформацію більш тривожна доба фейковая новину, або на підкуп виборних посадових осіб, доповідь попереджає.

Або ці псевдо-кліпи, які важко виявити, можуть бути використані для залякування публіки — такі як "оголошує ПП" насувається ракетний удар по Лос-Анджелесу або виникає пандемії в Нью-Йорку, провокуючи паніку і гірше".

У лютому, нові жорсткі закони проти 'порноместь, у тому числі виробництво deepfakes — пройшов у федеральний парламент, вводячи шестизначний фінансових санкцій.

Але поліцейських в інтернеті є вкрай важким завданням.

"Фізичні особи і підприємства зіткнуться з новими формами експлуатації, залякування і особисті саботаж," професор чесные і цитрон писав. “Ризики для нашої демократії і національної безпеки є глибокими, а також.

"Методи машинного навчання йде нарощування складності технології, роблячи глибокі підробок ще більш реалістичним і більш стійкі до виявлення."

Продовжувати розмову shannon.molloy@news.com.au

Австралійців, постраждалих від імідж - і відео-зловживання можуть повідомляти про факти уповноваженому безпечне



Категория: Интернет