Майбутнє фейкових новин: не вірте всьому, що ви читаєте, бачите або чуєте


Опубликованно 23.02.2018 08:00

Майбутнє фейкових новин: не вірте всьому, що ви читаєте, бачите або чуєте

Технологія Майбутнє фейкових новин: не вірте всьому, що ви читаєте, бачите або чуєте

Нового покоління відео-і аудіоредакторів для створення реалістичної новин, як і сумнозвісний фейк виступі Обами Олівія Солон в Сан-Франциско @oliviasolon Електронної пошти Срд 26 липня 2017 06.00 БСТ Остання зміна в суботу 25 листопада 2017 02.30 МСК Поділитися на Facebook Поділитися на Twitter Поділитися по електронній пошті Подивитися інші варіанти обміну Поділитися на LinkedIn Поділитися в pinterest Поділитися на Google+ Поділитися на whatsapp Поділитися на Посланника Поруч Стаття 6 міс. Facebook Твіттер Пинтерест Університет Вашингтона Синтезує проект Обама взяв звук з однієї з промов Обами і використовувати його, щоб оживити своє обличчя в абсолютно різних відео

У століття фотошопу, фільтри та соціальних медіа, багато хто з нас звикли бачити маніпулюють картинки – предмети стають тонше і м'якше або, у разі Снэпчат, перетворюються у цуценят.

Однак, з'явилася нова порода відео-і аудіоредакторів, стало можливим завдяки досягненням у галузі штучного інтелекту і комп'ютерної графіки, що дозволить для створення реалістичної кадри з публічних фігур, зображених сказати, ну, що-небудь. Трамп, оголошуючи його схильність для занять водними видами спорту. Хілларі Клінтон з описом викрадених дітей, яких вона тримає у своєму винному погребі. Том Круз, нарешті, визнав, що ми знали з самого початку ..., що він броні.

Це майбутнє фейкових новин. Ми вже давно сказали не вірити всьому, що ми читаємо, але скоро нам доведеться питання все, що ми бачимо і чуємо.

Зараз існує декілька наукових груп, що працюють на збір і узагальнення різних візуальних і звукових елементів людської поведінки.

Програмного забезпечення, розробленого в Стенфордському університеті, вміє маніпулювати відеозапис громадських діячів, щоб привести другої людини, щоб покласти слова в рот – в режимі реального часу. Face2Face захоплює виразу обличчя другої людини, як вони кажуть на камеру, а потім морф ці рухи безпосередньо на обличчя людини, якого в оригінальному відео. Дослідницька група продемонструвала свої технології кукловодческом відео Джордж Буш, Володимир Путін і Дональд Трамп. Facebook Твіттер Пинтерест Face2Face дозволяє ляльковод знаменитостей і політиків, буквально поставивши слова в їх роти.

На свій власний, Face2Face-це весела іграшка для створення мемів і вечірніх розважальних ток-шоу. Однак, з додаванням синтезований голос, він стає більш переконливим – не тільки цифровий ляльок виглядають як політик, але він також може звучати як політик.

Команда дослідників з Університету Алабами в Бірмінгемі працює на голос уособлення. З 3-5 хвилин голос аудіо жертви – пряме або відео з YouTube або радіо-шоу – зловмисник може створити синтезований голос, який може обдурити людину і голосових біометричних систем безпеки, що використовується деякими банками і смартфонів. Зловмисник тоді можете говорити в мікрофон і програма буде перетворювати його так, що слова звучать так, ніби вони говорять жертви – будь то по телефону або на радіо-шоу.

Канадський стартап Лірохвіст розробила аналогічні можливості, які він говорить, можуть бути використані, щоб перетворити Текст на місці аудіокниги "читати" знамениті голосу або персонажів комп'ютерних ігор.

Хоча їхні наміри можуть бути благі наміри, голос-морфінг технологія може бути у поєднанні з особою-морфінг технологія, щоб створити переконливі підроблені заяви громадських діячів.

Ви тільки повинні подивитися на університеті Вашингтона синтезу Обама проекту, де вони взяли аудіо від одного з промови Обами і використовував його, щоб оживити своє обличчя в абсолютно різних відео з неймовірною точністю (завдяки навчання рекурентної нейронної мережі з годин відзнятого матеріалу), щоб отримати уявлення про те, як підступні ці фальсифікації можуть бути.

За фейкових новин є багато інших наслідків, каже Nitesh Саксена, доцент, директор з досліджень Університету штату Алабама в Бірмінгемі кафедри інформатики. “Ви могли б залишити підробка голосових повідомлень, видаючи себе за когось мама. Чи оббрехати кого-то і після зразки аудіо онлайн".

Ці морфінга технології ще не досконалі. Міміка у відео може здатися дещо спотвореним і неприродним, і голоси можуть звучати трохи роботів.

Але з плином часу, вони зможуть точно відтворити звук або зовнішній вигляд людини до точки, де це може бути дуже важко для людей, щоб виявити шахрайство.

Враховуючи підрив довіри до ЗМІ та стрімкого поширення чуток через соціальні медіа, це стає ще більш важливим для новинних організацій, щоб вивчити контент, який виглядає і звучить як справжній.

Явні ознаки будуть де відео або аудіо був створений, хто ще був на заході і будуть погодні умови матч у запису в той день.

Люди повинні також бути дивлячись на освітлення і тіні в відео, то всі елементи, що входять в рамки потрібний розмір, і буде аудіо синхронізується відмінно, - сказала Менді Дженкінс, від соціальних новин компанії Storyful, яка спеціалізується на перевірці новин.

Лікував зміст не може пройти перевірку суворої редакції, а якщо відповідав, як зернисте відео в соціальних мережах, це може швидко поширюватися і викликати суспільні відносини, політична чи дипломатична катастрофа. Уявіть Трамп оголосив війну Північної Кореї, наприклад.

"Якщо хтось виглядає як козир і говорить, як козир, вони будуть думати, що це козир", - сказав Саксена.

"Ми вже бачимо, це навіть не підробка аудіо або відео, щоб змусити людей повірити в те, що неправда", - додав Дженкінс. "Це має потенціал, щоб зробити його гірше".



Категория: Технологии