Новий AI можуть позайматися є ви гей чи прямо з фотографії
Опубликованно 02.11.2017 01:36
Штучний інтелект може точно передбачити, чи буде людина гей або натурал, на основі фотографій їх осіб, за даними нового дослідження, які передбачають, що машини можуть бути значно краще, "Гайдар", ніж люди.
Дослідження з Стенфордського університету, які виявили, що комп'ютерний алгоритм може правильно розрізняти між геями і натуралами 81% і 74% для жінок підняли питання про біологічне походження сексуальної орієнтації, етика осіб технологія виявлення і потенціал для такого роду програмного забезпечення, порушенням конфіденційності або використовуватися для анти-ЛГБТ цілей.
Машина розвідки перевірена в дослідженні, яке було опубліковано в журналі особистості та соціальної психології, вперше повідомив в журналі "Економіст", був заснований на вибірці з більш ніж 35 000 зображень осіб чоловіків і жінок розміщеної на сайті, щоб ми зустрічалися. Дослідники, Міхал Косинські і Yilun Ван, витягнутих з ознак зображень, використовуючи "глибокі нейронні мережі", що означає складну математичну систему, яка навчиться аналізувати візуальні ефекти на основі великого набору даних.
Дослідження показало, що чоловіки-геї і жінки, як правило, мають "гендерно-нетипові риси, вирази "пестити стилів", що означає по суті геї виявилися більш жіночними, і навпаки. Ці дані також виявили певні тенденції, в тому числі, що геї мають більш вузьке щелепи, носи і лоби вже більше, ніж натуралів, і гей-жінок було більше, щелепи і лоби меншого, порівняно з прямими жінками.
Людини судить себе набагато гірше, ніж алгоритм, точного визначення орієнтації лише 61% випадків для чоловіків і 54% жінок. Коли програма розглянуто п'ять зображень однієї людини, він був ще більш успішним – в 91% випадків у чоловіків і 83% жінок. В цілому, це означає, що "особи містять набагато більше інформації про сексуальну орієнтацію, ніж може бути сприйнято і сприймається людським мозком", - пишуть автори.
У документі відзначено, що результати забезпечать "сильну підтримку" для теорії, що сексуальна орієнтація пов'язана з впливом певних гормонів до народження, що люди народжуються геями і квір-це не вибір. Низький відсоток успіху машини для жінок також може підтримати поняття, що жіноча сексуальна орієнтація більш текучої.
Поки висновки мають чітких меж, коли справа доходить до статі і сексуальності – люди кольору не були включені в дослідження, і не було ніякого розгляду транссексуалів і бісексуалів – наслідки для штучного інтелекту (AI) величезні і тривожні. Мільярди зображень облич людей, що зберігаються на сайтах соціальних медіа і в державних базах даних, дослідники припустили, що відкриті дані можуть використовуватися для виявлення сексуальної орієнтації людей без їх згоди.
Легко уявити, що подружжя, які використовують технології на партнерів, вони підозрюють, ховаються, чи підлітка, використовуючи алгоритм на собі або своїх однолітків. Більше лякає, урядам, які продовжують переслідувати ЛГБТ гіпотетично можуть використовувати технології та цільові групи. Це означає формування такого роду програмного забезпечення та пропаганди це саме по собі спірно, враховуючи побоювання, що це може стимулювати шкідливих додатків.
Але автори стверджують, що технологія вже існує, і її можливості мають важливе значення для викриття, з тим щоб уряди і компанії можуть завчасно оцінювати ризики конфіденційності та необхідність гарантій і правил.
“Це, звичайно, турбує. Як і будь-який новий інструмент, якщо він потрапить в погані руки, він може бути використаний для хворих цілей", - сказав Нік правило, ад'юнкт-професор психології в університеті Торонто, який опублікував дослідження про науку Гайдар. "Якщо ви можете почати профілювання людей на основі їх зовнішнього вигляду, потім розпізнавати їх і робити жахливі речі з ними, це дуже погано."
Правилом аргументується як і раніше важливо для розробки і тестування цієї технології: “те, що автори зробили тут, це зробити дуже сміливе заяву про те, наскільки потужним це може бути. ... Тепер ми знаємо, що нам потрібен захист".
Косинський не був доступний для інтерв'ю, за даними Стенфордського представника. Професор відомий своєю роботою з Кембриджським університетом психометричних профілювання, в тому числі використовуючи дані Facebook, щоб зробити висновки про особистість. Кампанії Дональда Трампа і прихильників вихід Великобританії з ЄС розгорнуті такі кошти цільового голосів, що викликало стурбованість з приводу розширення використання персональних даних на виборах.
В Стенфордському дослідженні автори також зазначають, що штучний інтелект може бути використаний для вивчення зв'язків між рисами обличчя і цілий ряд інших явищ, наприклад, політичних поглядів, психологічного стану особистості.
Подібні дослідження надалі викликає занепокоєння з приводу можливих сценаріїв, таких, як науково-фантастичний фільм "особлива думка", в якому людина може бути заарештований виключно на основі передбачення, що вони будуть здійснювати злочин.
"Ай можу вам нічого сказати про тих, хто з достатньо даних", - сказав Брайан Brackeen, генеральний директор компанії kairos, розпізнавання осіб компанії. "Питання в тому, як суспільство, хочемо ми знати?"
Brackeen, хто сказав Стенфорд відомості про сексуальної орієнтації був "разюче вірно", сказав, що необхідно більше уваги приділяється конфіденційності та інструменти з метою запобігання неправомірного використання машинного навчання, як вона стає все більш поширеною і розвиненою.
Правило міркували про AI використовується активно дискримінувати людей на основі апарату інтерпретації їхніх обличчях: "ми всі повинні бути колективною турботою".
Зв'язатися з автором: sam.levin@theguardian.com
Категория: Технологии