Підйом псевдо-ИИ': як Tech фірми спокійно використовувати людей, щоб зробити ботів працюють
Опубликованно 28.08.2018 08:39
Важко побудувати служба працює на штучний інтелект. Так складно, насправді, що деякі стартапи вийшло дешевше і простіше змусити людей вести себе як роботи, ніж отримати машини поводяться як люди.
“Використання людини, щоб зробити роботу, дозволяє пропускати через навантаження і технічних задач розвитку бізнесу. Це не буквально, звичайно, але це дозволяє побудувати щось і пропустити найважче на початку," сказав Григорій Кобергер, генеральний директор рідмі, який говорить, що він натрапив на безліч "псевдо-АІС".
"Це, по суті, створення прототипу ІІ з людьми", - сказав він.
Ця практика була винесена на обговорення цього тижня в статті "Уолл Стріт Джорнал", виділяючи сотні сторонніх розробників, що додаток Google дозволяє отримати доступ до поштові скриньки людей.
У випадку з Сан-Хосе на основі програмного забезпечення компанії Едісон, інженерів штучний інтелект пройшов через особисті повідомлення сотень користувачів – з їх особистість прихована – щоб покращити "розумні відповіді" функцію. Компанія не кажучи вже про те, що люди будуть переглядати електронну пошту користувачів свою політику конфіденційності. Будучи людини: наскільки реально, ми хочемо, щоб роботи були? Детальніше
Третіх осіб виділені в статті wsj далеко не перші, хто це робить. У 2008 році Spinvox, компанія, який перетворює голосові повідомлення текстові повідомлення, звинуватили у використанні людей в центрах дзвінках за кордон, а не машини, щоб робити свою роботу.
У 2016 році агентство Bloomberg розповів про тяжке становище людей витрачати 12 годин в день, прикидаючись чатботов для календар планування сервісів, таких, як X. AI і Клара. Завдання було настільки дурманить, що людина людину сказали, що вони з нетерпінням чекали замінюються ботами.
У 2017 році бізнес-витрати управління додаток банк автоматично визнав, що він використовував людей, щоб розшифрувати хоча б деякі з розписок він стверджував, що процес за допомогою своєї "технології smartscan". Скани квитанцій направляються до механічних Амазонки Турка краудсорсінг-інструмент праці, де низькооплачувані робітники були читаючи і переписуючи їх.
"Цікаво, якщо банк автоматично сканування користувачі знають працівники MTurk ввести їх надходження", - сказав Лапланте-Рошель "Туркер" і виступати за гіг працівників економіка в соціальній мережі Twitter. "Я дивлюся на чиїсь убер-квитанцію з його ПІБ, місця посадки і висадки адрес".
Навіть Facebook, який активно інвестує в AI, покладалися на людей для свого віртуального помічника для Messenger, М.
У деяких випадках, люди використовуються для навчання системи штучного інтелекту і підвищення його точності. Компанія називається масштаб пропонує банк людей, щоб забезпечити підготовку даних для самохідних автомобілів та інших AI-харчування системи. "Скейлери" буде, наприклад, дивитися на камери або датчика стрічки і етикетки машини, пішоходи та велосипедисти у кадрі. З достатньою кількістю цієї людини калібрування, ІІ навчиться розпізнавати себе ці об'єкти.
В інших випадках, з підробленою його, поки вони роблять це, говорять інвесторам і користувачам вони розробили оптимальну технологію ІІ, таємно сподіваючись на людський розум. Григорій Кобергер (@gkoberger) Як почати startup1 ІІ. Найняти купу мінімальна заробітна плата людей, щоб прикинутися мА прикидається human2. Чекати, поки ІІ буде винайдений 1 березня 2016 року
Елісон Дарсі, психолог і засновник Woebot, на підтримку психічного здоров'я бота, описує це як "Чарівник методика проектування Оз".
“Ви імітувати те, що кінцевою досвід щось буде. І багато часу, коли справа доходить до мА, є людина за завісою, а не алгоритм", - сказала вона, додавши, що будинок хороший АІ система "купу даних", і що іноді дизайнери хотіли знати, якщо є достатній попит на послугу, перш ніж робити інвестиції.
Цей підхід не є доречним у разі служба психологічної підтримки, як Woebot, сказала вона.
“Як психологи, ми керуємося етичним кодексом. Не обманювати людей-це дуже чітко один з тих етичних принципів".
Дослідження показали, що люди схильні розкривати більше, коли вони думають, що розмовляю з машиною, а не людиною, через стигми, пов'язаної з пошуком допомоги для психічного здоров'я.
Команда з Університету Південної Каліфорнії протестували цей віртуальний психотерапевт назвала Еллі. Вони виявили, що ветерани з посттравматичним стресовим розладом були більш схильні розголошувати свої симптоми, коли вони знали, що Еллі була система AI проти, коли вони сказали, що не було людини роботою машини. Людина 1, 1 машина: межовий спір між ІІ і людьми закінчується в нічию Детальніше
Інші думають, що компанії завжди повинні бути прозорими про те, як їх сервіси працюють.
"Мені не подобається", - сказав Лапланте компаній, які, нібито, пропонують АІ-харчується послуг, але насправді наймають людей. “Мені здається нечесним і брехливим, ні чого-те, що я хочу від бізнесу, який я використовую.
“І на боці працівника, він відчуває, як нас штовхають за фіранкою. Мені не подобається моя праця використовується компанією, яка буде розвернутися і брехати своїм клієнтам про те, що дійсно відбувається".
Ця етична дилема також підіймає голову з систем ШІ, які прикидаються людьми. Одним з останніх прикладів цього є Google дуплекс, робот-помічник, який робить до остраху реалістичні телефонні дзвінки з "УМЗ" і "ЧН" книги зустрічі і робити замовлення.
Після первісної негативної реакції, Google заявила, що її ШІ буде ідентифікувати себе з людьми він говорив.
"У демо-версії, він відчуває себе трохи оманлива в низькою віддачею розмова", - сказав Дарсі. Незважаючи на бронювання столика в ресторані може здатися низькими ставками взаємодії, ця ж технологія може бути набагато більш дієвим в чужі руки.
Що станеться, якщо ви могли б зробити реалістичні дзвінки імітуючи голос знаменитості або політика, наприклад?
"Є вже серйозне побоювання за AI і це не допомагає розмову, коли не вистачає прозорості", - сказав Дарсі.
Зв'язатися з автором: olivia.solon@theguardian.com
Категория: Технологии