Підйом псевдо-ИИ': як Tech фірми спокійно використовувати людей, щоб зробити ботів працюють


Опубликованно 28.08.2018 08:39

Підйом псевдо-ИИ': як Tech фірми спокійно використовувати людей, щоб зробити ботів працюють

Важко побудувати служба працює на штучний інтелект. Так складно, насправді, що деякі стартапи вийшло дешевше і простіше змусити людей вести себе як роботи, ніж отримати машини поводяться як люди.

“Використання людини, щоб зробити роботу, дозволяє пропускати через навантаження і технічних задач розвитку бізнесу. Це не буквально, звичайно, але це дозволяє побудувати щось і пропустити найважче на початку," сказав Григорій Кобергер, генеральний директор рідмі, який говорить, що він натрапив на безліч "псевдо-АІС".

"Це, по суті, створення прототипу ІІ з людьми", - сказав він.

Ця практика була винесена на обговорення цього тижня в статті "Уолл Стріт Джорнал", виділяючи сотні сторонніх розробників, що додаток Google дозволяє отримати доступ до поштові скриньки людей.

У випадку з Сан-Хосе на основі програмного забезпечення компанії Едісон, інженерів штучний інтелект пройшов через особисті повідомлення сотень користувачів – з їх особистість прихована – щоб покращити "розумні відповіді" функцію. Компанія не кажучи вже про те, що люди будуть переглядати електронну пошту користувачів свою політику конфіденційності. Будучи людини: наскільки реально, ми хочемо, щоб роботи були? Детальніше

Третіх осіб виділені в статті wsj далеко не перші, хто це робить. У 2008 році Spinvox, компанія, який перетворює голосові повідомлення текстові повідомлення, звинуватили у використанні людей в центрах дзвінках за кордон, а не машини, щоб робити свою роботу.

У 2016 році агентство Bloomberg розповів про тяжке становище людей витрачати 12 годин в день, прикидаючись чатботов для календар планування сервісів, таких, як X. AI і Клара. Завдання було настільки дурманить, що людина людину сказали, що вони з нетерпінням чекали замінюються ботами.

У 2017 році бізнес-витрати управління додаток банк автоматично визнав, що він використовував людей, щоб розшифрувати хоча б деякі з розписок він стверджував, що процес за допомогою своєї "технології smartscan". Скани квитанцій направляються до механічних Амазонки Турка краудсорсінг-інструмент праці, де низькооплачувані робітники були читаючи і переписуючи їх.

"Цікаво, якщо банк автоматично сканування користувачі знають працівники MTurk ввести їх надходження", - сказав Лапланте-Рошель "Туркер" і виступати за гіг працівників економіка в соціальній мережі Twitter. "Я дивлюся на чиїсь убер-квитанцію з його ПІБ, місця посадки і висадки адрес".

Навіть Facebook, який активно інвестує в AI, покладалися на людей для свого віртуального помічника для Messenger, М.

У деяких випадках, люди використовуються для навчання системи штучного інтелекту і підвищення його точності. Компанія називається масштаб пропонує банк людей, щоб забезпечити підготовку даних для самохідних автомобілів та інших AI-харчування системи. "Скейлери" буде, наприклад, дивитися на камери або датчика стрічки і етикетки машини, пішоходи та велосипедисти у кадрі. З достатньою кількістю цієї людини калібрування, ІІ навчиться розпізнавати себе ці об'єкти.

В інших випадках, з підробленою його, поки вони роблять це, говорять інвесторам і користувачам вони розробили оптимальну технологію ІІ, таємно сподіваючись на людський розум. Григорій Кобергер (@gkoberger) Як почати startup1 ІІ. Найняти купу мінімальна заробітна плата людей, щоб прикинутися мА прикидається human2. Чекати, поки ІІ буде винайдений 1 березня 2016 року

Елісон Дарсі, психолог і засновник Woebot, на підтримку психічного здоров'я бота, описує це як "Чарівник методика проектування Оз".

“Ви імітувати те, що кінцевою досвід щось буде. І багато часу, коли справа доходить до мА, є людина за завісою, а не алгоритм", - сказала вона, додавши, що будинок хороший АІ система "купу даних", і що іноді дизайнери хотіли знати, якщо є достатній попит на послугу, перш ніж робити інвестиції.

Цей підхід не є доречним у разі служба психологічної підтримки, як Woebot, сказала вона.

“Як психологи, ми керуємося етичним кодексом. Не обманювати людей-це дуже чітко один з тих етичних принципів".

Дослідження показали, що люди схильні розкривати більше, коли вони думають, що розмовляю з машиною, а не людиною, через стигми, пов'язаної з пошуком допомоги для психічного здоров'я.

Команда з Університету Південної Каліфорнії протестували цей віртуальний психотерапевт назвала Еллі. Вони виявили, що ветерани з посттравматичним стресовим розладом були більш схильні розголошувати свої симптоми, коли вони знали, що Еллі була система AI проти, коли вони сказали, що не було людини роботою машини. Людина 1, 1 машина: межовий спір між ІІ і людьми закінчується в нічию Детальніше

Інші думають, що компанії завжди повинні бути прозорими про те, як їх сервіси працюють.

"Мені не подобається", - сказав Лапланте компаній, які, нібито, пропонують АІ-харчується послуг, але насправді наймають людей. “Мені здається нечесним і брехливим, ні чого-те, що я хочу від бізнесу, який я використовую.

“І на боці працівника, він відчуває, як нас штовхають за фіранкою. Мені не подобається моя праця використовується компанією, яка буде розвернутися і брехати своїм клієнтам про те, що дійсно відбувається".

Ця етична дилема також підіймає голову з систем ШІ, які прикидаються людьми. Одним з останніх прикладів цього є Google дуплекс, робот-помічник, який робить до остраху реалістичні телефонні дзвінки з "УМЗ" і "ЧН" книги зустрічі і робити замовлення.

Після первісної негативної реакції, Google заявила, що її ШІ буде ідентифікувати себе з людьми він говорив.

"У демо-версії, він відчуває себе трохи оманлива в низькою віддачею розмова", - сказав Дарсі. Незважаючи на бронювання столика в ресторані може здатися низькими ставками взаємодії, ця ж технологія може бути набагато більш дієвим в чужі руки.

Що станеться, якщо ви могли б зробити реалістичні дзвінки імітуючи голос знаменитості або політика, наприклад?

"Є вже серйозне побоювання за AI і це не допомагає розмову, коли не вистачає прозорості", - сказав Дарсі.

Зв'язатися з автором: olivia.solon@theguardian.com



Категория: Технологии