Попередження Хокінга з могили


Опубликованно 27.11.2018 06:35

Попередження Хокінга з могили

Цивілізація, як ми знаємо, він знаходиться на межі переповнення супер-багатих і супер-людей.

У нас є технології.

Він просто не прибути вчасно, щоб врятувати 76-річного сам фізик-теоретик.

Він помер у березні.

Але самі вимальовуються потенціал для людей, щоб перебудувати займали багато думок Хокінга в його останні дні. Він поклав їх фоні колекція статей на тему того, що він назвав "велике питання" перед нашим майбутнім.

Вони будуть посмертно опубліковані пізніше на цьому тижні в короткі відповіді на найважливіші питання.

Книга посмертні Стівена Хокінга, короткі відповіді на найважливіші питання, будуть опубліковані. Фото: АFР

Надлюдина

"Я впевнений, що в цьому столітті люди дізнаєтеся, як змінити і інтелект, і інстинкти, такі, як агресія", - пише він.

І це створює проблему.

Технологія обмежує попереду.

Система редагування ДНК CRISPR можна було тільки придуманої в 2012 році.

Це дозволяє дефектні ланцюжки ДНК, щоб бути вирізаний і замінений. Це також дозволяє модулям ДНК, які контролюють характеристики, такі як ті, які стосуються наших очей, щоб бути замінені на поліпшені версії.

Він вже має оборони Австралії думати про те, щоб посилити концентрацію, усвідомленість, сила, витривалість і здоров'я своїх солдатів.

І гонка до забезпечення безсмертя - за ціною - набирає обертів.

Людська природа, Хокінг каже, робить його неминучим тих, хто шукає 'грані' для себе, або своїх дітей, будуть зловживати цієї технології.

Причому краще всього зробити це будуть мати багато грошей.

Надлюдей: біотехнологічна революція тут

"Закони, ймовірно, буде прийнятий проти генної інженерії з людьми", - пише він. "Але деякі люди не зможуть встояти перед спокусою, щоб поліпшити характеристики людини, такі як пам'ять, стійкість до хвороб і тривалість життя".

Західне суспільство будується навколо концепції прогресу, прав особистості і конкуренції.

Так що станеться, якщо один уже благополучні групи користь для суспільства від ігрового поля нахилена ще більше на їх користь?

"Як тільки такі надлюди з'являються, будуть серйозні політичні проблеми з неулучшенних людей, які не зможуть конкурувати", - пише Він.

Він також побоюється, що повернення до фашистського світу фашистської Європи, де селекція, відома як євгеніка - була використана в прагненні створити 'вищої раси'.

У нас є технології. Але чи є у нас мудрість? Професор Стівен Хокінг побоюється наслідків AI і штучно поліпшені люди. Фото: Гетті

МУДРІСТЬ, А НЕ ІНТЕЛЕКТ

Це не перший раз, коли Він попередив людство про потенційно темного шляху, який лежав попереду.

Він був гучний голос в дискусії про наслідки штучного інтелекту.

Він дав зрозуміти, що він боявся, що холодної, розважливої логікою машини може привести їх взяти для нашого ж блага'.

"Розробка повноцінного штучного інтелекту може означати кінець людської раси", - попередив він в 2014 році.

По темі: агресія знищить людство - Хокінг

Хокінг не заперечує корисність ІІ. Він, зрештою, використовувати сам, щоб допомогти перевести свої думки в слова.

Але, що корисності було собі саму серйозну загрозу, - попередив він. При постійно зростаючих гонка робити краще, швидше, більш самонавчальний інтелект, ніж у конкурентів - ми можемо створити монстра.

"Це було б зняти на свій власний, і перебудувати себе з усе зростаючою швидкістю", - сказав Хокінг.

"Люди, які обмежені повільної біологічною еволюцією, не міг конкурувати і будуть замінені."



Категория: Наука