В программе вести: ЧЕЛОВЕЧЕСТВО ОБРЕЧЕНО, ЕСЛИ НЕ ПОКИНЕТ ЗЕМЛЮ... А теперь о погоде.

  • Автор темы Автор темы Sergey
  • Дата начала Дата начала
Статус
В этой теме нельзя размещать новые ответы.

Sergey

Одмин
Сообщения
27.770
Реакции
47.464
Метод
Табекс
Лет курения
16
Дневник
Читать »»
Стивен Хокинг: Человечество обречено, если не покинет землю

1424849823-766cbdd355d3238423075a47f6f92e33.jpg


Если человечество хочет выжить в долгосрочной перспективе, ему нужно найти способ покинуть планету Земля. Знакомые слова? В этот раз они прозвучали из уст известного астрофизика Стивена Хокинга. Возможно, у людей осталось меньше 200 лет, чтобы выяснить, как сбежать с родной планеты, заявил Хокинг в недавнем интервью Big Think. В противном случае нашему виду может грозить вымирание.

«Будет довольно сложно избежать катастрофы в ближайшие сто лет, не говоря уже о следующей тысяче или миллионе лет, — сказал Хокинг. — Наш единственный шанс долговременного выживания — не остаться на планете Земля, а распространиться в космосе».

Людей, застрявших на Земле, ждет риск двух типов катастроф, считает Хокинг. Первый тип мы можем создать самостоятельно, к примеру, вызывая кардинальное изменение климата или создав ядерное или биологическое оружие. Может стереть нас с лица Земли и ряд космических явлений. Астероид, столкнувшийся с Землей, убьет большую часть населения и оставит остальную часть планеты непригодной для жизни. Вспышка гамма–лучей сверхновой недалеко в Млечном Пути тоже может оказаться разрушительной для жизни на Земле.

Жизнь на Земле также может быть под угрозой внеземных цивилизаций, о чем любит говорить Хокинг. Опасные чужаки могут завладеть планетой и ее ресурсами для собственного использования. Для выживания нашего вида было бы безопаснее иметь запасной план в виде других миров.

«Человеческой расе не стоит держать все яйца в одной корзине, или на одной планете. Будем надеяться, что мы не уроним корзину, пока не перераспределим нагрузку».

На днях Хокинга спросили, какие недостатки людей он бы изменил, а какие добродетели улучшил, если было бы возможно. Он ответил: «Больше всего я бы хотел поправить в человеке его агрессию. Она давала преимущество при выживании в дни пещерных людей, чтобы получить больше еды, территории или партнера, с которым можно продолжить род, но сегодня она угрожает уничтожить нас всех».

В ноябре Элон Маск, генеральный директор SpaceX и Tesla, предупреждал, что шанс на то, что случится нечто опасное в результате появления машин с искусственным интеллектом, может выстрелить уже через пять лет. Ранее он утверждал, что развитие автономных думающих машин сродни «призыву демона». Выступая на симпозиуме AeroAstro Centennial в октябре, Маск описал искусственный интеллект как нашу «крупнейшую угрозу для выживания». Тогда он сказал: «Я думаю, нам стоит быть очень осторожными с искусственным интеллектом. Если бы я мог предположить, какой будет наша крупнейшая угроза для выживания, то это он. Нам нужно быть очень осторожными с искусственным интеллектом. Я все больше и больше склоняюсь к тому, что должен быть некий регулятивный надзор, возможно, на национальном и международном уровне, просто чтобы знать, что мы не делаем дурацких ошибок».

8e68f81279df8b42fe29e3a1a11fc01f.jpg


«С искусственным интеллектом мы вызываем демона. Вы знаете эти истории, в которых парень с пентаграммой и святой водой… он думал, что сможет контролировать демона, но нет».

Возвращаемся к Хокингу. «Качество, которое я хотел бы улучшить — это эмпатия, сочувствие. Она удерживает нас в состоянии мира и любви». Профессор также добавил, что космическая гонка для людей будет «страхованием жизни» и должна продолжаться.

«Отправка людей на Луну изменила будущее человеческой расы таким образом, о котором мы пока даже не подозреваем, — сказал он. — Она не решила наши насущные проблемы на планете Земля, но позволила нам взглянуть на них под другим углом, изнутри и снаружи».

«Я считаю, что долгосрочным будущим человеческой расы должен быть космос и что он представляет собой важную страховку жизни для нашего дальнейшего выживания, поскольку может препятствовать исчезновению человечества путем колонизации других планет».

В декабре 2014 года Хокинг выступил с другим предупреждением — что искусственный интеллект может означать конец человеческой расы. Выступая на мероприятии в Лондоне, физик рассказал BBC, что «развитие полноценного искусственного интеллекта может положить конец человеческой расе».

В январе группа ученых и предпринимателей, включая Элона Маска и Стивена Хокинга,подписала открытое письмо, обещающее положить начало исследованиям безопасности ИИ. Письмо предупреждает о том, что без каких–либо гарантий развитие умных машин может означать темное будущее для человечества.

https://science.d3.ru/comments/677031/
 
Последнее редактирование:
А представьте, сюжет — искусственный интеллект уже давно появился, но поскольку люди его боятся и скорее всего попытаются уничтожить, он не рискует действовать открыто. Потому, он пользуется Стивеном Хокингом как маской. Публикует свои статьи через терминал в его коляске, а через его синтезатор говорит с людьми. Сам Хокинг смотрит на это, но ничего не может поделать, потому что парализован.
 
Пойду, тушенкой подвал что ль забью на всякий... :unsure:
@Nuta, Банками от искусственного интеллекта отбиваться? В чём суть метода? А сгущёнка подойдёт? Я припас немного.
 
Получаецца ,что мы все умрем еще до того,когда всему человечеству придет карачун.Чувствую себя обделенным,как-будто в новогоднюю ночь дежурю на работе.
 
Письмо предупреждает о том, что без каких–либо гарантий развитие умных машин может означать темное будущее для человечества.

могут ли быть какие то гарантии? думаю нет, к сожалению.. найдется какой нибудь одержимый псих, который в определенный момент таки нажмет "красную кнопку". Когда то фильмы про лазер были фантастикой, а сейчас это обычная вещь. Так что походу все эти фильмы о войнах машин против человечества не такая уж и фантастика. Можем ли мы что то сделать что бы этого избежать? Не знаю..
Если переселятся на другую планету, я бы на Пандору перекочевала))) Сменила бы имидж))
 
@Nuta, Я так понимаю ты предлагаешь объединить наши интеллектуальные запасы! Эх не продешевить бы!:eek:

Сама то много запасла? Мой стратегический запас 10 банок сгущёнки.:cool:
 
@Kler Klerowna, Зря беспокоишься. Человеческая глупость непобедима! И никакой интеллект с ней не сладит ни искусственный ни естесственный!
 
@Nuta, Я так понимаю ты предлагаешь объединить наши интеллектуальные запасы! Эх не продешевить бы!:eek:

Сама то много запасла? Мой стратегический запас 10 банок сгущёнки.:cool:
Ого!Интеллект в сгущенке -измеряется?Я туп как дуб-пол банки в холодильнике.
 
Сменила бы имидж))
Классно! Мне нравится идея! Мне к лицу Марс будет!

@MrNobody, ну, по интеллектуальным не продешевим точно. А с остальным сложнее. У меня в запасе пока только пара пачек крупы, макароны, замороженное тесто, мюсли, йогурт, картошка вчера закончилась, но есть приготовленная с мясом в фольге. Негустой холостяцкий рацион, кароч. Еще две пачки кошачьего корма, во.
 
Статус
В этой теме нельзя размещать новые ответы.

Users who are viewing this thread

Назад
Сверху Снизу