Books-Lib.com » Читать книги » Разная литература » На краю пропасти. Экзистенциальный риск и будущее человечества - Тоби Орд

Читать книгу - "На краю пропасти. Экзистенциальный риск и будущее человечества - Тоби Орд"

На краю пропасти. Экзистенциальный риск и будущее человечества - Тоби Орд - Читать книги онлайн | Слушать аудиокниги онлайн | Электронная библиотека books-lib.com

Открой для себя врата в удивительный мир Читать книги / Разная литература книг на сайте books-lib.com! Здесь, в самой лучшей библиотеке мира, ты найдешь сокровища слова и истории, которые творят чудеса. Возьми свой любимый гаджет (Смартфоны, Планшеты, Ноутбуки, Компьютеры, Электронные книги (e-book readers), Другие поддерживаемые устройства) и погрузись в магию чтения книги 'На краю пропасти. Экзистенциальный риск и будущее человечества - Тоби Орд' автора Тоби Орд прямо сейчас – дарим тебе возможность читать онлайн бесплатно и неограниченно!

145 0 18:02, 31-10-2023
Автор:Тоби Орд Жанр:Читать книги / Разная литература Поделиться: Возрастные ограничения:(18+) Внимание! Книга может содержать контент только для совершеннолетних. Для несовершеннолетних просмотр данного контента СТРОГО ЗАПРЕЩЕН! Если в книге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту для удаления материала.
0 0

Аннотация к книге "На краю пропасти. Экзистенциальный риск и будущее человечества - Тоби Орд", которую можно читать онлайн бесплатно без регистрации

В увлекательной книге "На краю пропасти" автор Тоби Орд проводит читателей сквозь туманный лабиринт человеческой будущности. Смело бросьте вызов судьбе и углубитесь в мир высоких технологий, моральных дилемм и философских рефлексий, который встретит вас на краю экзистенциального риска.
🌌 Тема книги: Стоим лицом к лицу с вопросами, которые требуют ответов: Что такое будущее человечества? Какие угрозы подстерегают нас в мире, где технологии развиваются со страшной скоростью? Какова цена прогресса, и стоит ли заплатить ее? Книга исследует потенциальные сценарии развития, предостерегает от опасностей и показывает, какие решения сегодня могут повлиять на завтрашний день.
🧠 Основные идеи: Автор с умением переносит сложные научные концепции в понятный язык. Рассматривая искусственный интеллект, биотехнологии и проблемы окружающей среды, Орд погружает нас в обсуждение того, какие выборы предстоит сделать человечеству, чтобы избежать грядущих опасностей.
👨‍🔬 Об авторе: Тоби Орд – выдающийся философ и исследователь рисков. Его работы находятся в центре дебатов о будущем и человеческой цивилизации. Он смело ставит вопросы, на которые мир еще не готов ответить.
🎧 На сайте books-lib.com: Присоединяйтесь к нам на books-lib.com, чтобы не просто читать эту книгу, но и пережить ее вместе с героями. На нашем ресурсе вы не просто найдете лучшие произведения мира, но и сможете их прослушать в формате аудиокниги. Мы предоставляем доступ к литературным шедеврам абсолютно бесплатно и без необходимости регистрации.
🌟 Вы готовы к встрече с будущим? Это путешествие ожидает вас на страницах "На краю пропасти". Узнайте, что таит в себе завтрашний день, и примите участие в формировании будущего уже сегодня. 🚀📖🔮


1 ... 121 122 123 124 125 126 127 128 129 ... 144
Перейти на страницу:
то у нас появятся сверхразумные противники”. Он заключает: “Нам нужно внедрить механизмы (социальные, правовые, политические, культурные), чтобы удостовериться, что все получится”, но “неизбежно значимость обычных людей снизится” (Sutton, 2015), (Alexander, 2015).

О рисках, сопряженных с ИИ, высказывались и другие ведущие исследователи, включая Джеффа Клюна (2019): “…даже если есть лишь небольшая вероятность, что мы создадим опасный ИИ или вызовем неописуемые страдания, издержки так велики, что мы должны обсуждать такую возможность. По аналогии, если бы с вероятностью 1 % через десять или сто лет на Землю упал бы астероид, способный уничтожить цивилизацию, было бы глупо не начать дискуссию о том, как отследить его и предотвратить такую катастрофу”.

Ян Гудфеллоу (OSTP, 2016): “Очень долго будет важно создавать ИИ-системы, которые понимают ценности своих пользователей и настроены в соответствии с ними… Исследователи начинают изучать этот вопрос, и государственное финансирование могло бы помочь сообществу заранее решить его, а не пытаться разбираться с серьезными проблемами после их возникновения”.

431

Szilard & Winsor (1968), pp. 107–108.

432

Хотя в открытом письме содержались в основном утверждения общего характера (Future of Life Institute, 2015), в прилагающейся к нему программе исследований четко говорилось о необходимости изучать стоящие перед человечеством риски того типа, который обсуждается в этом разделе (Russell, Dewey & Teg-mark, 2015).

433

Future of Life Institute (2017).

434

Это была выдержка из работы Russell (2014), и она близка к приведенным здесь аргументам.

435

Это поразительно высокая оценка. Полагаю, так высоко вероятность того, что их работа приведет к катастрофически плохим последствиям для человечества, могли бы оценить еще разве что ученые-атомщики накануне создания бомбы. И все же я благодарен исследователям за честность в этом вопросе.

436

См., например, доводы Пинкера в книге “Просвещение продолжается” (2018, p. 300).

437

Демис Хассабис открыто говорит об этих вещах (Bengio et al., 2017): “Сейчас нам важнее всего сосредоточиться на проблеме координации. Нам хотелось бы избежать губительной гонки к финишу, в которой будут срезаться углы и страдать безопасность. Это станет серьезной проблемой мирового масштаба”.

438

Если бы системы могли совершенствовать собственный интеллект, это, возможно, вызвало бы каскадный эффект, называемый “интеллектуальным взрывом”. Это могло бы случиться, если бы при повышении уровня интеллекта повышались и способности системы к самосовершенствованию. Первым на это обратил внимание И. Дж. Гуд (1959), и это вполне правдоподобный механизм того, как прогресс может быстро выйти из под контроля. В упоминавшемся ранее опросе (Grace et al., 2018) 29 % респондентов посчитали вероятным, что аргумент в пользу того, почему нам следует ожидать интеллектуального взрыва, в целом верен.

Но нельзя сказать, что такой исход гарантирован. Начать хотя бы с того, что ИИ для этого должен быть способен исследовать ИИ не только лучше человека, но и лучше всего исследовательского сообщества ИИ (при сравнимых затратах). Следовательно, мы, возможно, успеем заметить, что система находится примерно на человеческом уровне, прежде чем дело дойдет до интеллектуального взрыва.

Кроме того, сложность каждого следующего шага на пути к повышению интеллекта системы будет, возможно, расти быстрее, чем уровень ее интеллекта, и тогда потенциал “взрыва” быстро сойдет на нет. Предполагается, что в какой то момент он действительно должен сойти на нет, и поэтому главный вопрос в том, есть ли где то ближе к началу процесса промежуток, когда усовершенствования порождают еще большие усовершенствования. Подробнее об этом см. у Bostrom (2014, p. 66).

439

Metz (2018). Согласен и Стюарт Рассел (Flatow, Russell & Koch, 2014): “Я замечаю, что ведущие исследователи отрасли, которые никогда публично не высказывали никаких опасений, негласно полагают, что к этому вопросу нам следует относиться со всей серьезностью, причем чем раньше мы начнем воспринимать его всерьез, тем лучше”.

Советы Хассабиса и Рассела вторят заблаговременному предупреждению И. Дж. Гуда (1970): “Даже если вероятность появления ультраинтеллектуальной машины невелика, это приведет к таким серьезным последствиям, будь они хоть плохими, хоть хорошими, что нам пора бы рассматривать такую возможность. Как бы то ни было, я надеюсь, что к 1980 году мы успеем в деталях обсудить последствия этого и необходимые меры безопасности, и это главная причина, по которой я поднимаю этот вопрос: пора начинать дискуссию”.

Если бы мы последовали совету Гуда, сегодня мы, возможно, оказались бы на несколько десятилетий впереди, а грозящий нам риск был бы небольшим и хорошо контролируемым.

440

В худших случаях, возможно, даже имеющем отрицательную ценность – а такой исход хуже вымирания.

441

Orwell (1949, p. 121; перевод В. Голышева) четко это формулирует: “Правящая группа теряет власть по четырем причинам. Либо ее победил внешний враг, либо она правит так неумело, что массы поднимают восстание, либо она позволила образоваться сильной и недовольной группе средних, либо потеряла уверенность в себе и желание править. Причины эти не изолированные; обычно в той или иной степени сказываются все четыре. Правящий класс, который сможет предохраниться от них, удержит власть навсегда”.

442

Можно даже сказать, что таким стал первый в истории серьезный экзистенциальный риск. С этой точки зрения первая волна антропогенного экзистенциального риска поднялась из за этих опасных идеологий, которые были открыты совсем недавно, и глобализованный мир, возможно, не в силах будет ее сдержать. Технологические риски (начиная с ядерного оружия) представляют собой вторую волну.

В поддержку этой идеи можно вспомнить о характерной для нацистской Германии риторике о “тысячелетнем рейхе” как свидетельстве стремления создать поистине устойчивый режим. Обратите внимание, что вероятность этого не должна быть особенно высокой, чтобы принимать ее в расчет: вероятно, хватит и одного шанса на тысячу (поскольку это больше, чем годовой природный риск).

Хотя “1984” – художественное произведение, оно свидетельствует, что Оруэлла беспокоила вероятность поистине экзистенциальной катастрофы. Он нарисовал картину мира, пребывающего в состоянии постоянного конфликта между тремя тоталитарными сверхдержавами, каждая из которых коварными социальными и технологическими средствами подавляет любые намеки на сопротивление. Ключевой аспект этой картины в том, что в ней, вероятно, воплотилась необратимая дистопия: “Если вам нужен образ будущего, вообразите сапог, топчущий лицо человека – вечно”. Предвосхищая идею об экзистенциальном риске, он сравнил такой

1 ... 121 122 123 124 125 126 127 128 129 ... 144
Перейти на страницу:
Отзывы - 0

Прочитали книгу? Предлагаем вам поделится своим впечатлением! Ваш отзыв будет полезен читателям, которые еще только собираются познакомиться с произведением.


Новые отзывы

  1. Гость Алла Гость Алла10 август 14:46 Мне очень понравилась эта книга, когда я её читала в первый раз. А во второй понравилась еще больше. Чувствую,что буду читать и перечитывать периодически.Спасибо автору Выбор без права выбора - Ольга Смирнова
  2. Гость Елена Гость Елена12 июнь 19:12 Потрясающий роман , очень интересно. Обожаю Анну Джейн спасибо 💗 Поклонник - Анна Джейн
  3. Гость Гость24 май 20:12 Супер! Читайте, не пожалеете Правила нежных предательств - Инга Максимовская
  4. Гость Наталья Гость Наталья21 май 03:36 Талантливо и интересно написано. И сюжет не банальный, и слог отличный. А самое главное -любовная линия без слащавости и тошнотного романтизма. Вторая попытка леди Тейл 2 - Мстислава Черная
Все комметарии: