Вы - новичок

и хотите больше узнать о движении или вступить в него

Вы - активист

и вас интересует жизнь движения

Вы - инвестор

и вы заинтересовались проектами движения и возможностью финансирования

Вы - журналист

и ищете информацию или хотите взять интервью

Трансгуманисты предупреждают о катастрофе!

Дата опубликования статьи: 30.04.2008

30 апреля 2008 г. в Центре цивилизационных и региональных исследований при Институте Африки Российской Академии Наук успешно прошла предзащита книги под рабочим названием «Структура глобальных катастроф». Автор — известный российский эксперт по глобальным рискам Алексей Валерьевич Турчин. Книга продолжает серию «Диалоги о будущем» (Том 2).

Серия создаётся в рамках сотрудничества Российского Трансгуманистического Движения и Центра цивилизационных и региональных исследований при ИА РАН.


А. В. Турчин

Данный труд является монографией А. В. Турчина, который стал известен многочисленными переводами статей по тематике глобальных экзистенциальных рисков и ошибок мышления. Он серьёзно развил это направление, в результате чего российская общественность может включиться в изучение актуальнейшего направления, которое до сих пор было мало известно в России. В мире проблемы глобальных рисков изучаются, прежде всего, в рамках трансгуманизма, которому свойственны серьёзное отношение к глобальным и долгосрочным проблемам человечества, а также — адекватная оценка потенциала грядущих сверхтехнологий.

В интервью редакции нашего сайта автор заявил:

Утверждение книги о глобальных катастрофах приближает нас к спасению человечества и позитивной сингулярности.

В качестве приложений в книгу включены такие новаторские статьи как «Искусственный интеллект как позитивный и негативный фактор глобального риска» директора Института Сингулярности (Singularity Institute) Елиезера Юдковски, «Введение в теорему о конце света» Ника Бострома, руководителя Института будущего человечества в Оксфорде, и «Идеологические начала общей теории неуничтожимости человечества» российского учёного, к.т.н. А. А. Кононова.

Презентация

Научная карьера А. В. Турчина началась весной 2007 года, когда он сделал первые переводы научных статей. С апреля того же года он является регулярным участником Московского междисциплинарного семинара по трансгуманизму и научному иммортализму.

В июне 2007 А. В. Турчин сделал доклад на тему "Методология анализа глобальных рисков" на заседании семинара по трансгуманизму, посвящённому глобальным рискам.

Для лучшего ознакомления с тематикой мы рекомендуем ознакомиться со статьями и переводами докладчика, каталог которых находится по адресу http://turchin.livejournal.com/profile.

Содержание книги

Часть 1. Анализ Рисков

  1. Общие замечания
  2. Атомное оружие
  3. Глобальное химическое заражение
  4. Биологическое оружие
  5. Супернаркотик
  6. Риски, связанные с самокопирующимися идеями – мемами
  7. Искусственный интеллект
  8. Риски, связанные с роботами и нанотехнологиями
  9. Технологические способы провоцирования естественных природных катастроф
  10. Технологические риски, связанные с принципиально новыми открытиями
  11. Риски, создаваемые космическими технологиями
  12. Риски, связанные с программой SETI
  13. Риски, связанные с размыванием границ между человеческим и нечеловеческим
  14. Риски, связанные с природными катастрофами
  15. Глобальное потепление
  16. Видовые риски, не связанные с новыми технологиями
  17. Неизвестные нам сейчас причины катастроф
  18. Способы обнаружения однофакторных сценариев глобальной катастрофы
  19. Многофакторные сценарии
  20. Глобальные риски второго рода
  21. Криптовойны, гонка вооружений и другие сценарные факторы, повышающие вероятность глобальной катастрофы
  22. Глобальные риски третьего рода
  23. Защита от глобальных рисков
  24. Непрямые способы оценки вероятности глобальной катастрофы
  25. Заключение

Часть 2. Методология анализа

  1. Общие замечания. Ошибка как интеллектуальная катастрофа
  2. Ошибки, возможные только относительно угроз существованию
  3. Как когнитивные искажения, могущие касаться любых рисков, влияют на оценку глобальных рисков
  4. Общелогические ошибки, могущие проявиться в рассуждениях о глобальных рисках
  5. Специфические ошибки, возникающие в дискуссиях об опасности неконтролируемого развития искусственного интеллекта (ИИ)
  6. Специфические ошибки, связанные рассуждениями о рисках использования нанотехнологий
  7. Выводы из анализа когнитивных искажений в оценке глобальных рисков
  8. Возможные правила для сравнительно эффективной оценки глобальных рисков