Вы - новичок

и хотите больше узнать о движении или вступить в него

Вы - активист

и вас интересует жизнь движения

Вы - инвестор

и вы заинтересовались проектами движения и возможностью финансирования

Вы - журналист

и ищете информацию или хотите взять интервью

Глобальные риски

Тревоги коллайдерного века

Коллайдерный век – это век, начало которому положил  запуск Большого Адронного Коллайдера. Вряд ли исполнятся прогнозы алармистов о том, что этот мегаколлайдер искусственно воспроизведет Большой взрыв.  Однако  мировое общественное сознание он действительно взорвал. Фейерверк непримиримых позиций по вопросу о возможных угрозах человеческому бытию, которые может породить грядущая практика экспериментирования на этом и последующих за ним суперускорителях, сегодня тревожит не только гуманитариев, но и творцов естествознания.

Ресурсы по теме глобальных катастроф

Список ресурсов по темам Сингулярность, Футурология, Гибель цивилизации:

Война и ещё 25 сценариев конца света

Вышла книга: Алексей Турчин «Война и ещё 25 сценариев конца света».

Война и ещё 25 сценариев конца света
Война и ещё
25 сценариев конца света

Оригинальное название книги было «Гносеология катастроф», а основные идеи книги те же, что и в готовящейся научной работе А. Турчина «Структура глобальной катастрофы». Но в данной книге основной акцент сделан на том, как нарастающая непредсказуемость будущего ведёт к концу света.

Дэвид Брин. Сингулярность и кошмары.

Приближающаяся сингулярность включает в себя следующие варианты: саморазрушение цивилизации, позитивная сингулярность, негативная сингулярность (машины берут верх) и возвращение к традиционному образу жизни. Нашей срочной целью является: найти ошибочные образы действий (и избежать их), используя предвидение (мысленные эксперименты), и усилить жизнеспособность – создать мощные системы, которые могут справляться почти с любой проблемой при её возникновении.

Опубликовано в «Представление нанотехнологий: Обзор сверхточного проектирования и нанотехнологии». (Nanotechnology Perceptions: A Review of Ultraprecision Engineering and Nanotechnology, Volume 2, No. 1, March 27 2006.1 Reprinted with permission on KurzweilAI.net March 28, 2006).

Угрозы существованию

По причине ускорения технологического прогресса, человечество, возможно, быстро приближается к критической точке в своём развитии. В дополнение к хорошо известным угрозам, вроде ядерного холокоста, перспективы быстро развивающихся технологий, таких как наносистемы и машинный интеллект, преподносят нам беспрецедентные возможности и риски. Наше будущее, и то, будет ли у нас вообще будущее, зависит от того, как мы справимся с этими вызовами. В связи с быстро развивающимися технологиями, нам нужно лучшее понимание динамики перехода от человеческого к «пост-человеческому» обществу. Особенно важно знать, где расположены ловушки: пути, на которых всё может пойти смертельно неправильно.

Искусственный интеллект как позитивный и негативный фактор глобального риска

Введение.

До сих пор основной опасностью искусственного интеллекта (ИИ) было то, что люди слишком рано делали вывод, что они его понимают. Разумеется, эта проблема не ограничена ИИ. Jacques Monod пишет: «забавным аспектом теории эволюции является то, что каждый думает, что понимает её». (Monod, 1974.) Мой отец, физик, жаловался на людей, придумывавших свои собственные физические теории: «интересно знать, почему люди не придумывают свои собственные теории химии?» (Но они делают.) Тем не менее, проблема является особенно актуальной в области ИИ. Область ИИ имеет репутацию того, что она даёт огромные обещания и не исполняет их. Большинство наблюдателей считают, что ИИ труден, и это на самом деле так. Но запутанность не происходит из трудности. Трудно сделать звезду из водорода, но звездная астрофизика не имеет ужасающей репутации обещать сделать звезду и затем не смочь. Критическим выводом является не то, что ИИ труден, а то, что, по неким причинам, людям очень легко думать, что они знают об Искусственном Интеллекте гораздо больше, чем на самом деле.

Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков.

Введение.

При всех прочих равных, не много людей предпочли бы уничтожить мир. Даже безликие корпорации, лезущие не в свои дела правительства, безрассудные учёные и прочие агенты погибели нуждаются в мире, чтобы достигать в нём своих целей наживы, порядка, владения, или других мерзостей. Если наше истребление будет происходить достаточно медленно для того, чтобы успело произойти ужасное осознание этого процесса, деятели, запустившие его, будут, вероятно, ошеломлены пониманием того, что они, в действительности, уничтожили мир.