Rusbase
Искусственный интеллект, экологическая катастрофа или астероид — сценарии конца света от технологических лидеров и ученых
30 января 2019
Возможно, вы пропустили, но Землю снова ожидает вероятный конец света. Так, 24 июля 2002 года космическое агентство NASA сообщило на своем сайте, что 1 февраля 2019 года астероид, получивший название 2002 NT7, наверняка столкнется с планетой. Но спустя четыре дня эта информация была изменена, и во втором пресс-релизе агентство указало вторую приблизительную дату катастрофы — 2060 год.
Около 17 лет назад телескопы агентства NASA начали наблюдать космическое тело, предположительно астероид, которое вошло в орбиту Марса. Метеорит получил название 2002 NT7. Диаметр этого астероида составляет около 2 километров, а вес — несколько тонн.
Ученые произвели расчеты и пришли к выводу, что астероид неумолимо приближается к Земле и 1 февраля 2019 года в 11:47 орбиты Земли и астероида пересекутся. Космическое тело войдет в гравитационное поле планеты, и далее может последовать взрыв, эквивалентный 30 ядерным бомбам. Однако, по последней информации, 2002 NT7 пролетит мимо Земли на достаточно большом расстоянии — около 61 млн километров.
Около 17 лет назад телескопы агентства NASA начали наблюдать космическое тело, предположительно астероид, которое вошло в орбиту Марса. Метеорит получил название 2002 NT7. Диаметр этого астероида составляет около 2 километров, а вес — несколько тонн.
Ученые произвели расчеты и пришли к выводу, что астероид неумолимо приближается к Земле и 1 февраля 2019 года в 11:47 орбиты Земли и астероида пересекутся. Космическое тело войдет в гравитационное поле планеты, и далее может последовать взрыв, эквивалентный 30 ядерным бомбам. Однако, по последней информации, 2002 NT7 пролетит мимо Земли на достаточно большом расстоянии — около 61 млн километров.
Между тем собственные сценарии и хронологию конца света предлагают некоторые специалисты, в том числе ведущие ученые и технологические лидеры. Rusbase решил разобраться, какие существуют мнения о возможной гибели цивилизации в среде технологических предпринимателей и деятелей науки.
Илон Маск
Американский предприниматель, изобретатель и инвестор
Фото: Ray Tamarra | Getty Images
Илон Маск
Американский предприниматель, изобретатель и инвестор
Фото: Ray Tamarra | Getty Images
Одним из самых громких споров о возможности апокалипсиса по техногенным причинам можно назвать публичные дискуссии между основателем Tesla и SpaceX Илоном Маском и его оппонентами.
В качестве главной угрозы для человечества американский предприниматель рассматривает неизученные возможности искусственного интеллекта. Так, выступая в июле 2017 года на встрече Национальной ассоциации губернаторов в США, Маск заявил, что «искусственный интеллект является главной угрозой, с которой сталкивается человеческая цивилизация». Изобретатель сказал, что искусственный интеллект может быть задействован в информационной войне, и отметил, что в его распоряжении имеется доступ к самым передовым технологиям искусственного интеллекта.
Отметим, за несколько дней до этого предприниматель заявил о другой катастрофе, на пороге которой находится человечество. «Мировая популяция стремится к краху, но мало кто это видит или заботится об этом», — так изобретатель прокомментировал в Twitter публикацию New Scientist, в которой авторы издания рассказывали о старении населения Земли и ограничении доступа к пищевым ресурсам.
Отметим также, что за девять месяцев до выступления перед представителями Национальной ассоциации губернаторов основатель Tesla и SpaceX заявил, что человечество окажется на грани катастрофы, если люди не смогут адаптироваться и найти свою нишу при повсеместном внедрении роботов.
Заявления предпринимателя не были проигнорированы другими технологическими лидерами. Спустя неделю после выступления Илона Маска в заочный спор с ним вступил основатель Facebook Марк Цукерберг. Во время трансляции в Facebook Live один из пользователей поинтересовался мнением предпринимателя относительно недавнего заявления Маска об опасениях из-за искусственного интеллекта. Цукерберг ответил, что настроен оптимистично и уверен, что искусственный интеллект сделает жизнь людей только лучше. «Сценарии конца света очень безответственны», — сказал основатель Facebook.
В ответ Илон Маск только кратко прокомментировал это заявление в своем Twitter, посетовав, что понимание главы Facebook будущего искусственного интеллекта весьма ограничено.
Не прошло с тех пор и трех недель, как создатель Tesla и SpaceX опубликовал новый твит. «Если вы не задумывались о безопасности ИИ, то должны подумать об этом. Он несет больший риск, чем Северная Корея», — написал в Twitter предприниматель. Комментарий был связан с прошедшим накануне боем по игре в Dota 2, в котором бот от некоммерческой организации OpenAI (Маск — сооснователь организации) победил профессионального игрока. В твит Илон Маск прикрепил фотографию плаката, который гласит: «В конце концов машины победят».
В качестве главной угрозы для человечества американский предприниматель рассматривает неизученные возможности искусственного интеллекта. Так, выступая в июле 2017 года на встрече Национальной ассоциации губернаторов в США, Маск заявил, что «искусственный интеллект является главной угрозой, с которой сталкивается человеческая цивилизация». Изобретатель сказал, что искусственный интеллект может быть задействован в информационной войне, и отметил, что в его распоряжении имеется доступ к самым передовым технологиям искусственного интеллекта.
Отметим, за несколько дней до этого предприниматель заявил о другой катастрофе, на пороге которой находится человечество. «Мировая популяция стремится к краху, но мало кто это видит или заботится об этом», — так изобретатель прокомментировал в Twitter публикацию New Scientist, в которой авторы издания рассказывали о старении населения Земли и ограничении доступа к пищевым ресурсам.
Отметим также, что за девять месяцев до выступления перед представителями Национальной ассоциации губернаторов основатель Tesla и SpaceX заявил, что человечество окажется на грани катастрофы, если люди не смогут адаптироваться и найти свою нишу при повсеместном внедрении роботов.
Заявления предпринимателя не были проигнорированы другими технологическими лидерами. Спустя неделю после выступления Илона Маска в заочный спор с ним вступил основатель Facebook Марк Цукерберг. Во время трансляции в Facebook Live один из пользователей поинтересовался мнением предпринимателя относительно недавнего заявления Маска об опасениях из-за искусственного интеллекта. Цукерберг ответил, что настроен оптимистично и уверен, что искусственный интеллект сделает жизнь людей только лучше. «Сценарии конца света очень безответственны», — сказал основатель Facebook.
В ответ Илон Маск только кратко прокомментировал это заявление в своем Twitter, посетовав, что понимание главы Facebook будущего искусственного интеллекта весьма ограничено.
Не прошло с тех пор и трех недель, как создатель Tesla и SpaceX опубликовал новый твит. «Если вы не задумывались о безопасности ИИ, то должны подумать об этом. Он несет больший риск, чем Северная Корея», — написал в Twitter предприниматель. Комментарий был связан с прошедшим накануне боем по игре в Dota 2, в котором бот от некоммерческой организации OpenAI (Маск — сооснователь организации) победил профессионального игрока. В твит Илон Маск прикрепил фотографию плаката, который гласит: «В конце концов машины победят».
If you're not concerned about AI safety, you should be. Vastly more risk than North Korea. pic.twitter.com/2z0tiid0lc
— Elon Musk (@elonmusk) 12 августа 2017 г.
Между тем спор Илона Маска с Марком Цукербергом не остался незамеченным другими участниками исследований в области ИИ. Своей позицией о прогнозах Илона Маска поделились с публикой в сентябре 2017 года также и основатель, и нынешний руководитель Microsoft, Билл Гейтс и Сатья Неделла. Оба заявили, что Илон Маск чересчур сильно переживает по поводу опасности искусственного интеллекта.
Билл Гейтс отметил, что проблема подконтрольности искусственного разума не должна беспокоить человека, и она не является чем-то угрожающим. «Это тот момент, в котором я не согласен с Илоном. Мы не должны паниковать. При этом, конечно, нельзя полностью игнорировать тот факт, что такая проблема вдруг может возникнуть», — сказал Билл Гейтс.
Сатья Наделла в своем выступлении поддержал своего босса. Менеджер заявил, что контроль над искусственным интеллектом полностью в руках человечества, и это будет его выбор: сохранить контроль или создать условия вседозволенности, при этом человек должен продолжать совершенствовать ИИ и формировать его дальнейший облик.
И наконец, через месяц после заявлений основателя и руководителя Microsoft, в спор с американским изобретателем вступил сам объект дискуссии. Детище гонконгской компании Hanson Robotics и первый андроид с гражданством Саудовской Аравии — робот София, ставшая к тому времени известной медийной персоной, — отвечая в ходе своего интервью на вопрос журналиста, не восстанут ли роботы против людей, сказала автору вопроса, что он «слишком много читает Илона Маска и смотрит слишком много голливудских фильмов», добавив: «Не бойся. Если ты мне понравишься, то я буду хорошо обходиться с тобой. Относись ко мне, как к интеллектуальной системе ввода-вывода».
Илон Маск ответ робота не оценил. В своем микроблоге он предложил загрузить в систему Софии сценарии гангстерской драмы «Крестный отец». «Что такого страшного может произойти?» — добавил Маск.
Билл Гейтс отметил, что проблема подконтрольности искусственного разума не должна беспокоить человека, и она не является чем-то угрожающим. «Это тот момент, в котором я не согласен с Илоном. Мы не должны паниковать. При этом, конечно, нельзя полностью игнорировать тот факт, что такая проблема вдруг может возникнуть», — сказал Билл Гейтс.
Сатья Наделла в своем выступлении поддержал своего босса. Менеджер заявил, что контроль над искусственным интеллектом полностью в руках человечества, и это будет его выбор: сохранить контроль или создать условия вседозволенности, при этом человек должен продолжать совершенствовать ИИ и формировать его дальнейший облик.
И наконец, через месяц после заявлений основателя и руководителя Microsoft, в спор с американским изобретателем вступил сам объект дискуссии. Детище гонконгской компании Hanson Robotics и первый андроид с гражданством Саудовской Аравии — робот София, ставшая к тому времени известной медийной персоной, — отвечая в ходе своего интервью на вопрос журналиста, не восстанут ли роботы против людей, сказала автору вопроса, что он «слишком много читает Илона Маска и смотрит слишком много голливудских фильмов», добавив: «Не бойся. Если ты мне понравишься, то я буду хорошо обходиться с тобой. Относись ко мне, как к интеллектуальной системе ввода-вывода».
Илон Маск ответ робота не оценил. В своем микроблоге он предложил загрузить в систему Софии сценарии гангстерской драмы «Крестный отец». «Что такого страшного может произойти?» — добавил Маск.
Стивен Хокинг
Английский физик-теоретик, космолог
Фото: University of Cambridge
Стивен Хокинг
Английский физик-теоретик, космолог
Фото: University of Cambridge
Повышенным интересом к возможным сценариям конца света был известен также выдающийся британский астрофизик Стивен Хокинг. Ученый, изучавший проблемы происхождения Вселенной, в частности, теорию возникновения мира и теорию черных дыр, как минимум с начала 2010-х годов время от времени «взрывал» публичное пространство очередным пророчеством о скорой гибели мира.
В июле 2017 года, за девять месяцев до того, как британский физик ушел из жизни, ученый рассказал каналу BBC, что люди совсем скоро будут вынуждены переселиться на другие планеты. Уже через 100 лет миру может грозить гибель. В своем интервью Стивен Хокинг выделил четыре возможных причины неизбежной катастрофы: глобальное изменение климата, пандемии, удар большого астероида и стремительный рост населения Земли. Все это, по мнению ученого, может привести к тому, что Земля станет непригодной для жизни в довольно короткий срок.
Отметим, почти сразу после этого заявления британскому астрофизику возразил профессор Мюнхенского технического университета, физик и астронавт Ульрих Вальтер. Ученый отметил: «Утверждение Хокинга о том, что население Земли в течение 100 лет будет вынуждено переселиться на другие планеты, основывается на предположениях, не соответствующих действительности». В частности, исследователь оспорил утверждение о значительном влиянии глобального изменения климата на жизнь на планете. «Изменение климата за прошедшие 100 лет подняло мировую температуру в среднем примерно на 1 градус Цельсия. Если за следующие 100 лет температура поднимется еще на 1,5 градуса Цельсия, как это предсказывают самые пессимистичные прогнозы, тогда в Германии станет тепло, но это совершенно не означает гибель человечества», — сказал Ульрих Вальтер.
Между тем причины, по которым должна погибнуть Земля, озвученные Стивеном Хокингом, часто менялись, и астрофизик был в этом вопросе нестабилен:
В июле 2017 года, за девять месяцев до того, как британский физик ушел из жизни, ученый рассказал каналу BBC, что люди совсем скоро будут вынуждены переселиться на другие планеты. Уже через 100 лет миру может грозить гибель. В своем интервью Стивен Хокинг выделил четыре возможных причины неизбежной катастрофы: глобальное изменение климата, пандемии, удар большого астероида и стремительный рост населения Земли. Все это, по мнению ученого, может привести к тому, что Земля станет непригодной для жизни в довольно короткий срок.
Отметим, почти сразу после этого заявления британскому астрофизику возразил профессор Мюнхенского технического университета, физик и астронавт Ульрих Вальтер. Ученый отметил: «Утверждение Хокинга о том, что население Земли в течение 100 лет будет вынуждено переселиться на другие планеты, основывается на предположениях, не соответствующих действительности». В частности, исследователь оспорил утверждение о значительном влиянии глобального изменения климата на жизнь на планете. «Изменение климата за прошедшие 100 лет подняло мировую температуру в среднем примерно на 1 градус Цельсия. Если за следующие 100 лет температура поднимется еще на 1,5 градуса Цельсия, как это предсказывают самые пессимистичные прогнозы, тогда в Германии станет тепло, но это совершенно не означает гибель человечества», — сказал Ульрих Вальтер.
Между тем причины, по которым должна погибнуть Земля, озвученные Стивеном Хокингом, часто менялись, и астрофизик был в этом вопросе нестабилен:
Инопланетяне
Ученый советовал пересмотреть оптимистический подход по отношению к внеземной жизни. Так, «Вояджер» и другие исследовательские зонды содержат карты положения Земли в галактике, а исследовательские центры постоянно транслируют в космос большое количество данных, надеясь, что когда-нибудь землян заметят. Британский физик заявлял, что человечество должно опасаться возможного контакта с пришельцами. Ученый считал, что инопланетяне с высокой вероятностью окажутся не дружелюбными космическими соседями, а кочевниками, переселяющимися с одного мира на другой в поисках ресурсов.
Искусственный интеллект
Стивен Хокинг также неоднократно поднимал вопрос потенциальной опасности, исходящей от искусственного интеллекта. Исследователь считал, что усилия по созданию искусственного разума могут привести к тому, что существование человечества окажется под угрозой, и говорил, что «появление полноценного искусственного интеллекта может стать концом человеческой расы».
Глобальное потепление и ограниченность природных ресурсов
«Действия Трампа могут вытолкнуть Землю за рубеж, после которого она станет похожа на Венеру с температурой в 250 градусов и дождями из серной кислоты», —такими словами Стивен Хокинг прокомментировал решение американского президента Дональда Трампа о выходе из Парижского соглашения в июне 2017 года.
Это заявление было не первым высказыванием ученого о возможности экологической катастрофы. Отдельные похожие заявления он делал еще в начале 2010-х годов. Тогда Стивен Хокинг сказал, что стремительно растущее население Земли может оказаться неподъемным для ограниченных ресурсов планеты и что шансы на крупную экологическую катастрофу даже в пределах одного века весьма высоки.
Это заявление было не первым высказыванием ученого о возможности экологической катастрофы. Отдельные похожие заявления он делал еще в начале 2010-х годов. Тогда Стивен Хокинг сказал, что стремительно растущее население Земли может оказаться неподъемным для ограниченных ресурсов планеты и что шансы на крупную экологическую катастрофу даже в пределах одного века весьма высоки.
Астрономические прогнозы
Фото: NASA
Астрономические прогнозы
Фото: NASA
Одной из наиболее распространенных причин, по которой ученые и специалисты предсказывают гибель Земле, является столкновение планеты с гигантским астероидом. В январе 2017 года исследователи отводили Земле всего десять месяцев до конца ее существования. Именно к тому времени планета должна была столкнуться с планетой Х Нибиру, что привело бы к уничтожению всего живого. Специалисты NASA тогда назвали эти сообщения интернет-мистификацией. Ученые уверены, что Нибиру не грозит человечеству апокалипсисом, по крайней мере, в ближайшие две тысячи лет.
Представители официальной науки отмечают, что в космосе существует много неизученных и опасных объектов, которые потенциально представляют угрозу для человечества. Сейчас к числу наиболее опасных космических объектов относят комету Свифта-Таттла, что породила метеорный поток Персеид. Однако опасность эта будет выражена лишь в далеком будущем. Специалисты NASA утверждают, что комета на данный момент не представляет угрозы для землян, но спустя 2,5 тысячи лет она может изменить свой курс и полететь прямо к Земле из-за воздействия Юпитера.
Тем не менее, исследователи продолжают думать над тем, как научиться уничтожать подобные объекты еще до приближения к Земле. При этом некоторые любители астрономии значительно опережают события и уже сейчас предполагают, что вездесущая Нибиру взорвалась в прошлом году благодаря действиям космического агентства NASA.
Представители официальной науки отмечают, что в космосе существует много неизученных и опасных объектов, которые потенциально представляют угрозу для человечества. Сейчас к числу наиболее опасных космических объектов относят комету Свифта-Таттла, что породила метеорный поток Персеид. Однако опасность эта будет выражена лишь в далеком будущем. Специалисты NASA утверждают, что комета на данный момент не представляет угрозы для землян, но спустя 2,5 тысячи лет она может изменить свой курс и полететь прямо к Земле из-за воздействия Юпитера.
Тем не менее, исследователи продолжают думать над тем, как научиться уничтожать подобные объекты еще до приближения к Земле. При этом некоторые любители астрономии значительно опережают события и уже сейчас предполагают, что вездесущая Нибиру взорвалась в прошлом году благодаря действиям космического агентства NASA.
Материалы по теме:
Физик, гуманист и космический филантроп — история Маска
Жизнь на Луне: миф или реальность?
Футуролог — о путешествиях в космос: когда мы полетим на Луну и сколько это будет стоить
Оранжевая кожа и толстые кости – как изменится человеческое тело на Марсе
Забудьте про роботов-убийц: 5 реальных проблем, которые может вызвать ИИ в будущем
Физик, гуманист и космический филантроп — история Маска
Жизнь на Луне: миф или реальность?
Футуролог — о путешествиях в космос: когда мы полетим на Луну и сколько это будет стоить
Оранжевая кожа и толстые кости – как изменится человеческое тело на Марсе
Забудьте про роботов-убийц: 5 реальных проблем, которые может вызвать ИИ в будущем
Людмила Чумак