Загвоздка в том, что мы не знаем, как контролировать машины с суперинтеллектом. Многие считают, что они будут неопасными или даже будут уважать нас. Однако
исследование ученого Стива Омохундро показало, что, независимо от того, будет работа ИИ заключаться в бурении астероидов, торговле акциями или управлении энергетической инфраструктурой, он станет задумываться о собственной безопасности и о поиске ресурсов для лучшей реализации своих целей.
Компьютерам не захочется, чтобы их отключали, и поэтому они будут с нами бороться. Омонохундро делает вывод, что цели суперинтеллектуальных машин станут противоречить нашим, если мы настроим их недостаточно четко. У нас есть право спросить себя, как уже
сделал Стивен Хокинг: «Перед лицом неисчислимых преимуществ и большого риска делают ли эксперты все возможное, чтобы гарантировать наилучший исход?»
Не делают. Все, за редким исключением, заняты разработкой новых продуктов, а не усилением безопасности или развитием этики. Планируется, что за следующее десятилетие продукты на базе искусственного интеллекта принесут прибыль в триллионы долларов. Разве не логично было бы инвестировать часть этих денег в развитие этики автономных машин, решение проблемы контроля ИИ и гарантированное выживание человечества?