25.04.2018
Интервью

Получат ли роботы контроль над боеголовками?

Искусственный интеллект может вызвать ядерную войну

Хиросима

Искусственный интеллект может спровоцировать ядерный конфликт в ближайшие 20 лет. Исследовательский центр RAND Corporation опубликовал ответы ученых на вопрос, как «умное» оружие поведет себя в случае его применения.

Эксперты не смогли прийти к единому мнению. Первая группа исследователей считает, что боевая система будет представлять настоящую опасность, если вместе с ней государство получит абсолютное превосходство над другими странами. В этом случае ядерная война — лишь один из исходов. Даже если государство откажется использовать технологию, оно станет серьезной угрозой для мирового сообщества.

Атомная бомбардировка Хиросимы (слева) и Нагасаки (справа)
Применение ядерного оружия: бомбардировка Хиросимы (слева) и Нагасаки (справа)

По мнению других ученых, внедрение системы приведет к положительным результатам. После серии доработок она полностью заменит людей и будет принимать решения независимо от них. В число поправок, которые требуется внести в искусственный интеллект, входит даже изучение необычного поведения.

Многие назвали оптимистический прогноз спорным: исследователи не знают, насколько исчерпывающим будет «тренировка машины». В 1983 году подполковник Вооруженных сил СССР Станислав Петров отклонил ошибочный сигнал системы предупреждения о ракетном ударе со стороны США и отменил ответный пуск ракет. Тем самым Петров предотвратил потенциальную ядерную войну.

Станислав Петров стал лауреатом Дрезденской премии за предотвращение вооруженного конфликта
Станислав Петров стал лауреатом Дрезденской премии за предотвращение вооруженного конфликта

Ядерное оружие с искусственным интеллектом может как нанести непоправимый ущерб, так и стать стабилизирующим фактором. Однако все опрошенные ученые сошлись во мнении, что к 2040 году ни одной из стран не удастся создать подобную боевую систему. Как считают теоретики, система обязательно должна наносить ответный ядерный удар, даже если погибнет руководство страны. Такую способность технология получит совсем не скоро.

В июле 2015 года исследовательская организация Future of Life Institute опубликовала открытое письмо, в котором выразила опасение о скором появлении боевых систем с искусственным интеллектом. Авторы текста подчеркнули, что технология не должна стать «эффективным инструментом для убийства людей». Письмо подписали Стивен Хокинг, Илон Маск, Ноам Хомский, Стив Возняк, а также другие ученые и специалисты в сфере робототехники.

Posted on Categories ИнтервьюTags ,

Добавить комментарий