Роботы-убийцы на подходе?

Апокалипсические картины восстания машин можно было бы смело объявить забавной выдумкой писателей-фантастов и сценаристов, если бы не одно обстоятельство – об этой угрозе высказывались люди весьма авторитетные и не склонные к эпатажу. Напомним, что об опасности, исходящей от искусственного интеллекта, незадолго до своей смерти говорил знаменитый физик-теоретик Стивен Хокинг. О том же предупреждает выдающийся изобретатель современности Илон Маск.

Многие из нас вряд ли осознают реальную подоплеку таких предупреждений, поскольку мы воспринимаем «восстание машин» в тех красках, в каких его живописуют всё те же фантасты. Поэтому у кого-то может невольно возникнуть впечатление, будто упомянутые авторитетные люди слегка «тронулись» умом, коль всерьез верят в фантастические угрозы. На самом же деле опасность, исходящая от искусственного интеллекта, изучается достаточно серьезно, с привлечением большого числа специалистов (в том числе, например, специалистов по этике). Не так давно на эту тему вышла достаточно содержательная книга Елены Лариной «Роботы-убийцы против человечества», где как раз представлены соответствующие материалы, раскрывающие суть проблемы.

Разумеется, любая машина - какой бы совершенной она ни была - никогда не будет обладать волей и сознанием. Именно этим она принципиально отличается от человеческого существа. Поэтому сценарии в стиле «Терминатора», где компьютерная сеть сознательно стремится к порабощению человечества, в реальности не осуществимы. Подобные сценарии, конечно же, совершенно фантастичны. Кроме того, ставить на одну доску наш разум с искусственным интеллектом также некорректно, поскольку помимо вычислительных и логических операций человек обладает еще и творческим воображением, интуицией и образным мышлением. Машина способна только на вычисление. Однако именно здесь она обладает явным преимуществом. Что бы мы ни говорили, но компьютер считает быстрее человека. Попробуйте перемножить в уме трехзначные числа, и вы поймете, о чем идет речь. Простой калькулятор сделает это намного быстрее, чем самый гениальный математик. А представьте, что вам необходимо обработать за очень сжатый отрезок времени тысячи данных. Понятно, что с такой задачей способен справиться только компьютер. Наш мозг здесь явно проигрывает (и в этом нет ничего удивительного, ведь машины и чисто физически могут  быть сильнее, быстрее и выносливее человека).

Вот именно это преимущество, то есть способность мгновенно осуществлять сложнейшие вычисления, ставит перед нами серьезную этическую проблему – насколько можно повысить уровень автономности «умных» машин?

Не в том смысле, что они вдруг «оживут» и станут намеренно устраивать людям козни (подчеркиваем, никаких намерений у машины нет). А в том, не просчитаемся ли мы, доверив машине самостоятельное принятие решений – особенно там, где речь идет о самых настоящих роботизированных боевых системах?

Простой пример раскрывает суть проблемы. В последнее время в военных конфликтах всё чаще и чаще применяются беспилотные летательные аппараты. По большому счету, боевые роботы – уже совсем не фантастика, а в будущем область их применения наверняка расширится. Машина здесь сама обнаруживает цель, осуществляет атаку и возвращается на базу. То есть чисто технически она в состоянии осуществлять полноценную боевую операцию без пилота. Однако на её работу наложено одно принципиальное ограничение – решение об атаке принимает оператор. Иначе говоря, робот сообщает данные о захваченной цели, а дальше ждет разрешения на атаку от человека. Такие системы принято называть гибридными. Контроль со стороны человека в данном случае требуется не потому, что система не обладает совершенством с точки зрения выполнения тактических задач, а в силу того, что человеческий контроль пока что не подвергается сомнению. Мы еще не научились доверять машинам абсолютно. По идее, чисто технически ничто не мешает нам снять подобное ограничение. Однако проблема, как я уже сказал, приобретает этическое измерение: а кто будет нести ответственность в случае ошибки и просчета, можно ли вообще принять такую степень доверия между человеком, ставящим цель, и искусственным интеллектом?

В свете сказанного возникает вопрос: способна ли машина действовать безошибочно? Точнее, способна ли она и в этом отношении превзойти человека? Думаю, не нужно объяснять, что человек подвержен ошибкам. На него влияют эмоции, невнимательность, а иногда он вообще совершает глупые случайные оплошности. Даже умножая большие числа столбиком, мы можем запросто перепутать какую-нибудь цифру. С машиной такого не происходит. Спрашивается, кому лучше доверить принятие решений, когда действовать нужно очень быстро, мгновенно, учитывая при этом множество данных?

На этот счет в книге приводится пример, когда американские дроны случайно атаковали мирные деревни в Афганистане. Всю вину за это журналисты привычно свалили на роботов, якобы неспособных осуществлять грамотные атаки, а потому стреляющих куда попало.

На самом же деле, - читаем мы, - причиной атаки по ложным целям стал оператор, который «в условиях эмоционального, когнитивного и поведенческого стрессов делал ошибки, выбирая неправильные цели». Как замечает автор, «в подавляющем большинстве случаев не машина, а человек является уязвимым звеном гибридной системы».

Причиной атаки мирного населения Афганистана боевыми дронами стало не «восстание машин» а ошибка оператора Отмечается, что этот вывод сделан не на «журналистских страшилках», а на основе сухих фактов и опубликованных отчетов.

Отметим, что порядка 30 стран мира используют роботизированные автономные системы, применяемые, преимущественно, в целях защиты (чаще всего против неодушевленных объектов – ракет, реактивных снарядов и самолетов). Следующим закономерным этапом развития подобной «умной» техники являются системы, направленные на уничтожение живой силы противника. Здесь уже требуется анализ данных, позволяющих распознавать и прогнозировать действия конкретных людей и целых групп. Уже сейчас существуют некоторые виды оружия, позволяющие исключить человека в качестве контролера выбора и поражения цели. То есть «умная» машина, основываясь на мгновенном анализе данных, способна самостоятельно принять решение об атаке. Как мы понимаем, в бою скорость принятия решений во многом определяет исход сражения. Поэтому с военной точки зрения полная автономизация боевых роботов становится целесообразной. Тем самым снимается упомянутая этическая дилемма (война «всё спишет»). Невиданный прогресс вычислительной техники может, в этом случае, стать весомым аргументом в пользу установления столь «доверительных» отношений между человеком и роботами.

Пока еще не совсем ясна эффективность подобных систем. Однако согласимся, что робот, избавленный от непосредственного человеческого контроля и получивший «лицензию на убийство», невольно перекликается с образом фантастического терминатора. Угрожают ли такие системы человеку в глобальном масштабе? Пока ответить на этот вопрос сложно. Хотя надо учитывать, - как указывает автор упомянутого труда, - что не только военные, но даже программисты «не могут проконтролировать правильность рекомендаций, анализов и прогнозов, полученных аппаратно-программным комплексом». «Уже сегодня в определенных случаях военные становятся заложниками компьютерных вычислений», - отмечается в книге.

Судя по всему, главная проблема здесь не в том, что свободу получают реальные машины-убийцы. Проблема в самом принципе полной автономизации роботов. Если новоявленные «терминаторы» окажутся в бою успешнее обычных солдат и пилотируемых боевых машин, то мы без всяких преувеличений шагнем в новую эпоху – в том смысле, что этот успех окажет влияние и на чисто гражданские сферы применения «умных» машин. Шанс на получение такой же степени автономности появится и у беспилотных автомобилей, автобусов, тракторов. Те же перспективы вырисовываются для роботов-врачей, роботов-учителей и т.д. Человеческий труд в самых важных сферах начнет девальвироваться и проигрывать машинному труду. Рискнем предположить, что именно так может выглядеть реальное «восстание машин».

Другое опасение, конечно же, связано с тем, что «умные» системы могут оказаться в руках криминальных структур и террористических организаций, когда произойдет намеренное использование возможностей искусственного интеллекта во вред другим людям и государствам. Хотя данная проблема, конечно же, чисто человеческая и вряд ли имеет прямое отношение к издержкам научно-технического прогресса.

Олег Носков