Эксперты все чаще замечают, что «призванный под ружье» искусственный интеллект допускает ошибки.
Эксперты в области военных технологий и современного оружия предупреждают, что системы с использованием искусственного интеллекта (ИИ) все чаще дают сбои на поле боя. Роботизированное вооружение отказывается выполнять приказы своих операторов и словно пытается выжить в условиях боевых действий. По мнению специалистов, поведение искусственного интеллекта уже сейчас требует детального изучения.
Попытки не выполнять команды операторов отмечались в ходе военных действий между российской армией и её украинскими противниками. В первую очередь это касается беспилотных дронов, в которых применяются технологии ИИ. Например, беспилотники обучались на ошибках ранее сбитых «товарищей» и начинали проявлять что-то похожее на инстинкт самосохранения. Так, 10 марта украинский дрон-камикадзе Tu-141 внезапно улетел в Хорватию, как будто отказываясь выполнять опасную миссию.
Обсудить проблему сбоя систем с искусственным интеллектом должна в июле рабочая группа по кибербезопасности (OEWG) при ООН. Эксперты хотят выяснить, почему происходит все большая автономизация боевых роботов от своих живых командиров, пишет NEWS.RU.
«Мы тщательно анализируем происходящее на полях сражений с целью модернизировать искусственный интеллект и машинное обучение, чтобы ИИ мог точнее предсказывать будущие действия противника. Возможности ИИ вести разведку, наблюдения и боевые действия увеличиваются с каждым годом», — заявил глава американского проекта по управлению ИИ Грегори Аллен.
Издание отмечает, что сейчас военных специалистов беспокоит сам факт любой самодеятельности систем с ИИ. По словам экспертов стокгольмского Международного института исследований в области обеспечения мира, в какой-то момент ИИ может отказаться выполнять команды людей в форме и начнет вести боевые операции на своё усмотрение.
Пока все это кажется фантастикой, поскольку роботизированные системы все еще весьма ограничены в распознавании объектов и возможности принятия самостоятельных решений. Однако постепенно с их развитием ситуация может измениться.
Эксперты говорят, что сейчас системы с ИИ очень хрупкие. Из-за этого как раз происходят сбои в их работе: они допускают ошибки от смешных, как в случае с переводом на иностранные языки, до катастрофических.
«Последствия передачи контроля за принятием решений от человека к ИИ в ходе войны могут быть непредсказуемыми и потенциально катастрофическими. Соблазн делегировать машинам полномочия военного командования велик, потому что это даёт неоспоримые преимущества над противником. Однако ошибки ИИ могут привести к тому, что ход войны выйдет из-под контроля обеих сторон», — подчеркивает директор Центра новой американской безопасности Пол Шарр.
Шарр пишет, что эволюция искусственного разума в перспективе ставит перед людьми вопрос, чей приказ будет приоритетным: живого командира или ИИ, умеющего просчитывать варианты на сто ходов вперёд.
«Самообучающиеся роботы — это уже не завтрашний, а сегодняшний день, поэтому свои выводы инженеры делают на основе изучения ошибок реально работающих образцов «мыслящих машин», — объяснил изданию эксперт по робототехнике Владимир Венеров.
По словам российского эксперта, сейчас производители закладывают в свою технику элементы ИИ. Это касается от кассовых автоматов до беспилотных автомобилей. Но как применять искусственный интеллект в системах вооружений — это вопрос военного планирования и безопасности тех, кто такие системы будет применять
На встрече по кибербезопасности эксперты планируют вынести на Генассамблею ООН проект договора о запрете автономных систем вооружений.
«Эту идею, кстати, активно продвигает Китай, предлагая мировому сообществу отказаться от разработки и создания таких «умных» систем, решения которых будет невозможно отменить извне и которые не предусматривают систему самоуничтожения, запускаемую живым оператором», — отмечает NEWS.RU.
В 2021 году стало известно, что «Вертолеты России» хотят потратить 24 млн рублей на исследование искусственного интеллекта в автономном полете. Возможности применения ИИ изучат на базе вертолета Ка-226. Он должен будет распознавать объекты и препятствия во время полета и предотвращать столкновения с ними, подавая на систему управления те же управляющие воздействия, что и человек.