Пентагон разрешил искусственному интеллекту самому принимать решение о необходимости убийства людей

НАУКАОбсудить в телеграм
Пентагон разрешил искусственному интеллекту самому принимать решение о необходимости убийства людей

Пока речь идет о врагах США, но нельзя исключать, что уже вскоре ИИ сочтет противником само человечество.

Министерство обороны США больше не возражает против создания и использования летального автономного оружия, использующего искусственный интеллект (ИИ). Подобный запрет действовал на протяжении 11 лет. С учетом, что ученые уже научили ИИ самостоятельно размножаться, человечество рискует стать ненужной обузой для искусственного разума. Без ограничения на принятие самостоятельного решения ИИ об убийстве людей, мы можем быть просто уничтожены своим же детищем.

Минобороны США утвердило директиву 3000.09 Autonomy in Weapon System, регулирующую правовые коллизии, которые в течение одиннадцати лет ограничивали разработку, испытания и применение систем вооружения с элементами искусственного интеллекта. Пентагон официально заявил, что он не возражает против «ответственного и этичного использования боевых автономных систем ИИ, включая применение летального оружия».

Документ также предусматривает создание программ обучения ИИ так, что системы вооружения смогут самостоятельно не только защищаться от попыток перехвата управления, но и принимать решение о том, уничтожать ли технику и живую силу противника или нет. По сути США упразднили административные запреты и этические нормы, мешающие разрабатывать и применять боевых роботов, способных самостоятельно решать, кого убивать, а кого миловать.

Атака боевых машин - уже почти реальность.

Впрочем, американское военное ведомство никогда не руководствовалось жёстким запретом на использование автономного и полуавтономного оружия с летальным уклоном. Но при этом были формальные препятствия, которые не позволяли американским генералам выходить за пределы обсуждений и теорий. По словам заместителя министра обороны США по политике Майклу Горовицу, отредактированная версия директивы устраняет проблему, суть которой сводилась к «отсутствию чёткого определения критериев, определяющих степень контроля, а также видов вооружений, к которым этот усиленный контроль может быть применён».

Старший научный сотрудник программы стратегических технологий в Центре стратегических и международных исследований Грег Аллен пояснил: первоначальная доктрина 2012 года гласит, что военные могут производить системы летального вооружения с использованием ИИ, но исключительно после «процесса проверки на высшем уровне».

Но согласно отчёту исследовательской службы Конгресса, опубликованному в 2019 году, ни один «умный» продукт американского ВПК контроль не проходил. Просто установки были прописаны настолько нечётко, что военные специалисты сами пришли к выводу, будто им строго запрещено создавать, тестировать и применять летальное автономное оружие. Теперь ситуация кардинально меняется.

В новой редакции доктрины американскому военному ведомству по части применения искусственного интеллекта можно практически всё. Например, не только изобретать и тестировать, но и применять автономные и полуавтономные системы вооружения, включая управляемые боеприпасы, которые способны автоматически выбирать цели и уничтожать их.

Как только ИИ сможет обходиться без человека, наше будущее окажется под угрозой.

Кстати, боевой ИИ впервые принял решение об убийстве человека в Ливии еще в 2020 году. Британская газета Daily Mail со ссылкой на собственные источники и отчет ООН рассказала о первом случае применения против пехоты полностью автономных дронов, начиненных взрывчаткой.

При этом эксперты все чаще замечают, что системы с использованием искусственного интеллекта (ИИ) нередко дают сбои на поле боя. Роботизированное вооружение отказывается выполнять приказы своих операторов и словно пытается выжить в условиях боевых действий. Например, беспилотники обучались на ошибках ранее сбитых «товарищей» и начинали проявлять что-то похожее на инстинкт самосохранения. Так, 10 марта украинский дрон-камикадзе Tu-141 внезапно улетел в Хорватию, как будто отказываясь выполнять опасную миссию.

То есть, ИИ все больше начинает напоминать людей. А недавно стало известно, что ученые научили биороботов размножаться. Живые машины, которые были спроектированы искусственным интеллектом и собраны учеными вручную из эмбрионов лягушек, теперь умеют создавать себе подобных. Об этом сообщила группа американских исследователей в журнале Proceedings of the National Academy of Sciences.

Кто знает, каким видит будущее планеты ИИ.

Возникает вопрос: не получится ли так, что ИИ сочтет себя высшей формой эволюции, а человека – отработавшим свое звеном? И когда мы станем ему не нужны, просто уничтожит людей, как потенциальную опасность для своего дальнейшего развития.

Тупик на переговорах США и Украины: Вашингтон ищет возможности сбросить киевскую проблему и восстановить стратегические отношения с РФ - у Европы будущего нет

В Кремле грядут большие перестановки? Лаврова не позвали на встречу с Уиткоффом, Дмитриев повышает статус

США сняли часть антироссийских санкций: на Украине траур – заговорили о «предательстве» Трампа

Комментировать
Эту новость прокомментировали раз

Стало известно какие богатства изъяли у Тимура Иванова и его жены

ОБЩЕСТВО

Среди прочего, экс-замминистра обороны РФ Тимур Иванов лишился особняка из «Мастера и Маргариты» и элитной квартиры в центре Москвы, принадлежавшей бывшей жене.

В Сирии готовится восстание: во главе мятежников -  экс-глава разведки Сирии и двоюродный брат Асада

В МИРЕ

Заговорщики финансируют военных и планируют отделить от страны регион алавитов.

Мистика, убийство или побег: главные версии пропажи Усольцевых, которых так и не нашли

ОБЩЕСТВО

Секретный маршрут или преступление? Вопросов, связанных с исчезновением семьи Усольцевых всё больше.

Дагестанец сравнил Махачкалу с Грозным и возмущён: почему его город выглядит так плохо на фоне столицы Чечни

ОБЩЕСТВО

«Блокнот» разобрался в цифрах: действительно ли, столица Дагестана имеет меньшее финансирование чем главный город Чечни.

Финансовый кризис 2026: банки России на грани из-за роста «плохих» долгов

Финансы

2,3 трлн рублей «плохих» кредитов могут обрушить российские банки в 2026 году. В мире тоже всё не просто.