Похоже, США уже всерьез взяли курс на автономную войну.
Автономный истребитель DARPA , способный вести воздушный бой без пилота, уже не считается прорывом — агентство перешло к следующей фазе развития и нацелилось на создание систем, которые смогут управлять группой боевых самолётов в совместных миссиях за пределами видимости.
Новая программа DARPA под названием <strong>Artificial Intelligence Reinforcements</strong> (AIR) опирается на опыт проекта <strong>Air Combat Evolution</strong> (ACE), в рамках которого истребители F-16 с управлением на базе ИИ сражались с пилотируемыми машинами в тренировочных «догфайтах». Теперь цель — довести автономию до уровня, при котором такие самолёты смогут действовать в составе звена, координируясь на дальних дистанциях и в сложной боевой обстановке. Программа является частью масштабной милитаризации искусственного интеллекта , которая вызывает всё больше споров о безопасности.
Хотя AIR стартовала позже ACE, сама концепция не нова — первая заявка по программе была опубликована ещё в 2022 году. На этой неделе DARPA тихо заключила с компанией <strong>Systems & Technology Research</strong> (STR) контракт на $11,3 млн в рамках так называемого «Option One». Как пояснили в агентстве, речь идёт уже о втором этапе программы из двух запланированных, что говорит о продвижении проекта вперёд.
На старте AIR в программе участвовали шесть подрядчиков, но во второй фазе их число сократится до четырёх. STR отвечает за одно из двух ключевых технических направлений — разработку алгоритмов, которые обеспечат <em>распределённое автономное выполнение тактических задач в реальном времени</em> в условиях неопределённости, быстро меняющейся обстановки и высокой сложности. Второе направление связано с созданием скоростных и точных моделей, способных учитывать неопределённость и автоматически улучшаться по мере накопления данных.
Согласно первоначальной документации, AIR должна использовать уже существующие сенсорные системы, средства радиоэлектронной борьбы и вооружение. Этапы испытаний будут включать симуляции, затем тесты с участием человека в контуре управления, а после — проверку на реальном <em> беспилотном боевом летательном аппарате </em>. Подобные разработки уже демонстрировались: американские военные создали роботизированную установку , способную автономно сбивать дроны.
Кроме STR, к проекту привлекались <strong>Lockheed Martin</strong> и <strong>BAE Systems</strong>, однако DARPA пока не раскрывает, кто именно попадёт во вторую фазу — отбор участников всё ещё продолжается. Детали работ в первой и второй фазах остаются засекреченными, но известно, что предстоящий этап продлится около 30 месяцев и охватит оставшуюся часть программы.
Вопрос о том, когда пилоты на самом деле вынуждены будут уступить место искусственному интеллекту, остаётся открытым. И пока разработчики тестируют тактическую автономию, критики не исключают и более неожиданные сценарии — вплоть до того, что однажды автономный истребитель решит отказаться от боевого задания. Эксперты предупреждают, что распространение военного ИИ может сделать мир менее безопасным , поскольку ИИ ошибается, и последствия могут быть фатальными . Международное сообщество пытается выработать глобальный пакт против военного ИИ .
Автономный истребитель DARPA , способный вести воздушный бой без пилота, уже не считается прорывом — агентство перешло к следующей фазе развития и нацелилось на создание систем, которые смогут управлять группой боевых самолётов в совместных миссиях за пределами видимости.
Новая программа DARPA под названием <strong>Artificial Intelligence Reinforcements</strong> (AIR) опирается на опыт проекта <strong>Air Combat Evolution</strong> (ACE), в рамках которого истребители F-16 с управлением на базе ИИ сражались с пилотируемыми машинами в тренировочных «догфайтах». Теперь цель — довести автономию до уровня, при котором такие самолёты смогут действовать в составе звена, координируясь на дальних дистанциях и в сложной боевой обстановке. Программа является частью масштабной милитаризации искусственного интеллекта , которая вызывает всё больше споров о безопасности.
Хотя AIR стартовала позже ACE, сама концепция не нова — первая заявка по программе была опубликована ещё в 2022 году. На этой неделе DARPA тихо заключила с компанией <strong>Systems & Technology Research</strong> (STR) контракт на $11,3 млн в рамках так называемого «Option One». Как пояснили в агентстве, речь идёт уже о втором этапе программы из двух запланированных, что говорит о продвижении проекта вперёд.
На старте AIR в программе участвовали шесть подрядчиков, но во второй фазе их число сократится до четырёх. STR отвечает за одно из двух ключевых технических направлений — разработку алгоритмов, которые обеспечат <em>распределённое автономное выполнение тактических задач в реальном времени</em> в условиях неопределённости, быстро меняющейся обстановки и высокой сложности. Второе направление связано с созданием скоростных и точных моделей, способных учитывать неопределённость и автоматически улучшаться по мере накопления данных.
Согласно первоначальной документации, AIR должна использовать уже существующие сенсорные системы, средства радиоэлектронной борьбы и вооружение. Этапы испытаний будут включать симуляции, затем тесты с участием человека в контуре управления, а после — проверку на реальном <em> беспилотном боевом летательном аппарате </em>. Подобные разработки уже демонстрировались: американские военные создали роботизированную установку , способную автономно сбивать дроны.
Кроме STR, к проекту привлекались <strong>Lockheed Martin</strong> и <strong>BAE Systems</strong>, однако DARPA пока не раскрывает, кто именно попадёт во вторую фазу — отбор участников всё ещё продолжается. Детали работ в первой и второй фазах остаются засекреченными, но известно, что предстоящий этап продлится около 30 месяцев и охватит оставшуюся часть программы.
Вопрос о том, когда пилоты на самом деле вынуждены будут уступить место искусственному интеллекту, остаётся открытым. И пока разработчики тестируют тактическую автономию, критики не исключают и более неожиданные сценарии — вплоть до того, что однажды автономный истребитель решит отказаться от боевого задания. Эксперты предупреждают, что распространение военного ИИ может сделать мир менее безопасным , поскольку ИИ ошибается, и последствия могут быть фатальными . Международное сообщество пытается выработать глобальный пакт против военного ИИ .
- Источник новости
- www.securitylab.ru