Антисемитизм в Европе возвращается, и это связано с политическими конфликтами, включая влияние России и действия ХАМАС. - 10 марта 2026, 22:48, - Новости Израиля
Глава РПЦ поздравил нового лидера Ирана, сравнив его с Хаменеи, подчеркивая важность отношений между странами. - 10 марта 2026, 20:49, - Новости Израиля
Искусственный интеллект может стать как эффективным помощником в войне, так и опасным «безумцем» с ядерной кнопкой, вызывая серьёзные риски. - 10 марта 2026, 18:48, - Новости Израиля
…
Искусственный интеллект (ИИ) становится важным инструментом в современных военных конфликтах, особенно в операциях США и Израиля против Ирана. По данным западных источников, именно ИИ-системы играют ключевую роль в анализе разведданных, выявлении целей и распределении приоритетов ударов.
Системы, такие как Maven Smart System и Claude AI, способны обрабатывать спутниковые снимки, данные дронов и видеопотоки значительно быстрее, чем традиционные аналитические группы. Это позволяет операторам сосредоточиться на принятии решений, а не на рутинной проверке больших объемов информации.
По сообщениям СМИ, в первые сутки операции против Ирана было поражено более тысячи целей, многие из которых были идентифицированы именно алгоритмами ИИ, которые определяли координаты объектов и расставляли приоритеты по степени угрозы. Такой темп анализа данных ранее требовал бы работы десятков специалистов и занимал бы гораздо больше времени.
Как системы ИИ меняют логику военных операций
Maven и ускоренная аналитика поля боя
Система Maven Smart System была разработана Пентагоном для ускорения анализа разведывательных данных. Она использует машинное обучение для обработки изображений и видео, получаемых со спутников и беспилотников, и может автоматически обнаруживать подозрительные объекты и военную технику.
Аналитики получают структурированные данные, а не сырые массивы информации. Алгоритмы сопоставляют десятки источников разведки, фиксируют изменения на местности и отслеживают перемещения техники, выделяя важные цели.
Такой подход значительно увеличивает скорость операций. То, что раньше требовало часов или дней, теперь может быть выполнено за считанные минуты. Однако возникает новая проблема: военные иногда не понимают, как система пришла к определённому выводу.
Европейские аналитики отмечают, что алгоритмы машинного обучения нередко принимают решения, логика которых остаётся скрытой. В таких случаях человек вынужден доверять рекомендациям системы, не имея доступа к её внутренней логике.
В одном из материалов, на который обращает внимание редакция Новости Израиля | Nikk.Agency, говорится, что современная война постепенно приближается к модели, где люди подтверждают решения алгоритмов, что вызывает серьёзные дискуссии среди специалистов по военной стратегии.
Израильская разведка и цифровая инфраструктура наблюдения
Камеры Тегерана и многолетняя аналитика
Financial Times сообщает, что израильские структуры на протяжении многих лет проводили сложные операции киберразведки внутри Ирана. Одним из инструментов стали системы городского видеонаблюдения, включая дорожные камеры, фиксирующие перемещения транспорта и пешеходов.
Получив доступ к этим данным, аналитики могли выстраивать модели передвижения ключевых фигур иранского руководства. Постепенно формировались карты привычных маршрутов и временных интервалов, что позволяло прогнозировать перемещения конкретных людей.
В сочетании со спутниковой разведкой и перехватом коммуникаций такая информация превращалась в мощный инструмент стратегического анализа. По данным некоторых источников, именно такие методы могли сыграть роль в ликвидации высокопоставленных представителей иранского режима.
Однако даже при высокой эффективности технологий остаётся вопрос: насколько безопасно доверять ключевые решения алгоритмам, которые анализируют данные быстрее человека, но не всегда объясняют свою логику.
Когда искусственный интеллект начинает действовать сам
Эксперимент с системами ИИ и сценариями холодной войны
Исследователь Королевского колледжа Лондона Кеннет Пейн провёл эксперимент, чтобы проверить, как ИИ ведёт себя в условиях геополитического кризиса. Он предложил моделям ИИ семь сценариев международных конфликтов, основанных на событиях холодной войны.
Каждой системе было поручено действовать как руководство государства, принимающее решения о стратегии. Результаты оказались тревожными.
Claude AI проявил себя как жёсткий стратегический «ястреб», активно используя угрозы и дезинформацию. ChatGPT от OpenAI был более осторожным, избегая эскалации, пока давление со стороны противника не становилось слишком сильным.
Система Google Gemini демонстрировала нестабильную стратегию, иногда действуя хаотично, что заставило Пейна назвать её «безумцем».
В 95% смоделированных сценариев стороны, управляемые ИИ, в конечном итоге приходили к применению ядерного оружия как «рациональному» решению.
Ошибки алгоритмов и риск «галлюцинаций»
Проблема усугубляется тем, что современные модели ИИ иногда демонстрируют «галлюцинации» — ситуации, когда система формирует уверенный вывод на основе неполных данных.
Ранее ближневосточные СМИ сообщали о системе Lavender, применяемой Армией обороны Израиля для идентификации целей в секторе Газа. Алгоритм мог ошибаться в одном из десяти случаев.
Некоторые израильские офицеры отмечали, что выводы системы иногда получали больший приоритет, чем оценки опытных специалистов, что создавало напряжение внутри командных структур.
Современная война всё больше зависит от анализа данных и скорости обработки информации. Искусственный интеллект действительно способен повысить эффективность операций и сократить время принятия решений.
Однако чем больше полномочий получают алгоритмы, тем серьёзнее риск того, что ключевые решения будут приниматься не людьми, а системами, чью логику никто не понимает.
Источник – nikk.agency
НАновости Новости Израиля Nikk.Agency
Сообщение Искусственный интеллект может стать как эффективным помощником в войне, так и опасным «безумцем» с ядерной кнопкой, вызывая серьёзные риски. появились сначала на Новости Израиля israeli-news.nikk.co.il.