Москва
Мероприятия
Блог
Корзина
Регистрация Войти
main-bg
Блог

ИИ для кибербезопасности: как искусственный интеллект меняет защиту данных в 2026 году

Яна Ламзина
Яна Ламзина,
редактор блога Softline
17.03.2026
Подписаться в MAX

По мере роста сложности киберугроз, постепенно становятся все менее эффективными традиционные методы защиты от них. Искусственный интеллект (ИИ), которым все чаще и чаще пользуются злоумышленники для совершения атак, одновременно позволяет отражать эти атаки. В 2026 году он становится ключевым инструментом в арсенале кибербезопасности.

 

Как ИИ используется в кибербезопасности

Автоматизация обнаружения угроз: ИИ трансформирует системы управления событиями и инцидентами (SIEM), центры мониторинга ИБ (SOC) и поведенческий анализ

Современные центры мониторинга информационной безопасности (SOC) и системы управления событиями и инцидентами (SIEM) сталкиваются с экспоненциальным ростом объемов данных: логи операционных систем, сетевой трафик, сигналы от системы обнаружения вторжений (IDS) или системы предотвращения вторжений (IPS), поведенческие аномалии и данные из облачных сервисов.

Искусственный интеллект и машинное обучение кардинально меняют подход к обнаружению угроз

Традиционные методы анализа, основанные на сигнатурах и заранее заданных правилах, уже не справляются с динамичными и сложными киберугрозами. Здесь на помощь приходят искусственный интеллект и машинное обучение, которые кардинально меняют подход к обнаружению угроз:

  1. Автоматизация рутинных процессов. Аналитики SOC еще совсем недавно (а кое-где до сих пор) тратили до 70% времени на первичную обработку логов, корреляцию событий и поиск аномалий. Современные ИИ-модели, интегрированные в SIEM (например, Positive Technologies, RuSIEM), автоматизируют эти процессы, анализируя миллионы событий в секунду и выделяя только действительно подозрительные инциденты.
  2. Обнаружение сложных атак. ИИ способен распознавать многовекторные атаки, которые остаются незамеченными для сигнатурных систем. Алгоритмы машинного обучения (такие как Random Forest или нейронные сети) анализируют не только отдельные события, но и цепочки действий, выявляя скрытые закономерности. Например, технология выявления киберугроз UEBA (User and Entity Behavior Analytics) строит поведенческие профили пользователей и устройств, сравнивая текущую активность с историческими данными.
  3. Снижение количества ложных срабатываний. Одной из главных проблем традиционных SIEM-систем было большое количество ложных срабатываний, из-за которых аналитики тратили время на проверку инцидентов. ИИ решает эту проблему, используя контекстный анализ и динамическую приоритизацию событий. Например, платформы на базе ИИ (такие как Stellar Cyber) снижают уровень шума на 40–60%, сосредотачивая внимание специалистов только на действительно опасных событиях.
  4. Прогнозирование атак. Современные SIEM с ИИ не только реагируют на инциденты, но и прогнозируют их. Например, система Open Source SIEM анализирует исторические данные о вторжениях и с помощью алгоритмов машинного обучения предсказывает вероятность многоэтапных атак, продвинутых постоянных угроз APT (Advanced Persistent Threat). Это позволяет SOC перейти от реактивной модели защиты к реакции на опережение, блокируя угрозы еще на стадии подготовки.

Поведенческий анализ: как ИИ распознает нормальное и подозрительное поведение

Традиционные системы безопасности опираются на статические правила и сигнатуры, но современные атаки (особенно инсайдерские угрозы и целевые кампании) часто обходят такие механизмы. Поведенческий анализ на базе ИИ решает эту проблему, фокусируясь на отклонениях от нормального поведения пользователей, устройств и сетевых сущностей.

Анализ поведения пользователей

Первая, более простая часть поведенческого анализа, в котором ИИ доказывает свою эффективность — анализ поведения пользователей и сущностей, известный как UEBA. Здесь ИИ работает как цифровой психолог, который сначала изучает привычки каждого сотрудника или устройства, а затем бьет тревогу, если видит отклонение от нормы. Система запоминает, что бухгалтер Петров работает с 9 до 18, пользуется только 1С и Excel, и никогда не заходит в систему по выходным. Если вдруг в три часа ночи с аккаунта Петрова начинают скачивать базы данных из административной панели, ИИ фиксирует это как аномалию.

Анализ поведения пользователей позволяет вовремя заметить отклонения от нормы

Глубина анализа может быть разной: от грубых метрик вроде геолокации и времени дохода до более тонких — например, скорости перемещения мыши по экрану или типичных для пользователя SQL-запросов. Главное здесь то, что система не знает, что именно происходит — атака это, инсайдер или просто сотрудник решил поработать из командировки. Она лишь констатирует факт: «это непохоже на Петрова». Решение о блокировке или проверке остается за человеком или более строгими правилами безопасности.

Обнаружение инсайдерских угроз

Это более сложное направление использования ИИ в кибербезопасности и, одновременно, одно из самых опасных — инсайдерские угрозы, когда вред наносит сам сотрудник (умышленно или по неосторожности).

В этом случае ИИ анализирует не только технические действия (например, копирование файлов), но и контекст: например, если сотрудник отдела кадров внезапно начинает скачивать базы данных клиентов или пытается получить доступ к административным панелям, система фиксирует это как потенциальную угрозу.

Согласно исследованиям, проведенным в 2025 году компанией InfoWatch, лишь 23% компаний способны обнаруживать внутренние инциденты информационной безопасности, что хорошо говорит о злободневности проблемы.

Обнаружение инсайдеров силами ИИ

Анализ цепочек атак

В этом, наиболее сложном, сценарии ИИ работает уже не как психолог, а как следователь или аналитик, который просматривает тысячи разрозненных записей из логов и пытается связать их в единую историю. Он не спрашивает «нормально ли это действие?». Он спрашивает: «куда ведет эта цепочка?» Система видит, что секретарша получила письмо с вложением (событие А), через час с ее компьютера запустился неизвестный процесс (событие Б), а еще через два часа этот процесс попытался проверить сетевые подключения к серверу бухгалтерии (событие В). По отдельности эти события могут не вызывать подозрений. Письма получают все, процессы запускаются постоянно. Но вместе они выстраиваются в классическую схему атаки: проникновение, закрепление, разведка. ИИ способен наложить эту последовательность на таксономию известных киберугроз и выдать уже не просто сигнал, а готовый сценарий развития инцидента с прогнозом следующего шага злоумышленника.

Анализ цепочек атак

В современных центрах мониторинга (SOC) все эти методы работают в связке: поведенческие анализаторы фильтруют шум и отсеивают явные аномалии, профилировщики инсайдеров приглядывают за своими же, а корреляционные движки собирают из оставшихся событий мозаику сложных распределенных атак, которые человек своими силами мог бы и не заметить.

Искусственный интеллект уже сегодня меняет правила игры в кибербезопасности:

  • Скорость: ИИ анализирует миллионы событий в реальном времени, сокращая время обнаружения угроз с часов до минут.
  • Точность: поведенческий анализ и машинное обучение выявляют аномалии, которые ускользают от традиционных систем.
  • Проактивность: ИИ предсказывает атаки, а не просто реагирует на них, что позволяет SOC перейти от обороны к упреждающим действиям.

Защита на опережение с ИИ

Любой детектив скажет: ждать, пока преступление совершится, и ловить злоумышленника на месте — работа благородная, но хотелось бы предотвращать кражи до того, как они случатся. В кибербезопасности этот принцип называется защитой на опережение или проактивной защитой, и здесь ИИ тоже меняет правила игры.

Если поведенческий анализ смотрит в настоящее, то проактивная защита обращена в будущее. Ее задача — не обнаружить атаку, а сделать ее невозможной еще на этапе замысла. И если раньше для этого приходилось нанимать дорогостоящих этичных хакеров, которые неделями простукивали систему в поисках слабых мест, то теперь эту работу все чаще берут на себя алгоритмы.

Проактивная защита с ИИ: автоматизированные пентесты и цифровые двойники

    1. Автоматизированные тесты на проникновение (пентесты)

Традиционные пентесты требуют значительных временных и человеческих ресурсов: специалисты вручную анализируют инфраструктуру, ищут уязвимости и моделируют атаки. Однако с развитием искусственного интеллекта этот процесс стал автоматизированным, быстрым и более эффективным.

В 2024 году на рынке заявил о себе стартап XBOW. Их идея: ИИ-агент, который самостоятельно ищет уязвимости без участия человека. И, судя по всему, у них это получается. На этапе тестирования XBOW обнаружил несколько критических уязвимостей в реальных приложениях крупных компаний, включая Amazon, PayPal и Sony . Разработчики утверждают, что их инструмент справляется с 75% учебных стендов от PortSwigger и PentesterLab, а на собственных тестах показывает результат под 85%.

ИИ способен моделировать действия хакеров, выявлять слабые места и предлагать способы их устранения в реальном времени

Как работает ИИ в пентестах?

  • Анализ инфраструктуры: ИИ сканирует сети, приложения и системы на наличие известных и неизвестных уязвимостей, используя базы данных эксплойтов (например, систему идентификаторов публично раскрытых уязвимостей CVE) и собственные алгоритмы машинного обучения.
  • Моделирование атак: на основе исторических данных о реальных кибератаках ИИ симулирует действия злоумышленников, включая фишинг, эксплуатацию уязвимостей и латеральное перемещение по сети.
  • Обнаружение уязвимостей: ИИ выявляет не только стандартные уязвимости (например, SQL-инъекции или XSS), но и сложные логические ошибки, которые могут остаться незамеченными при ручном тестировании.
  • Генерация отчетов: после завершения тестирования ИИ формирует детальные отчеты с описанием найденных уязвимостей, уровнем их критичности и рекомендациями по устранению.
    2. Цифровые двойники: ИИ создает виртуальные копии инфраструктуры для тестирования защиты

Цифровые двойники — это виртуальные копии физических систем, процессов или инфраструктур, которые используются для моделирования, анализа и тестирования. В контексте кибербезопасности, построенные с помощью ИИ цифровые двойники позволяют создавать точные реплики ИТ-инфраструктуры, чтобы тестировать ее устойчивость к атакам, моделировать сценарии компрометации и оптимизировать защиту.

Точные реплики ИТ-инфраструктуры, чтобы тестировать на ней сценарии атак

Подробней об этом, вы можете прочитать в статье «Как устроены цифровые двойники: этапы разработки и примеры использования».

Как работают цифровые двойники в кибербезопасности?

  • Создание виртуальной копии: ИИ анализирует реальную инфраструктуру (серверы, сети, приложения, устройства) и создает ее цифровую модель, которая полностью повторяет поведение оригинала.
  • Моделирование атак: на основе исторических данных о кибератаках ИИ симулирует различные сценарии компрометации, включая эксплуатацию уязвимостей, DDoS-атаки и инсайдерские угрозы.
  • Анализ устойчивости: цифровой двойник позволяет оценить, как инфраструктура поведет себя при атаке, и выявить слабые места, которые могут привести к компрометации.
  • Оптимизация защиты: на основе результатов тестирования ИИ предлагает меры по укреплению безопасности, включая обновление ПО, настройку сетевых политик и внедрение дополнительных средств защиты.

ИИ-ассистенты для аналитиков

Любая самая совершенная система обнаружения бесполезна, если ее сигналы тонут в шуме, а у аналитиков не доходят руки их разобрать. Здесь на сцену выходит другая ипостась искусственного интеллекта — не детектив и не взломщик, а умный ассистент, который берет на себя всю рутину.

Современный центр мониторинга (SOC) генерирует тысячи предупреждений в день. Даже после фильтрации поведенческими анализаторами и корреляционными движками объем данных остается колоссальным. И здесь ИИ выступает в роли персонального помощника, который освобождает человека для действительно сложных задач.

Чат-боты и голосовые помощники: разговор с системой на естественном языке

Одно из самых заметных применений ИИ-ассистентов в кибербезопасности — интерфейсы на естественном языке. Современные системы позволяют аналитику просто спросить: «Что происходило в сети за последние 24 часа?» — и получить структурированный отчет с выделением ключевых событий, а не простыню логов.

Умный ИИ-ассистент берет на себя всю рутину

Такие ассистенты не просто выдают информацию — они умеют суммировать, делать выжимки и даже давать рекомендации. Например, на запрос «Покажи все подозрительные входы в систему за неделю» ИИ не только отобразит список, но и отметит, какие из них требуют немедленного внимания, а какие могут быть ложными срабатываниями. Некоторые системы уже интегрируют голосовых помощников, позволяя аналитикам взаимодействовать с SIEM так же естественно, как с коллегой: «Оповести меня, если кто-то из администраторов зайдет в систему в нерабочее время».

Автоматизация рутинных задач: от логов к решениям

Но ИИ-ассистенты — это не только разговорный интерфейс. Их главная ценность в том, что они берут на себя черновую работу, которая раньше съедала до 70% рабочего времени аналитиков:

  • Первичный разбор инцидентов. ИИ автоматически собирает контекст по каждому подозрительному событию: какой пользователь, с какого устройства, в какое время, какие файлы были затронуты. Аналитик получает не голый сигнал тревоги, а готовую карточку инцидента с собранными доказательствами.
  • Генерация отчетов. Вместо того чтобы вручную формировать ежедневные или еженедельные дайджесты, аналитик получает автоматически сгенерированный отчет с графиками, выводами и динамикой изменений.
  • Рекомендации по реагированию. На основе анализа схожих инцидентов ИИ предлагает проверенные сценарии реагирования: какие порты заблокировать, какие учетные записи отключить, какие правила обновить.

Риски и ограничения ИИ в кибербезопасности

Искусственный интеллект прочно обосновался в арсенале защитников, но было бы наивно полагать, что это панацея. Любая технология несет не только возможности, но и риски, а в случае с ИИ эти риски умножаются на его же сложность и непрозрачность. Прежде чем окончательно доверить безопасность алгоритмам, стоит трезво оценить обратную сторону медали.

Любая технология несет не только возможности, но и риски

Технические ограничения: когда ИИ ошибается

  • Ошибки и «галлюцинации» ИИ. Самая известная проблема больших языковых моделей — их склонность к «галлюцинациям», то есть генерации убедительных, но неверных ответов. В контексте кибербезопасности это может обернуться пропущенными угрозами или ложными тревогами, которые парализуют работу центра мониторинга. Но есть и более специфические уязвимости. Например, многопользовательская архитектура, на которой строятся многие ИИ-сервисы, создает риск утечки контекста между сеансами. Из-за ошибок в управлении сессиями конфиденциальные данные, введенные одним пользователем, теоретически могут стать доступны другому в рамках общей модели . Это не взлом в классическом смысле, а сбой логической изоляции, который традиционные средства защиты не всегда способны отследить.
  • Дефицит данных и атаки на модели. Для обучения ИИ нужны огромные массивы качественных данных. Там, где их не хватает, модель начинает ошибаться. Но проблема глубже: даже если данные есть, они сами могут стать целью атаки. Например, их можно «отравить», внедрив искаженную информацию, нарушающую работу алгоритма.

ИИ кибербезопасность = ИИ кибератаки

ИИ в кибербезопасности — классический пример технологии двойного назначения. Те же алгоритмы, которые защищают инфраструктуру, в руках злоумышленников становятся оружием. По данным МВД РФ, мошенники уже активно используют ИИ для массовых фишинговых атак, генерации дипфейков и создания поддельных писем, имитирующих уведомления от банков и госорганов . ИИ демократизировал киберпреступность: теперь для проведения сложной атаки не нужно быть высококлассным программистом — достаточно уметь грамотно формулировать запросы к нейросети.

ИИ демократизировал киберпреступность: теперь для проведения сложной атаки не нужно быть высококлассным программистом

Подробней об этом вы можете прочитать в статье «ИИ в кибератаках: что скрывают цифры аналитики 2025 года»

Будущее ИИ в кибербезопасности: прогнозы на 2026–2030 годы

Искусственный интеллект из простого инструмента превращается в самостоятельного игрока как на стороне защиты, так и на стороне атакующих. Следующие пять лет станут временем, когда определятся основные векторы развития целой отрасли. Эксперты сходятся во мнении: нас ждет не просто технологическая эволюция, а фундаментальная трансформация того, как мы понимаем кибербезопасность.

Автономные системы защиты: от помощника к ядру обороны

Главный тренд ближайших лет — переход от ИИ-ассистентов, которые помогают аналитикам, к полностью автономным системам, способным принимать решения без участия человека. Речь идет не просто об автоматизации рутины, а о том, что ИИ становится ядром системы, оркестратором всех процессов защиты.

Уже сегодня встроенные ИИ-агенты способны объяснять природу инцидентов и предлагать шаги реагирования. К 2030 году ситуация изменится кардинально. Как прогнозируют эксперты ГК «Солар», глубокая интеграция SIEM с EDR и средствами сетевой безопасности позволит платформам автоматически отражать сложные многошаговые атаки, превращаясь в единый центр управления обороной.

Развитие мультиагентных систем, где множество ИИ-агентов взаимодействуют между собой, станет ключевым драйвером

Развитие мультиагентных систем, где множество ИИ-агентов взаимодействуют между собой, станет ключевым драйвером. Со стороны защиты это означает появление систем, способных не просто реагировать на инциденты, а самостоятельно выстраивать стратегию обороны.

В перспективе ближайших лет мы увидим формирование целых экосистем, где ИИ-агенты на стороне бизнеса будут взаимодействовать с ИИ-агентами клиентов. Это потребует полной перестройки ИТ-систем и подходов к безопасности.

Геополитика ИИ

Искусственный интеллект стал новой валютой глобального мира, а контроль над ним — вопросом национальной безопасности.

США сохраняют лидерство благодаря частному сектору — компаниям OpenAI, Google DeepMind, Microsoft и Palantir. Пентагон создал специальное подразделение Task Force Lima для разработки генеративного ИИ в армии и программу Replicator. Бюджет на ИИ-технологии вырос с $70 млн в 2018 до $1,8 млрд в 2024 году.

Китай выстраивает собственную экосистему. Крупнейшие ИИ-компании — SenseTime, Megvii, iFlytek — получают господдержку. США ограничивают экспорт передовых чипов в Китай, а Пекин в ответ инвестирует десятки миллиардов долларов в развитие собственной микроэлектроники.

Россия делает ставку на массовость, развивая БПЛА и ИИ для систем радиоэлектронной борьбы. В 2025 году, по предварительным прогнозам Smart Ranking, рынок ИИ вырос до 1,9 трлн руб.

Европейский союз концентрируется на этике и регулировании: в 2024 году принят AI Act — первый в мире закон, устанавливающий юридические стандарты для искусственного интеллекта.

Итоги

По прогнозам зампреда ВТБ Вадима Кулика, развитие автономных систем может привести к появлению «великих комбинаторов» — хакеров, которые займутся масштабным стратегическим планированием ИТ-атак, тогда как роль исполнителей перейдет к ИИ-агентам. Очевидно, на стороне защитников ситуация будет развиваться аналогично: рутинной работой займется ИИ, а специалисты займутся выстраиванием стратегии защиты.

Как отметил Александр Лысенко, эксперт «К2 Кибербезопасность», ключевой вызов ближайших лет — нарушение экономического баланса, потому что атакующей стороне использовать ИИ значительно дешевле, чем тем, кто защищается. Однако принцип нулевого доверия и готовность к распределенным атакам позволяют сохранять баланс, хотя перекос в сторону атакующих существует.

Технологии не заменят людей полностью — наиболее эффективной останется модель «человек в контуре»

Главный вывод, который делают аналитики: в будущем технологии не заменят людей полностью. Наиболее эффективной останется модель «человек в контуре» (human-in-the-loop), где ИИ берет на себя рутину, а человек — стратегические решения и ответственность. Потому что в конечном счете безопасность — это всегда про людей, даже если по ту сторону баррикад тоже ИИ.

Защита данных и информации в блоге Softline:

Информация, представленная на сайте, носит исключительно справочный и ознакомительный характер, не предназначена для личных, семейных, домашних и иных нужд, не связанных с осуществлением предпринимательской деятельности и не ориентирована на потребителей по смыслу Федерального закона от 24.06.2025 № 168-ФЗ.

Теги:

Новости, истории и события
Смотреть все
«Софтлайн Решения» (ГК Softline) получила статус серебряного партнера вендора DATAREON
Новости

«Софтлайн Решения» (ГК Softline) получила статус серебряного партнера вендора DATAREON

16.04.2026

«Инферит Техника» (кластер «СФ Тех» ГК Softline) представила неттоп TechBox CM2821 для офисных задач и медиацентра
Новости

«Инферит Техника» (кластер «СФ Тех» ГК Softline) представила неттоп TechBox CM2821 для офисных задач и медиацентра

16.04.2026

ICL Soft и «Инферит» (кластер «СФ Тех» ГК Softline) займутся развитием корпоративных ИТ‑решений для цифровой трансформации бизнеса
Новости

ICL Soft и «Инферит» (кластер «СФ Тех» ГК Softline) займутся развитием корпоративных ИТ‑решений для цифровой трансформации бизнеса

15.04.2026

ПАО «Софтлайн» опубликует основные финансовые показатели Компании за 1 квартал 2026 года 21 мая 2026 года
Новости

ПАО «Софтлайн» опубликует основные финансовые показатели Компании за 1 квартал 2026 года 21 мая 2026 года

15.04.2026

«Софтлайн Решения» (ГК Softline) и «Росатом» расширяют сотрудничество в области внедрения платформы SCADA-R
Новости

«Софтлайн Решения» (ГК Softline) и «Росатом» расширяют сотрудничество в области внедрения платформы SCADA-R

14.04.2026

SL Soft FabricaONE.AI (акционер – ГК Softline) обновила платформу Citeck: теперь разработать бизнес-приложение можно в чате с ИИ
Новости

SL Soft FabricaONE.AI (акционер – ГК Softline) обновила платформу Citeck: теперь разработать бизнес-приложение можно в чате с ИИ

14.04.2026

Библиотека ПО «Призма данных» на базе машинного обучения вошла в «Инферит ИТМен» в контуре кластера «СФ Тех» ГК Softline
Новости

Библиотека ПО «Призма данных» на базе машинного обучения вошла в «Инферит ИТМен» в контуре кластера «СФ Тех» ГК Softline

13.04.2026

Системный интегратор «Компетенция» и ИТ-вендор «Инферит» (кластер «СФ Тех» ГК Softline) предложат совместное решение по автоматизации бизнеса
Новости

Системный интегратор «Компетенция» и ИТ-вендор «Инферит» (кластер «СФ Тех» ГК Softline) предложат совместное решение по автоматизации бизнеса

09.04.2026

Bell Integrator FabricaONE.AI (акционер – ГК Softline) модернизировала ИТ-инфраструктуру контакт‑центра крупного российского банка
Новости

Bell Integrator FabricaONE.AI (акционер – ГК Softline) модернизировала ИТ-инфраструктуру контакт‑центра крупного российского банка

08.04.2026

Компания Test IT («Девелоника» FabricaONE.AI, акционер – ГК Softline) представила обновление TMS Test IT 5.7 Vela
Новости

Компания Test IT («Девелоника» FabricaONE.AI, акционер – ГК Softline) представила обновление TMS Test IT 5.7 Vela

07.04.2026

Расширена функциональность No-Code создания и оркестрации ИИ-агентов в платформе ROBIN от SL Soft FabricaONE.AI (ГК Softline)
Новости

Расширена функциональность No-Code создания и оркестрации ИИ-агентов в платформе ROBIN от SL Soft FabricaONE.AI (ГК Softline)

07.04.2026

FABRICAONE.AI (акционер – ГК Softline) публикует финансовые результаты за 2025 год, представляет обновленный периметр Группы и  подтверждает намерения проведения IPO
Новости

FABRICAONE.AI (акционер – ГК Softline) публикует финансовые результаты за 2025 год, представляет обновленный периметр Группы и подтверждает намерения проведения IPO

07.04.2026

Оплата по факту потребления и гибкое локальное развертывание: в BillogicPlatform (кластер «СФ Тех» ГК Softline) появились новые функции
Новости

Оплата по факту потребления и гибкое локальное развертывание: в BillogicPlatform (кластер «СФ Тех» ГК Softline) появились новые функции

06.04.2026

SL Soft FabricaONE.AI (ГК Softline) присвоила RS Team статус учебного центра по платформе ROBIN
Новости

SL Soft FabricaONE.AI (ГК Softline) присвоила RS Team статус учебного центра по платформе ROBIN

03.04.2026

«Софтлайн Решения» (ГК Softline) оснастила агроклассы Волгоградской области
Новости

«Софтлайн Решения» (ГК Softline) оснастила агроклассы Волгоградской области

03.04.2026

Академия АйТи FabricaONE.AI (акционер - ГК Softline) и Государственный университет управления договорились о стратегическом сотрудничестве в подготовке кадров для цифровой экономики
Новости

Академия АйТи FabricaONE.AI (акционер - ГК Softline) и Государственный университет управления договорились о стратегическом сотрудничестве в подготовке кадров для цифровой экономики

02.04.2026

«БОСС. Кадровые системы» (входит в ГК Softline) и РЕД СОФТ подтвердили работоспособность HRM-системы «БОСС» на базе РЕД ОС
Новости

«БОСС. Кадровые системы» (входит в ГК Softline) и РЕД СОФТ подтвердили работоспособность HRM-системы «БОСС» на базе РЕД ОС

02.04.2026

Компания RocketData сократила время на мониторинг облачных затрат в 10 раз с помощью решения «Инферит FinOps» (кластер «СФ Тех» ГК Softline)
Новости

Компания RocketData сократила время на мониторинг облачных затрат в 10 раз с помощью решения «Инферит FinOps» (кластер «СФ Тех» ГК Softline)

02.04.2026

Главные ИТ-новости недели 10.04.2026
Блог

Главные ИТ-новости недели 10.04.2026

10.04.2026

Цифровые технологии на производстве: от кибербезопасности до облаков — опыт компаний
Блог

Цифровые технологии на производстве: от кибербезопасности до облаков — опыт компаний

08.04.2026

Первый российский PDF-редактор с ИИ-ассистентом: обзор функций
Блог

Первый российский PDF-редактор с ИИ-ассистентом: обзор функций

06.04.2026

Технические меры защиты информации: виды и способы обеспечения безопасности
Блог

Технические меры защиты информации: виды и способы обеспечения безопасности

03.04.2026

СЭД — что это, как работает и зачем нужна в 2026 году
Блог

СЭД — что это, как работает и зачем нужна в 2026 году

01.04.2026

Кто и как проверяет лицензии на ПО в России в 2026 году
Блог

Кто и как проверяет лицензии на ПО в России в 2026 году

30.03.2026

Главные ИТ-новости недели 20.03.2026
Блог

Главные ИТ-новости недели 20.03.2026

20.03.2026

Российское инженерное ПО: от импортозамещения к цифровой трансформации — опыт компаний
Блог

Российское инженерное ПО: от импортозамещения к цифровой трансформации — опыт компаний

18.03.2026

ИИ для кибербезопасности: как искусственный интеллект меняет защиту данных в 2026 году
Блог

ИИ для кибербезопасности: как искусственный интеллект меняет защиту данных в 2026 году

17.03.2026

Корпоративные системы управления в 2026 году
Блог

Корпоративные системы управления в 2026 году

16.03.2026

ИИ в кибератаках: что скрывают цифры аналитики 2025 года
Блог

ИИ в кибератаках: что скрывают цифры аналитики 2025 года

11.03.2026

Главные ИТ-новости недели: 06.03.2026
Блог

Главные ИТ-новости недели: 06.03.2026

06.03.2026

Цифровизация ритейла: тренды 2026
Блог

Цифровизация ритейла: тренды 2026

04.03.2026

Главные ИТ-новости недели: 27.02.2026
Блог

Главные ИТ-новости недели: 27.02.2026

27.02.2026

Будущее 3D-печати: голографические технологии
Блог

Будущее 3D-печати: голографические технологии

26.02.2026

CRM-система: что это, зачем нужна бизнесу и как ее внедрять
Блог

CRM-система: что это, зачем нужна бизнесу и как ее внедрять

20.02.2026

БПЛА в 2026 году: полная классификация, типы дронов и сферы применения
Блог

БПЛА в 2026 году: полная классификация, типы дронов и сферы применения

13.02.2026

Эволюция корпоративного тестирования: как современные платформы обеспечивают прозрачность, ИИ и бесшовные интеграции
Блог

Эволюция корпоративного тестирования: как современные платформы обеспечивают прозрачность, ИИ и бесшовные интеграции

04.02.2026