itWeek https://www.itweek.ru Издание itWeek (до 2018 года — PC Week) на портале и на страницах бумажного номера информирует читателей об актуальных информационных и коммуникационных технологиях, продуктах и решениях и опыте развития цифровой экономики и цифровой трансформации предприятий и организаций всех масштабов и отраслей. Издание рассказывает о важнейших событиях отечественного и мирового рынка ИКТ и анализирует тенденции развития ИКТ-индустрии. https://www.itweek.ru/images/itweek/logo-100x40.gif itWeek https://www.itweek.ru ИИ как инструмент операционной эффективности в логистике. Опыт “Лемана ПРО” https://www.itweek.ru/themes/detail.php?ID=234566 Wed, 01 Apr 2026 15:27:42 +0300 <p><em>В логистике всегда требовались точность и скорость. Но если раньше на принятие решения о перераспределении товаров между складами уходили дни, то сегодня алгоритмы делают это за секунды, учитывая десятки факторов ― от погоды до загруженности транспорта.</em></p> <p><em>В статье расскажу о том, как в</em><em> «Лемана ПРО» искусственный интеллект из теоретической концепции превратился в ежедневный рабочий инструмент</em><em>.</em></p> <h3>От «заказчик — исполнитель» к «партнер — партнер»</h3> <p>Цифровые технологии меняют не только то, как мы работаем, но и то, как мы строим отношения с партнерами. Классическая бизнес-модель «заказчик — исполнитель» постепенно уходит в прошлое: сегодня мы переходим к модели «партнер — партнер», когда каждая сторона может предоставлять услуги друг другу — как результат, сотрудничество становится крепче и выгоднее для всех.</p> <p>Такой подход открывает новые возможности для бизнеса. Например, мы уже оказываем услугу ответственного хранения на свободных площадях — это позволяет использовать ресурсы эффективнее и помогать партнерам решать их задачи. Цифровые платформы делают такое сотрудничество простым и прозрачным и не превращают его в бюрократический квест с десятком согласований.</p> <h3>Не все измеряется снижением финансовых затрат</h3> <p>Когда речь заходит об автоматизации, первый вопрос обычно звучит так: «Сколько мы сэкономим?» Но если оценивать цифровизацию только через призму снижения затрат, то можно упустить половину картины. Автоматизация — это не волшебная таблетка от всех бед, а инструмент для достижения операционных и стратегических целей.</p> <p>Наша главная задача — сделать так, чтобы клиенты хотели к нам возвращаться, а уровень сервиса полностью соответствовал их ожиданиям. Поэтому мы смотрим на комплексную систему показателей ― от низкоуровневых логистических метрик до финансовых результатов вроде дополнительной выручки или операционной рентабельности.</p> <p>Все KPI можно поделить на несколько категорий.</p> <ol> <li> Снижение операционных затрат, чтобы перекрыть рост инфляции. Здесь мы отслеживаем продуктивность операций, стоимость обработки единицы товара, утилизацию транспортных средств.</li> <li> Улучшение уровня сервиса для клиента: своевременность и полнота исполнения заказов, удовлетворенность клиента.</li> <li> Дополнительный доход от партнеров за счет использования наших логистических услуг.</li> </ol> <p>Иногда мы автоматизируем процессы просто для того, чтобы собрать данные для последующего анализа. Как крупной компании, нам важно понимать, как работает каждый участок процессов: без этого невозможно принимать взвешенные решения о том, куда двигаться дальше.</p> <h3>Что ИИ уже умеет и чему еще научится</h3> <p>Мы активно используем модели машинного обучения, которые помогают минимизировать операции контроля товаров на разных этапах. Вместо того чтобы проверять все подряд, система выявляет только те операции, в которых, вероятнее всего, содержатся расхождения. Яркий пример — «умный» контроль сборок в магазинах. До внедрения модели в 2025 году ошибки фиксировались в 1,8% сборок, при этом проверяли 100% операций. После запуска <nobr>ML-модели</nobr> стали проверять только 60%: алгоритм направляет на контроль только те сборки, где риск расхождений повышен. Контроль стал точечным и эффективным: среди отобранных моделью сборок расхождения составляют 3,4%. Для дополнительной проверки качества применяем встречный контроль доверительных сборок — таким образом, мы можем контролировать качество алгоритма и автоматически переобучать модель. Финансовый эффект по итогам 2025 года составил более 80 млн. рублей, а продуктивность операции контроля выросла почти в 2 раза. У нас уже внедрено более пяти таких моделей, и они позволяют сокращать затраты, не снижая при этом качество обслуживания клиента.</p> <p>Прогнозные модели также помогают нам рассчитать необходимое количество персонала на логистических объектах. Они учитывают прогнозируемый объем работ, производительность сотрудников и множество других факторов. Так мы интегрируем в рабочие процессы ровно столько людей, сколько действительно необходимо для поддержания высокого уровня сервиса.</p> <p>С помощью машинного обучения мы перешли от реактивного к предиктивному подходу в управлении запасами. Наши модели Demand Planning прогнозируют спрос на каждый артикул на уровне дня и магазина с высокой точностью — до 180 дней вперед. Мы оцениваем влияние прогноза на упущенный товарооборот. Если в 2024 году мы теряли до 2% товарооборота из-за ошибки прогнозирования, то в 2025 году улучшили показатель до 1,5%, а сегодня достигли планки в 1%. Даже небольшое улучшение качества прогнозирования значительно увеличивает товарооборот компании. Это позволяет поддерживать запасы на оптимальном уровне и гарантировать наличие товара для клиентов. Мы планируем расширять эти модели на долгосрочное планирование — это даст возможность прогнозировать спрос клиентов, формировать прогнозы заказов поставщикам и запасов по всем объектам сети.</p> <p>В недалеком будущем ИИ-системы будут управлять резервными запасами в магазинах в реальном времени и предсказывать задержки поставок. Это снизит объем замороженного капитала и повысит надежность цепи поставок.</p> <h3>Прорывы будущего</h3> <p>Если говорить о будущих прорывах, то один из самых интригующих сценариев — генеративный ИИ и автоматизация принятия решений. Уже сейчас генеративный ИИ используется не только для чат-ботов, но и в логистике. В перспективе мы можем прийти к модели, в которой не человек принимает решение, а ИИ: он симулирует сценарии, реагирует на события, автономно принимает решения и отдает команды в рабочие системы для оптимизации процессов.</p> <p>Другое направление — полностью автоматизированные склады и цепочки с роботами и ИИ. Хотя роботы и автоматизация применяются уже сегодня, они еще не везде интегрированы с ИИ-агентами. В будущем же это может быть система, при которой роботы, транспорт и склады работают как единый живой организм: ИИ не только управляет роботами, но и координирует транспортировку, складирование, упаковку и последнюю милю доставки.</p> <p>Внедрение таких комплексных решений становится особенно актуальным в условиях острого дефицита линейного персонала на складах и линиях доставки. Там, где раньше нехватка людей могла парализовать работу, автономные системы помогают операциям не просто функционировать, а выживать, сохраняя темп и качество обслуживания клиентов вопреки кадровому голоду.</p> <h3>Цифровые двойники</h3> <p>Когда мы слышим про цифровых двойников, первое, что приходит в голову, — это авиация или космическая промышленность: авиакомпании моделируют поведение двигателей, чтобы предсказывать поломки, а космические агентства тестируют на цифровых копиях спутников и станций решения для неполадок на орбите.</p> <p>Но технология Digital Twin прекрасно работает и в логистике, особенно для задач моделирования автоматизации. Это вполне рабочий инструмент, который помогает принимать решения о значимых инвестициях. Перед стартом проекта по внедрению более 50 роботов на одном складе «Лемана ПРО» проводится детальное имитационное моделирование процесса. Это позволяет проверить все гипотезы, учесть нюансы графика товародвижения, особенности товаров и грузов — и в итоге избежать финансовых потерь.</p> <h3>Зеленая логистика</h3> <p>Цифровые технологии реально помогают сокращать углеродный след. Мы внедряем геооффер: предлагаем клиенту ассортимент с учетом его месторасположения, что обеспечивает сток в близости к клиенту и оптимизирует среднюю медиану доставки. Проще говоря, товар едет не через всю страну, а с ближайшего склада.</p> <p>Кроме этого, применяем модели машинного обучения для снижения объемов лишних операций, холостых пробегов автотранспорта, прогнозирования спроса, моделирования маршрутов и оптимизации складских запасов.</p> <p>Также развиваем собственную электронную B2B-площадку для взаимодействия с партнерами, роботизируем склады — применяем автоматизированные транспортные средства, конвейеры, сортировочные системы. И в конце концов внедряем онлайн-отчетность с доступом к информации в реальном времени. Все это не только снижает выбросы, но и экономит бюджет.</p> <h3>Защита самого слабого звена</h3> <p>С ростом цифровизации логистические цепочки становятся значительно более уязвимыми для кибератак. Как говорят, система защищена настолько, насколько защищено самое слабое ее звено. Если не обеспечить безопасность каждого элемента, то в случае кибератаки будет парализована вся цепочка.</p> <p>Сегодня цифровизация в логистике — это системы управления складом (WMS), GPS-трекинг, автоматизированное управление автопарком, электронный документооборот (EDI), роботы и автоматизация склада. Цифровизация каждого элемента расширяет поверхность атаки для злоумышленников.</p> <p>Вот основные меры киберзащиты, которые мы применяем.</p> <ol> <li> Проверка уровня безопасности поставщиков. Оценка зрелости информационной безопасности каждого элемента в цепочке позволяет выявлять риски на ранних этапах и управлять ими.</li> <li> Регулярное тестирование на проникновение и аудит. Практические проверки показывают не только соответствие стандартам, но и комбинированные векторы атак, которые могли быть использованы злоумышленниками.</li> <li> Логирование данных по событиям в системе и мониторинг кибератак — базовое требование для всех видов ИТ-систем.</li> </ol> <h3>Кадры решают все</h3> <p>Где брать специалистов, которые находятся на стыке логистики, data science и технологий? Для нас ответ очевиден: взращивать внутри компании. Причем искать экспертизу не только со стороны традиционного ИТ в лице кросс-функциональных команд, разрабатывающих data-продукты, но и среди операционных команд.</p> <p>Мы ищем сотрудников, проявляющих открытость ко всему новому, с профильным или смежным образованием, подразумевающим наличие навыков работы с данными, аналитики и построения причинно-следственных связей, а также с опытом работы в логистике. Опытных data-science-специалистов мы также взращиваем внутри компании, развивая не только их инженерные навыки, но и понимание работы прикладных бизнес-процессов через погружение в работу логистических объектов: магазинов, дарксторов, федеральных распределительных центров.</p> <p>Что касается обучения, мы за последовательное развитие с погружением в бизнес и поддержкой в формате «делай как я, делай со мной, делай лучше меня». Для начинающих специалистов используем практику подбора менторов и наставников — людей, которые познакомят с процессами и инструментами, расскажут о стандартах и лучших практиках разработки. В среднем обучение и погружение для выхода на полноценную самостоятельность занимает <nobr>1-4</nobr> месяца в зависимости от сложности продукта и компетенций специалиста. Мы внимательно и тщательно выявляем потенциальных специалистов-стажеров, и в комбинации с правильным сопровождением это приводит к высокому проценту успешного прохождения пути развития — более 90%.</p> <p>Для более опытных коллег ставим годовые и полугодовые цели с учетом потребностей бизнеса и выбранного карьерного трека. Для сотрудников с большим опытом есть возможность выйти за границы своей зоны ответственности — например, развиваться по нескольким направлениям или стать экспертом, помогая своей экспертизой нескольким продуктовым командам.</p> <p>Искусственный интеллект в логистике, как и в любой другой отрасли, помогает превратить хаос миллионов операций в четкую и слаженную систему. При этом компаниям важно помнить, что технологии работают не вместо людей, а вместе с ними. Когда алгоритм освобождает человека от рутины, у сотрудников появляется время на то, что машина пока не умеет: думать стратегически и креативно, искать нестандартные решения и усиливать сотрудничество с партнерами. А это, согласитесь, куда интереснее, чем пересчитывать коробки на складе.</p> <p>#IMAGE_234567#</p> В логистике всегда требовались точность и скорость. Но если раньше на принятие решения … article Михаил Гариянц, директор ИТ-продукта по управлению цепями поставок “Лемана ПРО” Аналитика без последствий: почему инсайты не меняют поведение бизнеса https://www.itweek.ru/themes/detail.php?ID=234564 Wed, 01 Apr 2026 10:05:40 +0300 <p>Есть парадокс, который наблюдается во всех компаниях, достигших определенного уровня data-зрелости. С одной стороны, растут инвестиции в аналитику, улучшается качество данных, а дашборды становятся красивее. При этом доля решений, которые реально опираются на аналитические сигналы, не увеличивается. Компании не смотрят на выводы, прошедшие путь от сырых данных до интерпретации, и указывающие на конкретное основание для действия. Наоборот, качество работы с аналитикой зачастую даже падает: чем больше данных, тем сложнее извлечь из них конкретные действия — приходится тратить еще больше времени на поиск решения.</p> <p>Это не проблема качества аналитики. Это и есть есть last mile problem — разрыв между моментом, когда инсайт сгенерирован, и моментом, когда он превращается в решение.</p> <p>Последняя миля в аналитике — это не про данные и даже не про модели. Это про перевод инсайта в действие. Для этого нужно структурно менять подход к аналитике и вводить отдельные метрики в команду. И именно здесь возникает разрыв: данные становятся всё лучше, но решения не принимаются быстрее, потому что организация не умеет превращать выводы в конкретные шаги.</p> <h3>Где именно теряется инсайт</h3> <p>Если посмотреть на путь аналитического сигнала от источника до решения как на конверсионную воронку, становится видно, что потери происходят на трех принципиально разных уровнях. Каждый уровень требует отдельного решения.</p> <p>Первый уровень — сигнал не доходит. Инсайт технически существует, но до нужного человека не добирается в нужное время в необходимом формате. Он может теряться в отчетах, быть не в том формате или же попасть не к тому человеку. Или, например, быть проблемой архитектуры: когда модельные метрики не связаны с бизнес-результатами, аналитика генерирует сигналы, которые технически точны, но операционно нерелевантны для тех, кто принимает решения.</p> <p>Второй уровень — сигнал не понимают. Сигнал дошел, но decision-maker (лицо, принимающее решение) не может или не хочет его интерпретировать как основание для действия.</p> <p><em>Здесь работают три отдельных механизма:</em></p> <ul> <li> <em>когнитивный барьер (инсайт требует технической экспертизы, которой нет);</em></li> <li> <em>контекстуальный барьер (данные есть, но нарратив, связывающий их с текущим решением, отсутствует);</em></li> <li> <em>барьер доверия (методология или источник данных вызывает сомнения, поэтому инсайт отклоняется еще до того, как его рассмотрят).</em></li> </ul> <p>Даже технически безупречный инсайт не работает, если нет доверия к данным и к тому, как они получены.</p> <p>Третий уровень — сигнал понимают, но не действуют. Это самый болезненный случай, потому что здесь инсайт понят и принят, но не конвертируется в решение.</p> <p>Нет владельца, нет дедлайна, нет механизма эскалации. Инсайт уходит в категорию «учтем» и растворяется в бэклоге, пока не устареет настолько, что перестанет быть релевантным. Именно на этом уровне ломается большинство data-driven организаций: они научились производить качественные сигналы, но не спроектировали организационную инфраструктуру для их конверсии в действия.</p> <h3>Почему стандартные решения не работают</h3> <p>Типичная реакция на last mile problem — улучшить коммуникацию аналитиков, провести data-тренинги, сделать дашборды понятнее. Все это адресует второй уровень и частично первый, но полностью игнорирует третий — и именно поэтому эффект оказывается временным или незаметным.</p> <p>Корень проблемы в том, что аналитика в компании устроена как фабрика инсайтов, а не как система принятия решений. Это принципиально разные архитектуры. Производство инсайтов оптимизирует покрытие метриками, качество данных, скорость обновления дашбордов. Система поддержки решений оптимизирует конверсию сигнала в действие — и для этого требует явных точек принятия решений, закрепленной ответственности, временных окон и механизмов эскалации для time-sensitive инсайтов.</p> <p>Это как строить идеальный онбординг без единого момента, где пользователь должен совершить конкретное действие — можно сделать всё правильно, но активации не будет.</p> <h3>Что реально меняет ситуацию</h3> <p>Практика, которая системно работает — переход от модели «аналитика производит, бизнес потребляет» к модели, где аналитический цикл структурно интегрирован в процесс принятия решений. Это означает несколько конкретных изменений в том, как организована работа.</p> <ol> <li> Инсайт должен приходить не с выводами, а с вопросом о решении: не «вот, что происходит», а «на основе этих данных необходимо принять решение X или Y — кто владелец и в какой срок». Это изменение формата взаимодействия, которое переносит ответственность за конверсию с аналитика на организационный процесс.</li> <li> Необходимы точки обязательного решения. Не «посмотрим на данные на следующей встрече», а конкретный момент в процессе, где команда обязана зафиксировать позицию на основе аналитики. Без этого инсайт всегда будет проигрывать интуиции и политике — просто потому что у них есть инерция и авторитет, а у данных нет.</li> <li> Наконец, эффективность аналитической функции нужно измерять через конверсию: какая доля аналитических инсайтов за период привела к решению в срок за последний месяц/год. Это неудобная метрика именно потому, что она честная — она показывает, где в организации инсайты умирают, и делает проблему последней мили видимой и управляемой.</li> </ol> <p>Микро-кейс. В продуктовой команде, с которой я работала, ввели простое правило: каждый еженедельный аналитический срез заканчивается не выводами, а решением. Даже если решение «мы осознанно не действуем, потому что X». Это изменило динамику полностью. Аналитики перестали готовить отчеты в вакуум. Продакты перестали кивать, не думая. За два квартала доля инсайтов, которые приводили к изменению продукта или процесса, выросла втрое.</p> <h3>В итоге</h3> <p>Last mile problem в аналитике — это не вопрос качества данных и не вопрос культуры в абстрактном смысле. Это структурная проблема, заключающаяся в том, как организация спроектировала путь от сигнала до действия. Данные не меняют поведение сами по себе — это делают решения, принятые на их основе.</p> <p> #IMAGE_234565#</p> Есть парадокс, который наблюдается во всех компаниях, достигших определенного уровня data-зрелости. С одной стороны … article Юлия Алексеева, CPO Insight AI Вайб-кодинг: скорость без безопасности — это большой риск https://www.itweek.ru/themes/detail.php?ID=234563 Wed, 01 Apr 2026 09:42:21 +0300 <p><em>Вайб-кодинг, использующий промпты на естественном языке и агентов искусственного интеллекта для генерации ПО, ускоряет разработку, но опережает возможности обеспечения безопасности кода, пишет на портале </em><em>InformationWeek</em><em> Сарит Тагер, вице-президент Palo Alto Networks по управлению продуктами.</em></p> <p>Разработка ПО претерпевает фундаментальный сдвиг в сторону так называемого «вайб-кодинга», когда разработчики отказываются от детального, ручного процесса написания кода и вместо этого используют промпты на естественном языке для описания желаемого результата.</p> <p>Они задают «вайбы», а агенты ИИ генерируют исполняемый код.</p> <p>Для организаций или команд, которым необходимо работать быстро, возможность запрашивать создание функции невероятно привлекательна. Однако, согласно исследовательскому отчету «The State of Cloud Security Report 2025», подготовленному Wakefield Research по заказу Palo Alto Networks, этот всплеск разработки с использованием ИИ создает огромную проблему в плане безопасности. Хотя компании выпускают код быстрее, чем когда-либо, они также ускоряют накопление технического долга и критических пробелов в безопасности.</p> <h3>Парадокс производительности</h3> <p>Отчет выявляет серьезный разрыв в том, как сегодня создается ПО. Хотя помощь ИИ позволила 53% из 2800 опрошенных ИТ-специалистов доставлять код еженедельно или быстрее, процессы обеспечения безопасности не успевают за этой новой скоростью. Фактически, только 18% организаций сообщают о возможности устранять уязвимости безопасности с такой скоростью. По сути, мы движемся быстрее, чем можем защитить себя.</p> <p>Вайб-кодинг значительно упрощает создание сложного ПО, но это часто достигается за счет понимания. Когда разработчик полагается на ИИ для генерации кода, он может внедрять логику, которую он лично не проверял. Если вы не полностью понимаете, как работает код, невозможно нести истинную ответственность за его безопасность, и это усложняет устранение проблем в будущем. Отсутствие контроля уже негативно сказывается на качестве кода, приводя к созданию более громоздкого и менее эффективного ПО.</p> <h3>ИИ: новая основная поверхность атаки</h3> <p>Риски непроверенных ИИ-результатов теперь стали реальностью. В отчете говорится, что 99% организаций сталкивались с атаками на системы ИИ за последний год. Предоставляя агентам ИИ возможность писать код, мы одновременно расширяем поверхность атаки тремя критически важными способами:</p> <ol> <li><strong> Рост числа API.</strong> Поскольку агенты ИИ в значительной степени полагаются на API для подключения и выполнения задач, число атак на API выросло на 41%. Вайб-кодинг часто создает «теневые API» с установленными ИИ соединениями, о существовании которых разработчик может даже не подозревать.</li> <li><strong> Инъекция промптов и автономность.</strong> Предоставление агенту ИИ возможности самостоятельно редактировать файлы или загружать программные библиотеки — это огромный риск для безопасности. Если злоумышленник обманет ИИ с помощью вредоносного промпта, эта независимость обернется против ИИ, и он сам фактически станет инструментом для хакера, позволяющим ему перемещаться по вашим системам.</li> <li><strong> Цепочка поставок ИИ.</strong> Сгенерированный ИИ код часто опирается на Open Source-библиотеки. Если эти зависимости не проходят тщательную проверку, организации рискуют получить в наследство устаревшие или вредоносные пакеты. Что еще опаснее, ИИ может галлюцинировать, порождая несуществующие имена пакетов. Злоумышленники теперь практикуют «слоупсквоттинг» («slopsquatting»), то есть регистрацию этих вымышленных имен в общедоступных репозиториях, чтобы гарантировать, что их вредоносный код будет использован ничего не подозревающими агентами ИИ.</li> <li><strong> Раскрытая интеллектуальная собственность.</strong> Вайб-кодинг часто включает в себя отправку собственной логики сторонним моделям. Без защищенной платформы самая ценная интеллектуальная собственность вашей компании фактически переходит в общественное достояние, где ее можно использовать для обучения будущих моделей.</li> </ol> <h3>От кодера к «лидеру ИИ-команды»</h3> <p>Чтобы выжить в эпоху вайб-кодинга, роль старшего инженера должна эволюционировать. Мы наблюдаем рост роли лидера ИИ-команды. В этой модели ценность инженера смещается от объема кода, который он лично пишет, к стратегическому надзору за всей экосистемой агентов ИИ. Речь идет не о том, чтобы люди вручную проверяли каждую строку кода, сгенерированного ИИ, а о развертывании агентов безопасности для наблюдения за кодирующими агентами.</p> <p>В этой модели безопасности «агент-агент» лидер-человек устанавливает ограничения и общие цели, в то время как автономные агенты безопасности выполняют основную работу. Это включает в себя проверку в реальном времени, автоматическое устранение неполадок и контекстное управление.</p> <h3>Путь к инженерии доверия</h3> <p>Среди специалистов по безопасности существует консенсус: вайб-кодинга недостаточно. Согласно отчету, 97% организаций отдают приоритет консолидации своей облачной инфраструктуры безопасности, чтобы устранить пробелы, созданные фрагментированными инструментами.</p> <p>Скорость без безопасности опасна. Чтобы раскрыть истинный потенциал производительности, обеспечиваемой ИИ, предприятиям необходимо выйти за рамки вайб-кодинга и перейти к инженерии доверия. Это означает:</p> <ul> <li><strong> Введение обязательного тщательного сканирования:</strong> код, сгенерированный ИИ, должен проверяться с той же (или большей) тщательностью, что и код, написанный человеком.</li> <li><strong> Консолидация платформ:</strong> переход от множества различных инструментов безопасности к единой платформе «код-облако».</li> <li><strong> Определение ответственности:</strong> обеспечение того, чтобы за целостность каждой строки кода, написанной или вайб-сгенерированной, отвечал человек.</li> </ul> <p>Будущее облачных технологий создается ИИ, но управлять им должны люди. Если мы продолжим отдавать приоритет «вайбингу» для быстрых инноваций, а не реальности безопасной разработки, мы будем не просто создавать приложения; мы будем создавать уязвимости безопасности.</p> Вайб-кодинг, использующий промпты на естественном языке и агентов искусственного интеллекта для генерации ПО … article TROK 1.2 автоматизирует создание ВМ с помощью снапшотов https://www.itweek.ru/themes/detail.php?ID=234561 Tue, 31 Mar 2026 16:46:38 +0300 <p>«Группа Астра» продолжает развивать систему программно-определяемого хранения данных TROK в соответствии с потребностями заказчиков. Разработка позволяет организовать отказоустойчивый и масштабируемый пул хранения на базе стандартных серверов, обеспечивая высокую производительность и надежность для корпоративных инфраструктур и виртуальных сред. В новой версии продукта команда реализовала функцию поддержки моментальных снимков (снапшотов) блочных устройств на уровне программно-определяемой системы хранения данных.</p> <p>Необходимость такого подхода продиктована реальными вызовами, с которыми сталкиваются администраторы. Из-за отсутствия поддержки снапшотов на стороне СХД процесс резервного копирования становится трудоемким, требует дополнительных настроек и ручных операций. В частности, создание «золотых образов» и их клонирование для быстрого развертывания новых ВМ приходится выполнять либо средствами самой виртуализации, либо вручную. Это многократно увеличивает время развертывания инфраструктуры. </p> <p>В TROK 1.2 поддержка снапшотов позволяет создавать моментальные снимки данных на блочном уровне без доступа к гостевой ОС виртуальной машины, а также реализовывать сценарии быстрого клонирования, предоставляя системам виртуализации возможность напрямую работать с образами дисков на уровне СХД.</p> <p>Благодаря использованию «золотых образов» администратору достаточно один раз настроить эталонную виртуальную машину — установить необходимые обновления, репозитории, выбрать версию операционной системы, например Astra Linux. После этого система SDS TROK создает снапшот этого эталонного состояния диска. Когда возникает потребность в развёртывании новой виртуальной машины, система виртуализации автоматически клонирует сохранённый образ, подставляет новые IP-адреса и другие сетевые параметры, и виртуальная машина оказывается полностью готовой к работе. </p> <p>При этом, делать моментальные снимки блочных устройств можно как для <nobr>LVM-thin,</nobr> так и для обычных <nobr>LVM-томов.</nobr> Это критически важно для баз данных и приложений, создающих интенсивную нагрузку на дисковую подсистему — там, где выбор напрямую влияет на производительность. Благодаря поддержке обоих типов томов снапшоты можно использовать даже для самых требовательных нагрузок (1С, Tantor, почтовые системы и др.), что гарантирует бесперебойную работу.</p> <p>«Мы строим дорожную карту продукта, исходя из реальных запросов рынка. В этом релизе мы добавили функциональность, критически важную для систем виртуализации. Развитие продукта будет продолжаться: в следующей версии TROK 2.0 появится объектное хранилище S3 — одна из самых востребованных технологий среди наших заказчиков», — прокомментировал Антон Ботвинников, директор SDS TROK.</p> «Группа Астра» продолжает развивать систему программно-определяемого хранения данных TROK в соответствии … message Ippon представил натриевые ИБП нового поколения https://www.itweek.ru/themes/detail.php?ID=234559 Tue, 31 Mar 2026 16:41:01 +0300 <p>Производитель оборудования для защиты электроснабжения Ippon представил обновленную линейку источников бесперебойного питания Na+ на натрий-ионных аккумуляторных батареях. В новое поколение вошли серии Na+ II TAE, Na+ II TA и Na+ II RTA. Устройства ориентированы на более длительное резервирование питания и предназначены для защиты оборудования, чувствительного к качеству электропитания, — от персональных компьютеров и графических станций до серверов, сетевой инфраструктуры, систем NAS, лабораторных приборов и стоечного оборудования.</p> <p>Обновление охватывает сразу несколько классов однофазных ИБП с двойным преобразованием входного напряжения. В зависимости от серии решения доступны в диапазоне мощностей от 1000 до 10000 ВА. Линейка рассчитана как на офисные и локальные ИТ-сценарии, так и на задачи, связанные с обеспечением непрерывной работы серверных, периферийных ЦОД, телеком-инфраструктуры, систем связи, безопасности, банкоматов и кассовых терминалов.</p> <p>Ключевое отличие серии Na+ — применение натрий-ионных аккумуляторных батарей. По сравнению со свинцово-кислотными аналогами они обеспечивают более высокую скорость зарядки, больший ресурс циклов заряда-разряда, расширенный температурный диапазон эксплуатации и хранение без необходимости регулярной подзарядки на складе. Кроме того, натрий-ионная технология не предполагает использования тяжелых металлов, что делает устройства безопасными в работе и обслуживании.</p> <p>По сравнению с первым поколением Na+ устройства линейки Na+ II получили существенно увеличенное время автономной работы. Этого удалось добиться за счет перехода на более производительные аккумуляторные батареи с напряжением 6,4 В вместо 4,8 В в устройствах первого поколения. Одновременно вырос и ресурс самих батарей: новые аккумуляторы рассчитаны на 3000 циклов заряда-разряда против 2000 у ИБП первого поколения.</p> <p>Серия Na+ II TAE включает модели мощностью 1000, 2000 и 3000 ВА. Эти ИБП предназначены для защиты персональных компьютеров, графических станций, мощных серверов, периферийной вычислительной техники, сетевого оборудования и лабораторных приборов. В обновленной версии увеличено время автономной работы, а среди функциональных особенностей — чистая синусоида на выходе, коэффициент мощности 1,0, широкий диапазон входного напряжения, автоматический байпас, ЖК-экран с подсветкой, а также возможность удаленного мониторинга и управления.</p> <p>Серия Na+ II TA представлена моделями мощностью 6000 и 10000 ВА и рассчитана на более требовательные сценарии эксплуатации. Такие устройства обеспечивают двойное преобразование входного напряжения, увеличенное время резервирования, высокий коэффициент мощности, поддержку холодного старта, а также защиту от короткого замыкания, перегрузки и высоковольтных выбросов. В серии предусмотрены ЖК-экран, режим ECO, аварийное отключение EPO, интерфейсы для мониторинга и интеллектуальный слот для расширения функциональности.</p> <p>Серия Na+ II RTA объединяет модели мощностью от 1000 до 10000 ВА и ориентирована на инфраструктурные и стоечные сценарии. Эти ИБП подходят для локальных периферийных ЦОД и серверных, телекоммуникационного оборудования, систем безопасности и других критичных нагрузок. Для серии предусмотрены синусоидальная форма выходного напряжения, нулевое время переключения на батареи при исчезновении напряжения во внешней сети, поворотный ЖК-экран, интерфейсы USB и RS-232, интеллектуальный слот для SNMP-карт или сухих контактов, а также возможность установки в <nobr>19-дюймовую</nobr> стойку и подключения дополнительных батарейных модулей для увеличения времени автономной работы.</p> <p>Впервые запущенные брендом в 2025 году ИБП Na+ стали первыми устройствами в России на базе натрий-ионных технологий. Линейка была отмечена премией «Бренд года в России 2025». </p> Производитель оборудования для защиты электроснабжения Ippon представил обновленную линейку источников бесперебойного … message Selectel запустил катастрофоустойчивый регион в собственной облачной платформе https://www.itweek.ru/themes/detail.php?ID=234558 Tue, 31 Mar 2026 16:39:36 +0300 <p>Selectel сообщил о запуске геораспределенного (Multi-AZ) региона. Обновление расширит возможности собственной облачной платформы компании и подойдет enterprise-клиентам с крупными digital-проектами и сложными корпоративными системами, которые работают на базе высокопроизводительной IT-инфраструктуры и напрямую влияют на непрерывность бизнес-процессов.</p> <p>Новый регион будет работать на базе трех независимых зон доступности, расположенных в Москве на расстоянии до 15 км между ЦОД. Связность площадок обеспечивается единой высокоскоростной сетью с низким временем отклика (менее 1 мс) для выполнения любых бизнес-задач. </p> <p>Раньше распределение нагрузки между зонами доступности требовало ручного конфигурирования. Теперь катастрофоустойчивость сетевых и PaaS-сервисов доступна «из коробки» — без дополнительных настроек. В новых типах геораспределенных кластеров мастер-ноды Managed Kubernetes и ноды облачных баз данных автоматически размещаются в разных зонах доступности. Аналогично устроено и распределенное резервное копирование.</p> <p>Такая архитектура нового региона гарантирует работоспособность клиентских приложений в случае выхода из строя целой зоны доступности. При возникновении инцидента восстановление сервисов произойдет с минимальной задержкой (от нескольких минут) на базе другого исправного ЦОД в этом регионе. Новое решение дает возможность клиентам получить доступ к «катастрофоустойчивости как сервису» — то есть нивелировать риски, связанные с функционированием ЦОД, без необходимости самостоятельно настраивать DR-сервисы (сервисы аварийного восстановления). Такой подход по крайней мере в 2 раза дешевле классического сценария настройки аварийного восстановления. При этом сохраняется возможность выбора, где именно разместить критичные сетевые компоненты с учетом требований к RTO (целевое время восстановления) и RPO (целевая точка восстановления). </p> <p>Инфраструктура в новом регионе ru-6 уже доступна по предзаказу на сайте. </p> <p>«Новый геораспределенный регион — это логичный шаг в развитии нашей облачной платформы. Selectel строит одни из самых надежных и эффективных дата-центров в стране, но в современных реалиях для enterprise-бизнеса надежности на уровне одного ЦОД недостаточно. Поэтому такие компании размещают свои критичные информационные системы сразу в нескольких дата-центрах, а иногда и у нескольких провайдеров. Наше новое решение дает возможность построения таких систем внутри нашей облачной панели, что называется „из коробки“ и с очень низкой сетевой задержкой между зонами. Здесь сразу доступны PaaS-сервисы: Managed Kubernetes, облачные базы данных, S3 хранилище и другие», — отметил Константин Ансимов, директор по продуктам Selectel.</p> <p>В основе нового региона высокопроизводительная архитектура облака: увеличенные лимиты произвольных конфигураций, выделенные ядра и возможность управлять топологией процессора. Регион построен на современном оборудовании (в том числе на базе собственной серверной платформы Selectel) с процессорами AMD EPYC 9754 и Intel Xeon 6747P, сверхбыстрыми сетевыми дисками с производительностью 75 000 IOPS (скорость чтения или записи) без привязки к размеру диска, а также новейших GPU для запуска и работы с AI-проектами — H200, RTX PRO 6000 Blackwell Server Edition. </p> <p>В будущем решение будет дополнено геораспределенным хранилищем S3 с высокоскоростным подключением к кластерам облачных серверов для комфортной работы с AI-проектами. Также появится ускоренное файловое хранилище для повышения скорости работы с нагруженными AI-вычислениями. С точки зрения дополнительных возможностей повышения катастрофоустойчивости будет добавлена функциональность резервирования выделенных хостов виртуализации для конфиденциальных вычислений и экспорт бэкапов в другие географические регионы для реализации еще более масштабных настроек отказоустойчивости. </p> Selectel сообщил о запуске геораспределенного (Multi-AZ) региона. Обновление расширит возможности собственной облачной … message Как ИИ-агенты меняют устройство технологических компаний https://www.itweek.ru/themes/detail.php?ID=234552 Tue, 31 Mar 2026 11:29:28 +0300 <p><em>Почти все крупные российские компании </em><em>(</em><em>97%</em><em>)</em><em> уже <a href="https://www.comnews.ru/content/244068/2026-03-04/2026-w10/1009/krupnyy-biznes-massovo-vnedryaet-ii-no-strategiya-est-lish-u-26-kompaniy">внедряют</a> технологии искусственного интеллекта или готовятся к их внедрению. В это же время новые инструменты масштабируются за месяцы, тогда как раньше на это уходили годы. Период, в течение которого компания сохраняет уникальное преимущество от внедрения технологии, стремительно сокращается.</em></p> <p><em>Рассмотрим</em><em>, какие изменения это запускает в технологических компаниях и почему бизнесу предстоит пересмотреть архитектуру своих процессов</em><em>.</em></p> <h3>Переломный момент: от экспериментов к промышленному ИИ</h3> <p>Последние два года бизнес активно тестировал возможности искусственного интеллекта: запускал пилотные проекты, внедрял модели в отдельные функции, изучал экономику новых инструментов. Сейчас начинается следующая фаза — масштабирование. Скорость распространения технологий резко выросла: если раньше на массовое внедрение уходили годы и даже десятилетия, то теперь счет идет на месяцы. Период, в течение которого компания сохраняет уникальное преимущество от новой технологии, стремительно сокращается.</p> <p>Показателен темп распространения самих инструментов. Например, генеративный ИИ <a href="https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/">достиг</a> аудитории в 100 млн. пользователей всего за два месяца, а AI-стартапы масштабируются в несколько раз быстрее, чем SaaS-компании в предыдущем технологическом цикле. В таких условиях конкурентным преимуществом становится не доступ к технологиям как таковой — он быстро выравнивается, — а способность бизнеса перестраивать процессы и операционные модели с той же скоростью, с которой развиваются сами технологии.</p> <h3>Сдвиг № 1. ИИ выходит в физический мир</h3> <p>Долгое время искусственный интеллект существовал преимущественно в цифровой среде — в интерфейсах мобильных и стационарных устройств. Однако теперь ИИ перешел в активную фазу прямого взаимодействия с физическим миром. Речь идет о так называемом physical AI — системах, которые способны воспринимать окружающую среду, анализировать ее и принимать решения в реальном времени. Такие мультимодальные модели объединяют несколько типов технологий: компьютерное зрение, обработка языка и управление действиями. Благодаря этому машины получают способность не просто выполнять заранее прописанные инструкции, а адаптироваться к ситуации и выбирать оптимальное поведение.</p> <p>Первые примеры этой трансформации уже становятся частью повседневной инфраструктуры. Роботизированные системы на складах управляют потоками товаров, автономные транспортные решения используются внутри производственных площадок, а беспилотные логистические платформы постепенно берут на себя часть операций в цепочках поставок.</p> <p>В результате компании начинают строить операционные системы, в которых значительная часть физических процессов управляется алгоритмами. Именно эта интеграция цифрового интеллекта и физической среды станет одной из ключевых трансформаций ближайших лет.</p> <p>#IMAGE_234556#</p> <h3>Сдвиг № 2. ИИ-агенты меняют организацию труда</h3> <p>Следующий этап развития искусственного интеллекта связан с появлением агентных систем, где ИИ не просто вспомогательный инструмент, а полноценный участник рабочих процессов. Агент может самостоятельно выполнять задачи, анализировать данные, принимать решения в рамках заданных правил и взаимодействовать с другими системами. Фактически речь идет о новой категории цифровых исполнителей, которые работают внутри корпоративных процессов.</p> <p>Интерес к этой модели уже огромный. Многие компании тестируют ИИ-агентов в пилотных проектах, однако до полноценного промышленного внедрения доходят единицы решений. Основная причина в том, что организации пытаются встроить агентов в процессы, которые изначально создавались для людей. В результате автоматизация не ускоряет работу, а усложняет ее — появляется дополнительная координация, увеличивается количество промежуточных действий и растет нагрузка на сотрудников.</p> <p>Более устойчивый сценарий внедрения предполагает другой подход. Компании должны перепроектировать процессы с учетом того, что часть задач будут выполнять цифровые исполнители. Параллельно необходимо настроить системы координации множества агентов, а также создать новые роли для ответственных за их управление, обучение и контроль.</p> <p>Только так формируется гибридная рабочая сила, где люди и алгоритмы выполняют разные функции. Сотрудники будут сосредоточены на сложных задачах, требующих контекста и стратегического мышления, тогда как агенты возьмут на себя обработку данных, выполнение типовых операций и поддержку непрерывных процессов.</p> <p>По нашим наблюдениям, компании все чаще используют встроенные ИИ-инструменты не как отдельные сервисы, а прямо внутри рабочих систем — например, для подготовки задач, работы с CRM-данными или автоматизации коммуникаций. Такой формат постепенно меняет саму логику работы команд и ускоряет принятие решений.</p> <p>#IMAGE_234557#</p> <h3>Сдвиг № 3. Перестройка ИТ-команд</h3> <p>ИТ-подразделение постепенно перестает выполнять только сервисную функцию. Все чаще от технологических руководителей ожидают участия в формировании стратегии компании, а не только управления ИТ-системами. Также компании постепенно переходят от проектной модели к продуктовой. Команды больше не собираются под отдельные задачи, а отвечают за развитие конкретных цифровых сервисов и постоянно работают над их улучшением.</p> <p>Постепенно у подобной модели организации работы проявляются несколько характерных черт:</p> <ul> <li> <strong>гибридные команды</strong>: сотрудники работают вместе с ИИ-ассистентами и агентами, распределяя между собой аналитические, операционные и управленческие задачи;</li> <li><strong>постоянные эксперименты</strong>: новые решения тестируются короткими циклами, а развитие продуктов идет через непрерывную проверку гипотез;</li> <li><strong>встроенное управление</strong>: контроль, безопасность и комплаенс постепенно интегрируются прямо в рабочие процессы;</li> <li><strong>экосистемная модель</strong>: технологические подразделения координируют взаимодействие с внешними платформами, партнерами и разработчиками;</li> <li><strong>непрерывная адаптация</strong>: способность быстро менять процессы и инструменты становится ключевым навыком технологических организаций.</li> </ul> <h3>Сдвиг № 4. Безопасность становится частью архитектуры</h3> <p>Чем глубже ИИ интегрируется в бизнес-процессы компаний, тем больше появляется новых точек уязвимости. При этом значительная часть рисков возникает внутри организаций, где команды начинают использовать ИИ-инструменты без централизованного контроля.</p> <p>Одним из наиболее распространенных явлений становится так называемый «теневой ИИ» — ситуации, когда сотрудники или отдельные подразделения внедряют модели и сервисы самостоятельно, подключая их к корпоративным данным и системам. Параллельно появляются новые типы угроз: автономные агенты получают доступ к бизнес-процессам, а технологии генерации контента делают возможным создание синтетических личностей.</p> <p>Так меняется подход к защите. Компании начинают использовать системы безопасности на базе ИИ, которые анализируют поведение пользователей и алгоритмов, отслеживают аномалии и помогают быстрее выявлять потенциальные угрозы. Параллельно развивается практика постоянного мониторинга решений ИИ-агентов и встроенного комплаенса, когда правила безопасности и контроля интегрируются непосредственно в рабочие процессы.</p> <p>В результате безопасность постепенно становится частью архитектуры ИИ-систем. Она закладывается на этапе проектирования решений и развивается вместе с технологией, а не добавляется постфактум как внешний уровень контроля.</p> <h3>Главная трансформация: пересборка бизнес-процессов</h3> <p>Искусственный интеллект меняет архитектуру компаний. Технологии постепенно встраиваются в ключевые процессы — разработку продуктов, операционную деятельность, управление данными. Вслед за этим трансформируются команды, бизнес-инфраструктура и управленческие модели.</p> <p>Преимущество получают компании, которые умеют быстро перестраивать организацию работы: развивать команды, где люди и алгоритмы дополняют друг друга, выстраивать устойчивую инфраструктуру и системно работать с данными и безопасностью. Сегодня технологии распространяются и адаптируются молниеносно. Поэтому решающим фактором становится способность бизнеса регулярно обновлять свои процессы и организационную модель по мере появления новых возможностей.</p> <p>#IMAGE_234553#</p> Почти все крупные российские компании (97%) уже внедряют технологии искусственного интеллекта или готовятся … article Екатерина Кодатко, эксперт по цифровой трансформации “Битрикс24” Проблемы и перспективы отечественных MES https://www.itweek.ru/themes/detail.php?ID=234550 Tue, 31 Mar 2026 11:09:32 +0300 <p>Сегодня лишь <nobr>20-30%</nobr> российских промышленных предприятий используют отечественные MES (Manufacturing Execution System), системы для промышленных предприятий, стоящие на стыке ERP и АСУ ТП. Остальные либо продолжают эксплуатацию западного программного обеспечения, принимая и понимая риски, либо находятся в сложном процессе перехода. Санкционное давление и требования регуляторов вынуждают бизнес ускоренно отказываться от иностранного ПО, но сам по себе выбор вендора и установка программного обеспечения не решают главную задачу — повысить эффективность производства. Более того, недооценка сложности внедрения регулярно приводит к срывам сроков, раздуванию бюджетов и управленческому параличу. Рассмотрим, почему так происходит и какова реальная картина на рынке российских MES.</p> <blockquote> <p><em>MES (Manufacturing Execution System) — это информационная система управления производственными процессами в реальном времени, обеспечивающая оперативное планирование, диспетчеризацию и контроль выполнения производственных заданий. Она связывает ERP-системы (стратегическое планирование) с автоматикой нижнего уровня (АСУ ТП), позволяя отслеживать движение материалов, качество продукции и загрузку оборудования, что повышает эффективность цехов.</em></p> </blockquote> <h3>Скрытые риски стабильности</h3> <p>Бизнес устроен рационально: если иностранная система — будь то Wonderware MES, AVEVA PI System или Siemens Preactor APS — работает и лицензия еще действует, менять ее «для галочки» никто не станет. MES — актив компании, который годами встраивался в процессы цеха и обрастал уникальными доработками. Но сегодня эта стабильность обманчива. Существует два сценария, когда привычная система становится критическим ограничением для бизнеса:</p> <p>Первый — внешний: срок действия лицензии истекает, а продлить ее невозможно. Обновления недоступны, отключить систему без адекватной замены нельзя — ручное управление в Excel мгновенно повлияет на производительность линий. Предприятие попадает в жесткие временные рамки: российский аналог нужно успеть внедрить до того, как западное ПО перестанет функционировать. Большинство компаний, осознавших это в 2022 году, уже завершили миграцию. Те, кто откладывал решение до последнего, сейчас — в зоне максимального риска.</p> <p>Второй сценарий — внутренний, структурный. Глобальные изменения последних лет вынудили многие заводы кардинально менять номенклатуру продукции. Вместо выпуска пары типовых изделий предприятиям приходится оперативно осваивать десятки новых позиций. Старые методы планирования, будь то Excel или устаревшая учетная система, с многозадачностью не справляются. Возникает классический управленческий хаос: что запускать в первую очередь, хватит ли материалов, успеем ли к сроку?</p> <p>Здесь кроется фундаментальная ошибка: многие путают учет и управление: классические ERP-системы отлично фиксируют факт: сколько произвели и сколько потратили, но именно MES и системы продвинутого планирования (APS) отвечают на вопрос «как»: как произвести быстрее, дешевле и точно в срок, учитывая реальную загрузку станков и квалификацию рабочих в конкретную смену. В усложнившихся реалиях одной учетной системы для выживания бизнеса недостаточно.</p> <h3>Иллюзия коробочного продукта</h3> <p>Одна из главных ошибок, которую совершает руководство предприятий, — восприятие MES как рядового ИТ-проекта. Кажется, что достаточно купить лицензию, установить программу на сервер, выдать доступы и ждать роста эффективности. На практике внедрение MES — это масштабная трансформация производства, успех которой на 80% зависит не от конкретного софта, а от методологии и компетенций команды внедрения. Здесь на первый план выходят три уровня проблем, которые либо решаются на старте, либо сводят все усилия на нет.</p> <p>Первый — организационный. Внедрение неминуемо вскрывает отсутствие реальных регламентов, процессы, которые годами управлялись «по звонку мастеру», приходится формализовывать. Цеховой персонал часто воспринимает новую систему с недоверием и сопротивлением — не как помощника, а как инструмент тотального контроля. Без грамотного управления изменениями и обучения проект разобьется о человеческий фактор.</p> <p>Второй уровень — технический. Реальное производство — это всегда сочетание разного оборудования: от новейших станков с ЧПУ до агрегатов двадцатилетней давности, плюс разрозненные SCADA и ERP над ними. Связать все это в единый бесшовный контур — нетривиальная инженерная задача, а значит, обязательное условие для интегратора — наличие сильной инженерной экспертизы и понимание промышленных протоколов и физики производства. Иначе проект обречен на вечные доработки.</p> <p>Третий уровень — регуляторный. Для предприятий из сектора критической информационной инфраструктуры переход на отечественное ПО — не рекомендация, а требование закона. Вопросы сертификации по ФСТЭК, защиты данных и соответствия отраслевым стандартам должны закладываться в архитектуру не на финальном этапе сдачи, а в момент проектирования. Попытка «прикрутить» безопасность потом обходится дороже и часто приводит к необходимости переписывать значительную часть кода.</p> <h3>Рынок российских MES без купюр</h3> <p>Отечественные MES- и APS-системы, включая ExeMES, Indusoft <nobr>I-DS,</nobr> Adeptik APS и др., — это уже работающие, проверенные на реальных производствах решения. Но нужно быть реалистами: сейчас их функционал покрывает около <nobr>50-60%</nobr> возможностей «тяжелых» западных аналогов, которые развивались десятилетиями. Российские MES уверенно закрывают базовые потребности: диспетчеризацию, выдачу сменно-суточных заданий, прослеживаемость продукции и сбор данных с оборудования с расчетом эффективности. Например, в FMCG-секторе драйвером доработки систем стали строгие требования к интеграции с госсистемой маркировки «Честный ЗНАК».</p> <p>Тем не менее, отечественным разработчикам еще есть куда расти. Самый сложный блок — продвинутое планирование, способное в реальном времени перестраивать график с учетом доступности станков, материалов и компетенций персонала. Также требуют доработки сложные модули статистического управления качеством, предиктивная аналитика и единый контур с системами техобслуживания.</p> <h3>Как не получить «автоматизированный хаос»</h3> <p>Успешное импортозамещение MES складывается из трех шагов, которые нужно сделать еще до покупки лицензий. Первый — аудит и «гигиена» данных. Автоматизация хаоса дает лишь автоматизированный хаос. До старта ИТ-работ необходимо навести порядок в нормативно-справочной информации (НСИ) и технологических картах. Второй шаг — критическая оценка компетенций команды. Внедрение MES находится на пересечении производства и ИТ, и успех здесь определяет не столько название программного продукта, сколько способность исполнителя глубоко понимать методологию внедрения, процессы заказчика и функции внедряемого решения. Третий пункт — реалистичная оценка бюджета. Важно заложить ресурсы на доработку функционала под специфику компании. Российские решения активно развиваются, и магии «из коробки» пока ждать не стоит.</p> <p>Все эти нюансы актуальны вне зависимости от выбранного решения. Российская MES — работающий инструмент, но только в связке с грамотной методологией и правильными руками. Если заранее проработать организационные изменения и технически подготовить производство, система станет главным драйвером операционной эффективности компании.</p> <p>#IMAGE_234551#</p> Сегодня лишь 20-30% российских промышленных предприятий используют отечественные MES (Manufacturing Execution System), системы … article Денис Прудников, директор департамента “Производственные системы” компании “Рексофт” Почему воспроизводимость ИИ-аналитики критически важна в здравоохранении и медико-биологических науках https://www.itweek.ru/themes/detail.php?ID=234549 Tue, 31 Mar 2026 10:38:01 +0300 <p><em>Внедрение искусственного интеллекта в здравоохранении и медико-биологических науках ускоряется быстрыми темпами, стимулируя развитие клинических исследований, диагностики и операционной деятельности. По мере развития этих технологий научное сообщество наблюдает значительные успехи как в повышении эффективности, так и в инновациях, сообщает портал </em><em>eWeek</em><em>.</em></p> <p>Однако, несмотря на все более сложные модели, воспроизводимость остается проблемой для многих организаций. В строго регламентированных средах воспроизводимая аналитика необходима для достижения истинного доверия и масштабируемости, гарантируя, что результаты могут быть проверены и им можно доверять с течением времени.</p> <h3>ИИ в здравоохранении быстро развивается, но есть подвох</h3> <p>ИИ получил широкое распространение во многих технологических секторах, и его интеграция в здравоохранение также значительно ускорилась. Организации в области здравоохранения и медико-биологических наук вкладывают значительные средства в ИИ для поддержки клинических исследований, диагностики и операционной аналитики.</p> <p>В прошлом году Национальная академия наук, инженерии и медицины (NASEM) опубликовала новый <a href="https://www.nationalacademies.org/read/28868/chapter/1">отчет</a>, в котором рекомендовала способы, с помощью которых можно извлечь выгоду из ИИ в биотехнологиях, указывая на то, что модели ИИ могут анализировать большие объемы данных, чтобы помочь как в разработке лекарств, так и в смягчении угроз для здоровья.</p> <p>Та же тенденция наблюдается и в больничных учреждениях. Согласно исследованию Американской медицинской ассоциации, 66% врачей сообщили об использовании инструментов ИИ, по сравнению с 38% в 2023м. К распространенным сценариям использования относятся поддержка документации, создание записей, инструкции по выписке, планирование лечения и инструменты для взаимодействия с пациентами.</p> <p>Однако увеличение внедрения не всегда приводит к успешным результатам. Организации по-прежнему сталкиваются с проблемами эффективного и последовательного внедрения моделей ИИ, что не гарантирует обещанных преимуществ. Ключевой причиной этого является воспроизводимость. Без возможности надежно воспроизводить результаты в разных командах и средах даже хорошо разработанные модели могут не работать должным образом в реальных условиях.</p> <p>В 2016 г. научный журнал Nature опубликовал исследование «1,500 scientists lift the lid on reproducibility», показавшее, что более 70% исследователей пытались воспроизвести результаты других ученых, но потерпели неудачу. Опрос также показал, что 52% респондентов считают, что существует «значительный» кризис воспроизводимости.</p> <p>Более позднее <a href="https://www.fiercebiotech.com/research/72-biomedical-researchers-think-field-facing-reproducibility-crisis-survey">исследование</a> подтвердило эти выводы, особенно в биомедицине. В ходе опроса 1630 биомедицинских исследователей со всего мира, включая 819 участников клинических исследований, 72% респондентов согласились с тем, что в этой области наблюдается кризис воспроизводимости.</p> <p>Хотя эти цифры могут не отражать ситуацию во всех организациях в области медико-биологических наук, они подчеркивают, что воспроизводимость является постоянной проблемой в научных исследованиях — проблемой, которая становится еще более критической по мере интеграции ИИ в эти рабочие процессы.</p> <h3>Когда воспроизводимость отходит на второй план</h3> <p>Воспроизводимая аналитика, или воспроизводимость, относится к способности воссоздать те же результаты исследования, используя те же данные, код и среду, даже если оно проводится другой командой. Хотя воспроизводимость остается фундаментальным принципом в науке и исследованиях, она часто является скорее идеалом, чем реальностью. Многие организации работают с фрагментированными рабочими процессами в области науки о данных, что может замедлять как внедрение, так и сотрудничество.</p> <p>На практике воспроизводимость нарушается по нескольким ключевым причинам:</p> <ul> <li> команды разделены между экосистемами R и Python;</li> <li> сильна зависимость от блокнотов и ситуативных рабочих процессов;</li> <li> несоответствия зависимостей и сред.</li> </ul> <p>Эти проблемы затрудняют последовательное воспроизведение результатов, особенно между командами и во времени. В регулируемых научных и клинических средах это может подорвать усилия в области исследований и разработок и снизить достоверность результатов, полученных командой. Без стандартизированных сред и надлежащего управления зависимостями результаты становится трудно воспроизвести, что создает риски для нормативной проверки, экспертной оценки и долгосрочной непрерывности исследований.</p> <p>ИИ усугубляет эту проблему. Когда модели накладываются на невоспроизводимые рабочие процессы, несоответствия масштабируются вместе с ними, ограничивая надежность и влияние инсайтов, полученных с помощью ИИ.</p> <h3>Почему воспроизводимость ИИ является обязательным условием в клинических и научных рабочих процессах</h3> <p>В медико-биологических науках воспроизводимость важна как нигде. Как отмечает NASEM, «воспроизводимость и повторяемость являются важнейшими путями к достижению уверенности в научных знаниях, хотя и не единственными».</p> <p>Это особенно важно, поскольку клинические и научные исследования непосредственно способствуют:</p> <ul> <li><strong> Медицинским вмешательствам:</strong> разработке новых лекарств, методов лечения, медицинских устройств и диагностических инструментов.</li> <li><strong> Пониманию болезней:</strong> углублению знаний о происхождении заболеваний, их прогрессировании и подходах к лечению.</li> <li><strong> Клинической валидации:</strong> сбору фактических данных, необходимых для подтверждения безопасности и эффективности для получения одобрения регулирующих органов.</li> <li><strong> Совершенствованию здравоохранения:</strong> постоянному совершенствованию методов диагностики и клинических процессов.</li> </ul> <p>По мере того, как ИИ все больше внедряется в исследования в области медико-биологических наук, воспроизводимость становится необходимой для обеспечения согласованности, проверяемости и достоверности результатов с течением времени. Это важно по нескольким причинам:</p> <ul> <li><strong> Укрепление научной достоверности:</strong> воспроизводимость повышает экспертную оценку и целостность исследований, даже когда ИИ становится частью рабочего процесса.</li> <li><strong> Соответствие нормативным требованиям:</strong> анализы, основанные на ИИ, должны быть воспроизводимыми для поддержки проверки и аудита спустя месяцы или годы, гарантируя, что результаты выдержат проверку.</li> <li><strong> Защита результатов в реальном мире:</strong> результаты работы ИИ могут влиять на клинические решения и уход за пациентами, что делает согласованность и точность критически важными для безопасности пациентов.</li> </ul> <p>Без воспроизводимости потенциальные преимущества ИИ в здравоохранении не могут быть полностью реализованы или им нельзя доверять.</p> <h3>Как выглядят воспроизводимые рабочие процессы ИИ</h3> <p>По мере дальнейшего внедрения ИИ в клинические и научные рабочие процессы организации должны уделять приоритетное внимание аналитическим средам, которые позволяют командам воспроизводить модели, отслеживать зависимости и последовательно воссоздавать анализы с течением времени.</p> <p>Четыре основных принципа воспроизводимых рабочих процессов ИИ включают следующее:</p> <ul> <li><strong> Стандартизированные среды:</strong> устранение несоответствий, вызванных фрагментацией рабочих процессов R и Python, и обеспечение согласованного поведения моделей от разработки до производства.</li> <li><strong> Интегрированный в воспроизводимые рабочие процессы ИИ:</strong> внедрение возможностей ИИ и больших языковых моделей (LLM) непосредственно в регулируемые среды обработки данных, чтобы результаты оставались согласованными, отслеживаемыми и соответствовали существующим рабочим процессам.</li> <li><strong> Масштабируемая, совместная инфраструктура:</strong> предоставление командам возможности работать в общих средах, масштабировать вычислительные ресурсы по требованию и сотрудничать без внесения вариативности или нарушения воспроизводимости.</li> <li><strong> Сквозные управление и контроль:</strong> применение централизованных управления, обеспечения безопасности и мониторинга ко всем рабочим процессам для обеспечения соответствия нормативным требованиям и долгосрочной надежности.</li> </ul> <p>Хотя этот перечень не является исчерпывающим, эти принципы помогают обеспечить воспроизводимость и масштабируемость аналитических рабочих процессов, особенно в регулируемых средах, таких как здравоохранение и медико-биологические науки.</p> <h3>Кейс: обеспечение воспроизводимости рабочих процессов ИИ</h3> <p>Один из примеров обеспечения воспроизводимости аналитики на практике — компания TruDiagnostic, работающая в области медико-биологических наук. Будучи организацией, занимающейся эпигенетическим тестированием и специализирующейся на биологическом старении, дефиците питательных веществ и здоровье клеток, она столкнулась со значительными инфраструктурными проблемами из-за больших объемов данных и разрозненных наборов инструментов.</p> <p>Обрабатывая более 80 000 биологических образцов, команда столкнулась с неэффективностью, поскольку разные группы использовали различные инструменты, включая SageMaker, Docker и среды на основе R, такие как RStudio. Эта фрагментация затрудняла стандартизацию рабочих процессов и поддержание согласованности между анализами.</p> <p>Для решения этих проблем TruDiagnostic внедрила Posit Workbench с Amazon SageMaker. Posit Workbench позволяет командам создавать, совместно использовать и работать над рабочими процессами на R и Python в единой среде, что дает возможность специалистам в области науки о данных работать на предпочитаемом ими языке, сохраняя при этом согласованность между командами.</p> <p>Это позволило TruDiagnostic объединить свои среды R и Python, получив при этом больший контроль над вычислительными ресурсами. В результате компания ускорила разработку на целый год, сократила затраты на облачную инфраструктуру на 60% и в 10 раз повысила производительность обучения моделей ИИ и статистических моделей.</p> Внедрение искусственного интеллекта в здравоохранении и медико-биологических науках ускоряется быстрыми темпами … article РЕД СОФТ объявила о выходе Терминальной редакции РЕД ВРМ https://www.itweek.ru/themes/detail.php?ID=234543 Mon, 30 Mar 2026 15:28:58 +0300 <p>Компания РЕД СОФТ анонсирует выход РЕД ВРМ Терминальной редакции ― системы управления инфраструктурой виртуальных рабочих мест. Решение создано для крупных проектов, требующих быстрого масштабирования.</p> <p>Компания РЕД СОФТ, отечественный разработчик программного обеспечения, сообщила о расширении экосистемы своих продуктов новой редакцией РЕД ВРМ. Ранее компания представила рынку Стандартную редакцию РЕД ВРМ для быстрого развертывания виртуальных рабочих мест. </p> <p>Терминальная редакция РЕД ВРМ расширяет заложенный в продукт потенциал и предлагает новый сценарий работы, удобный для крупных проектов. </p> <p>Используя Терминальную редакцию РЕД ВРМ, администратор управляет виртуальными рабочими местами в рамках общего сервера, при этом встроенный балансировщик нагрузки помогает корректно распределять ресурсы между терминальными серверами. Доступны два алгоритма балансировки: «Базовый» по количеству сессий и «Расширенный» с учетом нагрузки, которую создают пользователи при использовании ресурсов CPU и RAM на сервере. Каждый пользователь сможет подключиться к виртуальному рабочему месту с любого устройства вне зависимости от сложности и ресурсоёмкости решаемой задачи.</p> <p>В состав редакции также вошёл протокол подключения РЕД ДИРЕКТ, обеспечивающий кроссплатформенную работу рабочих столов под управлением РЕД ОС и Windows. РЕД ДИРЕКТ позволяет переносить файлы между удаленным рабочим столом и текущим устройством простым копированием вне зависимости от типа используемой операционной системы, а также осуществлять копирование текста. Помимо ранее реализованного функционала, протокол предлагает пользователям новые возможности.</p> <p>«Протокол РЕД ДИРЕКТ, разработанный нашими инженерами и играющий столь важную роль в продукте, нашёл применение и в Терминальной редакции. РЕД ВРМ поддерживает кроссплатформенный удаленный доступ к серверам на базе Windows и РЕД ОС. Это не только расширяет возможности по хранению данных в ЦОДах, но и помогает нашим клиентам оптимизировать затраты на обслуживание оборудования», ― прокомментировал Артём Толмачев, руководитель продукта РЕД ВРМ.</p> <p>Протокол РЕД ДИРЕКТ поддерживает подключение принтеров, смарт-карт, дисков, флеш-накопителей, микрофонов, аудио- и видеоустройств, а также позволяет синхронизировать папки.</p> <p>Ещё одной особенностью Терминальной редакции стала реализация технологии RemoteApp. Пользователи РЕД ВРМ смогут локально запускать любое ПО в формате окна и работать с Windows-приложениями в окружении операционной системы РЕД ОС.</p> <p>«Терминальная редакция — это логичное развитие нашего продукта и ответ на запрос рынка на более гибкую и экономически эффективную модель удаленной работы, особенно в условиях роста стоимости оборудования. Использование терминальных серверов и RemoteApp позволяет обслуживать значительно больше пользователей без необходимости выделять отдельную виртуальную машину на каждого сотрудника, а также продлевать срок службы существующих устройств, перераспределяя бюджет с закупки оборудования на развитие инфраструктуры и бизнеса. В результате компании получают заметное снижение затрат по сравнению с классическими системами виртуализации рабочих мест. Мы создавали решение с простой архитектурой, высокой производительностью и уровнем контроля, которого ожидают корпоративные заказчики», — прокомментировал Рустам Рустамов, заместитель генерального директора РЕД СОФТ.</p> Компания РЕД СОФТ анонсирует выход РЕД ВРМ Терминальной редакции ― системы управления инфраструктурой виртуальных рабочих мест … message Выявлены ключевые факторы выбора платформенных решений в России в 2026 году https://www.itweek.ru/themes/detail.php?ID=234542 Mon, 30 Mar 2026 15:27:31 +0300 <p>Эксперты проекта STAQ определили ключевые факторы выбора платформенных решений бизнесом в России в 2026 году. Аналитики STAQ проанализировали данные российских компаний, использующих подобные программные продукты и выявили, что в ТОП-3 основных факторов выбора платформенных решений в России в этом году вошли импортозамещение, готовность вендора оказывать консалтинговые услуги в области использования продукта и предпочтения крупнейших интеграторов, которые продвигают платформенные решения на отечественном рынке.</p> <p>На фоне активного импортозамещения в сфере ИТ в России в 2026 году для большинства российских компаний большое значение имеет использование платформенных решений, разработанных отечественными вендорами. При этом, вендор должен быть крупной компанией, обладающей стабильностью на рынке, а также имеющей достаточно ресурсов на внедрение и поддержку продуктов. Консалтинг также сильно влияет на выбор решения. Для многих организаций важна готовность вендора помочь заказчику сформировать предложение по использованию решения. Компаниям необходимо, чтобы вендор помог составить подробное описание, как решение встраивается в их контур и решает их задачи.</p> <p>На формирование таких факторов в России в 2026 году повлияли разные обстоятельства. Раньше компетентные и квалифицированные западные партнеры осуществляли внедрение платформенных решений «под ключ», избавляя заказчика от проблем и сложностей, а также снимая с него ответственность за последствия выбора того или иного решения. Это были продукты с понятным жизненным циклом, конкретной стоимостью и гарантированной ответственностью вендора на протяжении всего периода использования продукта. В настоящее время в России почти нет вендоров, которые способны так же качественно, как ушедшие с отечественного рынка западные вендоры, оказывать поддержку решений на всем жизненном цикле. Это формирует дополнительную нагрузку в виде ответственности за выбор продукта для менеджеров среднего звена в компании. </p> <p>Процесс выбора платформенного решения для компании является довольно сложным по ряду причин. Прежде всего, это связано с присутствием большого количества подобных решений на российском рынке. Каждая платформа обладает своими техническими особенностями, и нужно очень глубоко разбираться в архитектуре ИТ-решений, чтобы выбрать продукт, который лучше всего подойдет для решения конкретной задачи. </p> <p>Кроме того, важно учитывать не одну конкретную задачу, а целый спектр задач, которые подходят под выбор платформенного решения. Необходимо выбрать платформу, которая максимально полно закроет все задачи компании, позволяя избежать «зоопарка» различных ИТ-решений и лишних расходов. Также при выборе платформенного решения большую роль играет наличие в компании компетентных специалистов, которые смогут написать качественное техническое задание. </p> Эксперты проекта STAQ определили ключевые факторы выбора платформенных решений бизнесом в России в 2026 году … message «Системный софт»: рынок NGFW в России достиг 54 млрд рублей https://www.itweek.ru/themes/detail.php?ID=234541 Mon, 30 Mar 2026 15:26:17 +0300 <p>Российский рынок межсетевых экранов нового поколения (NGFW) по итогам 2025 года увеличился на 17%, достигнув отметки в 54 млрд рублей. Такие данные приводит компания «Системный софт». К настоящему моменту рынок уже вошел в фазу зрелости, поэтому в <nobr>2026-2027 гг.</nobr> эксперты ожидают схожей динамики роста (18%) и обострения конкуренции между производителями.</p> <p>По данным экспертов компании «Системный софт», в 2026 году российский рынок NGFW преодолел этап срочного импортозамещения и вступил в фазу зрелого выбора: заказчиков интересует не просто замена ушедших вендоров, а способность отечественных решений обеспечить уровень производительности и набор функций, сопоставимый с лучшими мировыми образцами. Также в фокусе их внимания — прозрачный расчет совокупной стоимости владения. </p> <p>Сформировавшийся рынок ведет к усилению конкуренции между вендорами и от этого выигрывает заказчик: решения становятся функциональнее, производительнее и доступнее. Активно распространяется модель «плати только за то, что используешь» — компании могут приобретать лишь необходимые модули, не переплачивая за ненужный функционал. Техническое развитие отечественных решений при этом определяется уже не столько догоняющей разработкой, сколько адаптацией к новым реалиям киберугроз.</p> <p>Эксперты указывают на несколько тенденций, которые определят развитие рынка на ближайшую перспективу.</p> <p>Организация замкнутой экосистемы безопасности вокруг NGFW. Вендоры выстраивают вокруг своего межсетевого экрана экосистему продуктов — от EDR и NAC до песочниц и систем анализа трафика, — объединенных общим центром управления и обмена данными об угрозах (threat intelligence).</p> <p>Единая консоль управления. Управление политиками, мониторинг событий, визуализация сетевой активности — все это становится доступно из единого интерфейса, интегрированного с SIEM, SOAR и другими инструментами SOC.</p> <p>Оптимизация ПО под отечественные аппаратные платформы. Часть производителей оптимизирует программный стек под доступные на рынке российские процессоры и сетевые платформы, другие инвестируют в разработку собственных высокопроизводительных аппаратных решений. При этом вопрос аппаратной независимости остается одним из наиболее острых.</p> <p>Внедрение встроенных инструментов расследования. Современный NGFW — это не только средство предотвращения, но и источник телеметрии для расследования инцидентов. Встроенные инструменты форензики и ретроспективного анализа становятся конкурентным преимуществом.</p> <p>VPN и интеграция с ГОСТ-шифрованием. Для организаций, работающих с данными, подлежащими обязательной криптографической защите по российским стандартам, критически важна нативная поддержка ГОСТ-алгоритмов или интеграция с сертифицированными криптошлюзами.</p> <p>В текущем году эксперты компании «Системный софт» отмечают следующие ключевые векторы развития NGFW в России.</p> <p>Вендоры интегрируют модели машинного обучения непосредственно в движок NGFW. Это позволяет обнаруживать аномалии, автоматически классифицировать зашифрованный трафик и адаптивно подстраивать политики под меняющееся поведение пользователей. Таким образом, NGFW превращается из статичного блокирующего устройства в самообучающийся адаптивный инструмент.</p> <p>Второй вектор связан с трансформацией архитектуры — конвергенцией NGFW и SASE/SSE. Границы между традиционным периметром, который защищает офис, и облачными сервисами безопасности стремительно размываются. Можно ожидать появления гибридных решений, способных защищать как классическую on-premise инфраструктуру, так и распределенную сеть удаленных сотрудников. Происходит движение к модели, где политики безопасности становятся едиными независимо от того, где находится пользователь или ресурс.</p> <p>Важным направлением является аппаратная независимость. На фоне сохраняющихся логистических сложностей ряд игроков продолжает инвестировать в разработку собственных аппаратных платформ на базе доступных компонентов. Цель здесь не только в импортозамещении «железа», но и в обеспечении предсказуемости поставок и полного контроля над производительностью связки «софт + хард».</p> <p>Еще один вектор касается операционной эффективности: это углубленная интеграция с SOC-процессами. NGFW перестает быть просто средством предотвращения вторжений и превращается в полноценный источник данных для SOC— с автоматической передачей контекста инцидентов, обогащенного индикаторами компрометации, что критически сокращает время расследования и реагирования.</p> <p>Наконец, меняется и экономическая модель потребления. Наблюдается активное развитие модели подписок и гибкого лицензирования. Рынок отходит от парадигмы «купил навсегда» в пользу модели «платишь за то, что используешь». Это позволяет организациям избегать избыточного капитального финансирования, более гибко управлять бюджетами на информационную безопасность и оперативно масштабировать функции защиты по мере роста бизнеса.</p> <p>«Рынок NGFW в России вступил в фазу зрелости. 2026 год станет годом, когда выбор будет определяться уже не вопросом „есть ли отечественная альтернатива“, а вопросом „какое решение лучше всего подходит именно нам“. И это — здоровый признак развитого рынка. Главную сложность для заказчиков на расширившемся рынке составляет правильный выбор NGFW и бесшовная интеграция в ИТ-инфраструктуру — от миграции политик до перестройки архитектуры и обучения команд. Многогранность выбора и сложность внедрения делают критически важной роль технически грамотного интегратора, который не только подберет и поставит устройство, но и возьмет на себя ответственность за его оптимальную интеграцию сегодня и заложит фундамент для развития безопасности в будущем», — прокомментировал Артём Мичалин, руководитель управления развития ИБ-решений компании «Системный софт».</p> Российский рынок межсетевых экранов нового поколения (NGFW) по итогам 2025 года увеличился на 17%, достигнув отметки … message Почему ценообразование ПО, основанное на ценности, неизбежно https://www.itweek.ru/themes/detail.php?ID=234538 Mon, 30 Mar 2026 10:27:09 +0300 <p><em>Поскольку искусственный интеллект обеспечивает реальные результаты, ценообразование ПО должно выйти за рамки простого предоставления рабочих мест и взимать плату за предоставляемую бизнес-ценность, пишет на портале </em><em>InformationWeek</em> <em>Прем Анантакришнан, возглавляющий сегмент программной индустрии в сети Accenture, занимающейся ПО и платформами.</em></p> <p>На протяжении большей части истории ПО ценообразование отражало то, как оно создавалось и использовалось. Оно было предсказуемым, и ПО приобреталось как инструмент. Бессрочные лицензии, а позже и подписки на основе рабочих мест, были логичными моделями в течение многих лет.</p> <p>Поскольку ПО с поддержкой ИИ продолжает ускорять свой рост и использование, такой образ мышления больше не работает.</p> <p>Переход к облачным вычислениям ввел ценообразование на основе потребления, согласованное с использованием. По мере того, как ПО становится более адаптивным, автономным и способным обеспечивать результаты, модели ценообразования, привязанные к доступу или активности, начинают становиться устаревшими. ПО изменилось, и ценообразование тоже должно измениться.</p> <p>ПО с поддержкой ИИ принципиально отличается от традиционного корпоративного ПО. Оно может рассуждать, предпринимать действия и адаптироваться в режиме реального времени, одновременно потребляя вычислительные ресурсы. Это отход от традиционного ПО, которое предоставляет ценность через панели мониторинга и предопределенные рабочие процессы.</p> <p>Попытка оценить этот новый тип ПО, используя устаревшие статические пороговые значения или фиксированные конструкции, — это несоответствие с самого начала.</p> <h3>Выход за рамки удобства ценообразования на основе подписки</h3> <p>Подписка сохраняется, потому что она кажется безопасной. Организации могут заложить ее в бюджет, а поставщики получают выгоду от стабильного регулярного дохода. Ценообразование на основе использования приводит затраты в соответствие с потреблением, особенно на инфраструктурных и ориентированных на разработчиков платформах.</p> <p>Такие показатели, как токены, кредиты или вычислительные единицы, не измеряют результаты. По сути, это лишь косвенные, а не прямые показатели ценности.</p> <p>Две организации могут потреблять примерно одинаковое количество ресурсов ИИ и видеть совершенно разные результаты в бизнесе. Рассматривать эти сценарии как эквивалентные не имеет смысла.</p> <p>Справедливости ради следует отметить, что ИИ вносит неопределенность для обеих сторон. Поставщики сталкиваются с переменными затратами на инфраструктуру, обусловленными меняющимся спросом на инференс и вычисления. Покупателям сложно прогнозировать расходы, когда использование колеблется, а ценность проявляется неравномерно в разных командах и сценариях использования.</p> <p>Гибридные модели, сочетающие подписки с обязательствами по использованию или кредитами ИИ, могут помочь справиться со сложностью и служить временным решением.</p> <h3>Гибридные модели в действии</h3> <p>Salesforce применила гибридный подход с Agentforce, представив пакетную модель, в которой цена на ИИ устанавливается на основе выполняемых им действий, таких как обновление рабочих процессов или изменение записей. В результате сочетаются доступ на основе рабочих мест и сигналы потребления, что является отходом от количества рабочих мест как единственного фактора, определяющего ценность.</p> <p>Adobe также демонстрирует, как ценообразование может развиваться вместе с ценностью. Хотя в продукте Creative Cloud по-прежнему применяется ценообразование за доступ на пользователя, новые функции ИИ используют кредиты на основе использования, при этом клиенты платят больше по мере увеличения объема работы. Это практичная гибридная модель, которая сохраняет стабильность подписки, выходя за рамки простого предоставления рабочих мест.</p> <h3>Признание более активной роли ПО</h3> <p>ПО больше не является просто чем-то, что вы покупаете и развертываете. Поскольку оно становится активным участником повседневных операций, вы, по сути, нанимаете цифровых коллег.</p> <p>Хотя такие задачи, как обработка запросов клиентов и оптимизация рабочих процессов, по-прежнему выполняются людьми, ПО на основе ИИ берет на себя реальную ответственность за результаты. Ценообразование, основанное исключительно на доступе, начинает выглядеть оторванным от той важной роли, которую теперь играет ПО.</p> <p>В других областях организации производительность уже определяет вознаграждение: и отделы продаж, и поставщики услуг получают оплату за полученные результаты. ИИ позволяет распространить ту же логику на ПО.</p> <p>Ценообразование, основанное на ценности, более четко согласовывает стимулы. Поставщики вознаграждаются за достижение измеримого влияния на бизнес, а не за стимулирование более широкого использования. Клиенты платят за результаты, которые имеют для них значение, а не за абстрактные показатели активности.</p> <h3>Операционные препятствия для ценообразования, основанного на ценности</h3> <p>Если ценообразование, основанное на ценности, настолько важно, почему оно не получило более широкого распространения с самого начала? Нерешительность здесь носит скорее операционный, чем философский характер.</p> <p>Определение значимых результатов требует согласованности действий между бизнесом, ИТ-отделом и отделом закупок. Измерение этих результатов требует правильных данных, аналитики и согласия относительно того, как следует определять ценность. Перевод влияния в коммерческие термины выводит отделы продаж, финансов и юриспруденции на незнакомую территорию.</p> <p>В быстро меняющихся условиях скорость и простота часто побеждают. Ценообразование на основе использования знакомо, относительно легко внедряется и быстро выводится на рынок. В сферах, управляемых ИИ, где циклы инноваций короткие, а ожидания высокие, эта знакомость привлекательна. Компромисс заключается в том, что это откладывает неизбежное.</p> <h3>Три шага для подготовки к ценообразованию на основе ценности</h3> <p>Организациям не следует ждать идеальных моделей ценообразования на основе результатов, прежде чем начинать к ним подготовку. Есть практические шаги, которые можно предпринять уже сегодня:</p> <ol> <li><strong> Начните измерять результаты. </strong>Даже если контракты по-прежнему основаны на использовании или кредитах, команды могут отслеживать показатели, на которые призваны влиять ИИ-решения. Производительность, влияние на выручку, снижение рисков и качество обслуживания клиентов — все это дает полезное представление о том, как создается ценность.</li> <li><strong> Экспериментируйте с гибридными структурами.</strong> Включение в традиционные соглашения элементов, ориентированных на результат, позволяет поставщикам и клиентам учиться, не принимая на себя чрезмерный риск. Со временем доверие и прозрачность этих моделей вырастут.</li> <li><strong> Расширьте ИИ-грамотность за пределы ИТ-службы.</strong> Руководителям отделов закупок, финансов и бизнеса необходимо общее понимание того, что ИИ создает ценность вероятностным (а не детерминированным) образом. Это понимание значительно упростит управление ценообразованием, ориентированным на результат.</li> </ol> <h3>Примите неизбежность</h3> <p>Индустрия ПО и платформ будет продолжать тестировать и совершенствовать подходы к ценообразованию. Некоторые из них будут масштабируемыми, другие — нет. Различия между отраслями и сценариями использования сохранятся.</p> <p>Ценообразование, основанное на ценности, является неизбежной реальностью, поскольку ИИ превращает ПО из пассивного инструмента в активный фактор повышения эффективности бизнеса, что приводит к ценообразованию, которое все больше будет отражать результаты, а не затраты.</p> Поскольку искусственный интеллект обеспечивает реальные результаты, ценообразование ПО должно выйти за рамки простого … article Оптимизация ЦОДа: где реально можно сэкономить, а где экономия обернется потерями https://www.itweek.ru/themes/detail.php?ID=234536 Mon, 30 Mar 2026 10:15:27 +0300 <p><em>На практике заявленная мощность и реальная потребность в проекте ЦОДа через три года отличаются в <nobr>1,5-2 раза.</nobr> Одни закладывают избыточный запас и переплачивают на старте. Другие экономят —- и через два года платят за реконструкцию втрое больше. Где проходит граница?</em></p> <p><em>Обсудим, как повысить эффективность работы ЦОДа в новых условиях и где экономия превращается в потери.</em></p> <h3>ЦОД должен быть под контролем</h3> <p>Оптимизация центров обработки данных перестала быть просто технической задачей — теперь это часть бизнес-стратегии, от которой зависит возможность масштабирования, стоимость услуг и скорость запуска новых сервисов.</p> <p>В крупных городах — Москве и Санкт-Петербурге — ограничены энергоресурсы, а объем обрабатываемых данных и число сервисов растут каждый год. Сегодня российские ЦОДы потребляют около 1 ГВт электроэнергии. По данным Минцифры и Аналитического центра при правительстве РФ, к 2030 году потребление может превысить <a href="https://tass.ru/ekonomika/25500783">2,5 ГВт</a>. В этих условиях развитие отрасли сдерживается доступностью энергоснабжения, стоимостью технологического присоединения и возможностями сетевой инфраструктуры.</p> <p>Главная задача — сделать использование ресурсов максимально эффективным. В стандартном коммерческом ЦОДе размещается <nobr>500-600 стоек,</nobr> каждая из которых вмещает десятки серверов. Без четкого управления часть оборудования простаивает, а охлаждение и электроснабжение — работают на пределе. Это приводит к перерасходу энергии и ускоренному износу техники.</p> <p>Все это напрямую влияет на надежность сервисов. ЦОДы функционируют круглосуточно, и даже кратковременный простой обходится компаниям в миллионы рублей. В 2024 году <a href="https://iz.ru/1864728/2025-04-03/v-rossii-pochti-60-kompanii-stolknulis-s-prostoiami-v-rabote-ili-poterei-dannykh">58%</a> российских компаний столкнулись с незапланированными остановками ИТ-систем и потерей данных.</p> <h3>Три зоны, где оптимизация работает</h3> <p><strong>Архитектура энергоснабжения. </strong>Одна из зон, где изменения проходят безопасно и эффективно, — энергоснабжение. Корректное определение уровня надежности позволяет избежать избыточного резервирования. Упрощение схем распределения питания и снижение кратности резервирования сокращает капитальные затраты без ущерба для эксплуатации. В зависимости от масштаба проекта экономия на строительстве достигает 20%, а при избыточно консервативных проектах — больше.</p> <p><strong>Поэтапный ввод мощностей. </strong>Разделение проекта на очереди строительства с учетом реальной динамики нагрузки помогает избежать простоя значительной части инфраструктуры в первые годы эксплуатации. При продуманной модульной архитектуре мощности вводят постепенно — по мере необходимости, а не «с запасом на будущее». Это снижает первоначальные инвестиции, уменьшает операционные расходы на ранних этапах и одновременно сохраняет возможность масштабирования площадки без дорогих переделок.</p> <p><strong>Выбор локации. </strong>Расположение дата-центра рядом с крупными питающими центрами, магистральными линиями и телекоммуникационной инфраструктурой существенно сокращает затраты на технологическое присоединение. В нашей практике экономия на строительстве внешних сетей, подстанций и линий связи достигала десятков миллионов рублей.</p> <h3>Где экономия обернется потерями</h3> <p>В ЦОД-проектах существуют зоны, где попытки оптимизации чаще всего приводят к росту операционных расходов, а иногда — простоям инфраструктуры уже в первые годы эксплуатации.</p> <p><strong>Электроснабжение и системы охлаждения. </strong>Речь о критических компонентах любого ЦОДа. Попытки удешевить схемы резервирования, использовать оборудование более низкого класса или сократить уровень отказоустойчивости напрямую повышают риски простоев. Для операторов дата-центров цена даже кратковременной остановки сервисов многократно превышает сэкономленное на старте.</p> <p><strong>Минимальные параметры на этапе проектирования. </strong>Мы сталкиваемся с этим регулярно: заказчики закладывают минимум мощности, экономят на площади и инженерных резервах. Через несколько лет, когда бизнес требует больше ресурсов, начинаются сложности. Вместо плановой модернизации компании приходится платить за дорогую реконструкцию тех же сетей, а масштабирование оказывается ограничено из-за изначально выбранной архитектуры.</p> <p>В результате приходится пересматривать схему энергоснабжения, усиливать системы охлаждения, прокладывать дополнительные кабельные трассы и искать возможность подключения новых мощностей в уже работающем дата-центре. Такие работы — значительно дороже, чем создание необходимого резерва на этапе строительства, и часто требуют частичных остановок инфраструктуры.</p> <p><strong>Ввод мощностей. </strong>Попытка снизить стоимость проекта за счет уменьшения заявленной мощности, отказа от резервных вводов или упрощения схемы подключения к сетям на практике часто приводит к обратному эффекту.</p> <p>На старте такие решения действительно позволяют сократить капитальные затраты, однако при росте нагрузки или расширении площадки возникает необходимость в дополнительных мощностях, прокладке новых линий электроснабжения или замене схемы распределения.</p> <p>В действующем ЦОДе для таких работ нужны дополнительные согласования с сетевыми организациями, и в результате бизнес теряет время: процесс занимает <nobr>1-2 года.</nobr></p> <p>Ключевой принцип оптимизации для дата-центров — поиск баланса между надежностью, перспективами масштабирования и капитальными затратами. Верно выбранная площадка, продуманная энергетическая архитектура и реалистичный прогноз роста нагрузки дают значительно больший экономический эффект, чем точечное удешевление оборудования или инженерной инфраструктуры.</p> <p> #IMAGE_234537#</p> На практике заявленная мощность и реальная потребность в проекте ЦОДа через три года отличаются в 1,5-2 раза … article Алексей Равинский, генеральный директор “Запуск Групп” ИСИЭЗ НИУ ВШЭ: цифровая трансформация химической промышленности https://www.itweek.ru/themes/detail.php?ID=234534 Fri, 27 Mar 2026 15:14:41 +0300 <p>Институт статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ изучил текущий и перспективный спрос организаций химической промышленности на цифровые технологии и решения, определяющие общий профиль цифровой трансформации отрасли.</p> <p>Задачи цифровой трансформации закреплены в стратегиях многих компаний химической промышленности. Так, треть обследованных указали, что внедрение и использование цифровых технологий входят в число их приоритетов.</p> <p>Лидерскую позицию по глубине цифровой интеграции занимают системы автоматизации производственных процессов: их суммарно используют 41,2% организаций, из них почти каждая вторая — в широком формате, каждая четвертая — ограниченно, но планирует масштабировать.</p> <p>На второе место вышел Интернет вещей, причем с совсем небольшим отрывом от лидера по суммарному охвату (39,7%) и со значительным потенциалом его обойти в среднесрочной перспективе (еще треть обследованных считают технологию перспективной или включили в свои планы).</p> <p>На третьем — системы цифрового проектирования и моделирования. Каждое третье химическое производство их уже применяет, каждое пятое относит к потенциально интересным или примеряет к своему портфелю планируемых технологий.</p> <p>В отличие от организаций машиностроения, массово делающих ставку на станки с ЧПУ, в химической индустрии эту технологию освоили лишь немногим более четверти организаций, потенциальными пользователями могут стать еще 14%. С аналогичной долей актуальных пользователей (14%) замыкает топ-5 анализ больших данных, при этом еще вдвое больше организаций положительно оценивают ее потенциал в среднесрочной перспективе.</p> <p>Из отраслей химпрома активнее всего внедряют цифровые технологии производители химических веществ и химической продукции, в основном — системы автоматизации производственных процессов (51%) и Интернет вещей (41%). У изготовителей лекарственных средств и материалов, используемых в медицине, наиболее востребованы системы проектирования и моделирования: их внедрили 39% компаний (самый высокий показатель среди всех рассматриваемых организаций). В сегменте резиновых и пластмассовых изделий активно эксплуатируются станки с ЧПУ (33% организаций), наряду с Интернетом вещей и системами автоматизации производственных процессов.</p> <p>Влияние цифровых технологий на бизнес-процессы в период <nobr>2022–2024 гг.</nobr> большинство компаний оценили как умеренное, основные эффекты отметили в производстве (17%) и администрировании (16%). В трехлетней перспективе организации прогнозируют двукратное ускорение цифровой трансформации практически по всем бизнес-процессам. При этом фокус цифровых преобразований в химпроме может расширяться и, помимо производства (34%), сильнее будет затрагивать логистику (28%) и стратегическое управление (26%). Это может свидетельствовать о переходе отрасли от базовой автоматизации к комплексной оптимизации цепочек поставок и процессов принятия решений.</p> <p>Среди барьеров цифровизации большинство обследованных организаций (59%) назвали основным дефицит бюджета на модернизацию, внедрение новых решений и развитие инфраструктуры. К другим вызовам около половины отнесли сложности с интеграцией новых решений в существующие технологические контуры или адаптацией имеющихся на рынке разработок под специфику химических производств, а также в целом их слабую доступность.</p> Институт статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ изучил текущий и перспективный спрос … message КРОК: масштабирование ИИ меняет инфраструктуру — три ключевых сдвига 2026 года https://www.itweek.ru/themes/detail.php?ID=234533 Fri, 27 Mar 2026 15:13:09 +0300 <p>В начале 2026 года правительство РФ инициировало разработку национального плана по внедрению ИИ в ключевые отрасли экономики и государственное управление с утверждением к середине года. На рынке наметились три сдвига, которые способствуют реализации амбициозного плана: переход к ИИ-центричной архитектуре, трансформацией модели владения ИТ-инфраструктурой и формирование зрелого технологического суверенитета.</p> <p>В 2026 году для крупных заказчиков фокус смещается с проверки гипотез на обеспечение гарантированной отдачи от технологий: инвестиции должны начать приносить измеримый экономический эффект. Это меняет требования к инфраструктуре: искусственный интеллект перестал быть просто нагрузкой на ЦОДы, теперь он задает параметры вычислительных мощностей и технологической архитектуры. Международные аналитики отмечают, что большинство ключевых технологических трендов 2026 года так или иначе связаны с развитием ИИ — от архитектуры решений до управления данными и автоматизации.</p> <p>В России ИИ-повестка подкреплена государственной стратегией и инвестициями. В рамках нацпроекта «Экономика данных» на развитие цифровых платформ и инфраструктуры до 2030 года направлено свыше 700 млрд рублей, из которых более 130 млрд — на развитие ИИ-технологий и суперкомпьютерных мощностей. </p> <p>Корпоративный контур уже подтверждает тренд: технологические гиганты и крупнейшие банки создают масштабируемые ИИ-кластеры не только для внутренних нужд, но и как сервис для рынка. Российские вендоры выводят решения под ИИ-нагрузки: «Аквариус» выводит линейку AQserv RS, заявляя среди прочих сценариев искусственный интеллект и машинное обучение. YADRO формирует новый инфраструктурный сегмент ИТ-рынка: производитель выпускает ИИ-серверы с поддержкой до 8 мощных GPU, оптимизированные под обучение и инференс моделей, а также СХД, обеспечивающие предсказуемую скорость обработки и производительность под ИИ-нагрузки. Сравнительно новая ниша на рынке — готовые on-premise платформы, позволяющие реализовать сервис «ИИ как услуга» (AIaaS) в собственном контуре. Целостная ИИ-среда помимо аппаратного слоя включает инструменты для MLOps, готовые LLM и управляемый маркетплейс сервисов. Это позволяет командам разворачивать ИИ-решения «под ключ» в своем контуре и масштабировать их по мере роста нагрузки. </p> <p>Ведущие облачные провайдеры (VK Cloud, Cloud.ru, МТС Cloud) активно развивают GPU-as-a-Service и сервисы вокруг них, превращая ИИ-инфраструктуру в отдельный продукт. Компании переносят системы из частных ЦОДов в облака, где есть GPU-ресурсы, отказоустойчивость и гибкая тарификация. К 2027 году, по оценкам российских экспертов, рынок консолидируется вокруг нескольких национальных облачных провайдеров с сертификацией под КИИ. </p> <p>Современная ИТ-инфраструктура вступает в фазу взрывного роста: увеличивается плотность размещения серверов, возрастает доля GPU-узлов, растут требования к сетям, хранению и резервному копированию. Помимо сложности управления кратно возрастает стоимость владения инфраструктурой: в России в 2024 году средняя цена серверного узла увеличилась на <nobr>18–20%.</nobr> В 2025 году рост цен продолжился, в 2026 году эта тенденция усиливается за счет удорожания отдельных компонентов. В период, когда бизнес фокусируется на эффективном управлении ресурсами, капитальные расходы всё чаще перераспределяются в сторону сервисных моделей.</p> <p>«Рынок уходит от только CAPEX-модели: компании берут серверы в лизинг, заключают долгосрочные сервисные контракты, инвестируют совместно с партнерами. Инфраструктура становится исполнительным слоем, который за счет распределения нагрузок между периферийными вычислениями, частными и публичными облаками обеспечивает гибкость и масштабируемость, в том числе и при развертывании ИИ-сервисов», — прокомментировал руководитель направления «Инфраструктурные решения» КРОК Александр Сысоев. </p> <p>IaaS-модели в чистом виде не обеспечивают заказчикам универсальности этого решения, поэтому они ищут компромисс между собственным владением инфраструктурой и передачей эксплуатации на аутсорс. Соответственно, интеграторы всё чаще предлагают аренду готовых кластеров и управляемое владение: заказчик закупает железо (в соответствии с требованиями импортозамещения и безопасности), а интегратор берёт на себя настройку, эксплуатацию, мониторинг, обновления, резервирование и обучение персонала. В ближайшие несколько лет такая модель станет стандартом для крупных корпоративных и государственных проектов и послужит компромиссом для кейсов, когда у заказчика сохраняется недоверие к классическому IaaS. </p> <p>В среднесрочной перспективе Россия окончательно перейдет из фазы ускоренного импортозамещения к разумному технологическому суверенитету. Это не полная автономность или изоляция, а способность гарантировать безопасный доступ к данным, инфраструктуре, квалифицированным кадрам вне зависимости от внешних факторов.</p> <p>Регуляторика и дальше будет задавать правила игры на рынке. В критичных отраслях компании сосредоточатся на собственных экосистемах. Для инновационных и высоконагруженных сценариев бизнес будет использовать сочетание из локальных решений и других доступных на рынке стеков, соблюдая требования КИИ и информационной безопасности. </p> <p>Рыночные аналитики считают, что в краткосрочной перспективе компании начнут второй цикл миграции: они будут переходить с решений, выпущенных в период с 2022 по 2024 годы, к более зрелым стекам. Бизнес будет отказываться от фрагментированной ИТ-инфраструктуры в пользу целостных экосистем с собственными операционными системами, виртуализацией, контейнерами, СХД, средствами управления и комплексными решениями по киберустойчивости. В этот же период начнется вторая волна облачного импортозамещения: компании будут мигрировать с облачных версий VMware на отечественные виртуализационные стеки, а также выстраивать гибридные модели (on-prem + национальные облака). На горизонте же <nobr>3–5</nobr> лет будут набирать популярность отраслевые платформы (финансы, телеком, промышленность), ориентированные на преднастроенные сервисы и безопасную интеграцию с внутренними контурами. </p> <p>«В 2026 году рынок делает ставку на прагматичность — от экспериментов к измеримой отдаче. Это видно по трем направлениям: ИИ становится центром проектирования инфраструктуры, технологический суверенитет превращается в задачу устойчивости и стандартизации, а владение инфраструктурой смещается в сторону сервисных и гибридных моделей», — прокомментировал руководитель направления «Инфраструктурные решения» КРОК Александр Сысоев.</p> В начале 2026 года правительство РФ инициировало разработку национального плана по внедрению ИИ … message Gartner: к 2030 году стоимость LLM-инференса снизится на 90% https://www.itweek.ru/themes/detail.php?ID=234531 Fri, 27 Mar 2026 11:05:02 +0300 <p><em>Согласно прогнозу аналитической компании Gartner, к 2030 г. получение выводов искусственного интеллекта (инференс) с помощью большой языковой модели (LLM) с одним триллионом параметров будет обходиться поставщикам генеративного ИИ (GenAI) более чем на 90% дешевле, чем в <nobr>2025-м.</nobr></em></p> <p>ИИ-токены — это единицы данных, которые обрабатывают модели GenAI. Для целей данного анализа токен представляет собой 3,5 байта данных, или приблизительно 4 символа.</p> <p>«Это снижение затрат будет обусловлено сочетанием улучшений в области эффективности полупроводников и инфраструктуры, инноваций в дизайне моделей, более высокой степени использования чипов, растущего применения специализированных кремниевых чипов для инференса и применения периферийных устройств для конкретных сценариев использования», — сказал Уилл Соммер, старший директор-аналитик Gartner.</p> <p>На основе этих тенденций Gartner прогнозирует, что к 2030 г. LLM будут в 100 раз более экономически эффективными, чем самые ранние модели аналогичного размера, разработанные в 2022 г.</p> <p>Результаты прогнозного моделирования разделены на два набора сценариев для полупроводниковых технологий:</p> <ul> <li> «передовые» (frontier) сценарии: работа моделей основана на новейших передовых чипах;</li> <li> «комбинированные» (legacy blend) сценарии: работа моделей основана на репрезентативном сочетании доступных полупроводников, сопоставленном с прогнозами Gartner.</li> </ul> <p>Ожидаемые затраты в «комбинированных» сценариях значительно выше, чем в «передовых» сценариях, учитывая их меньшую вычислительную мощность.</p> <p>#IMAGE_234532#</p> <h3>Снижение стоимости токенов не демократизирует передовые технологии</h3> <p>Однако снижение стоимости токенов для поставщиков GenAI не будет полностью транслировано на корпоративных клиентов. Более того, для передовых интеллектуальных систем потребуется значительно больше токенов, чем для современных массовых приложений. Например, агентные модели требуют в <nobr>5-30</nobr> раз больше токенов на задачу, чем стандартный чат-бот GenAI, и могут выполнять гораздо больше задач, чем человек, использующий GenAI.</p> <p>Хотя снижение стоимости токенов позволит расширить возможности GenAI, эти достижения приведут к непропорционально большему спросу на токены. Поскольку потребление токенов растет быстрее, чем снижается их стоимость, ожидается увеличение общих затрат на инференс.</p> <p>«Директорам по продуктам (CPO) не следует путать дефляцию товарных токенов с демократизацией передовых методов рассуждения, — сказал Соммер. — Хотя стоимость стандартизированного интеллекта приблизится почти к нулю, вычислительные ресурсы и системы, необходимые для поддержки сложных методов рассуждения, останутся дефицитными. CPO, которые сегодня маскируют архитектурные недостатки дешевыми токенами, завтра столкнутся с трудностями в масштабировании агентных систем».</p> <p>По мнению Gartner, будет расти ценность платформ, способных координировать рабочие нагрузки в рамках разнообразного портфеля моделей. Рутинные, часто выполняемые задачи должны быть перенаправлены на более эффективные небольшие и предметно-ориентированные языковые модели, которые работают лучше, чем универсальные решения, и при этом обходятся значительно дешевле, поскольку они адаптированы к конкретным рабочим процессам. Дорогостоящий инференс моделей передового уровня должен быть строго ограничен и зарезервирован исключительно для высокорентабельных, сложных задач логического мышления.</p> Согласно прогнозу аналитической компании Gartner, к 2030 г. получение выводов искусственного интеллекта (инференс … article Метрики ценности: что мы на самом деле измеряем в ИИ? https://www.itweek.ru/themes/detail.php?ID=234530 Fri, 27 Mar 2026 10:43:08 +0300 <p><em>В новой среде, дополненной искусственным интеллектом, организациям необходимо отказаться от традиционных показателей, пишет на портале </em><em>InformationWeek</em> <em>Пол Макдонах-Смит, приглашенный лектор MIT Sloan School of Management.</em></p> <p>Компании часто начинают измерение ИИ с неправильного места, задавая вопросы:</p> <ul> <li> Сколько сотрудников используют ChatGPT?</li> <li> Сколько запросов было написано?</li> <li> Сколько лицензий активно?</li> </ul> <p>Эти показатели легко подсчитать, но они плохо отражают реальные изменения.</p> <p>Более уместный начальный вопрос: для выполнения каких внутренних задач нашей организации мы «нанимаем» передовые технологии ИИ?</p> <p>Я использую словосочетание «метрики ценности», потому что это знакомый язык. Но меня действительно интересуют показатели ценности — способы осмысления влияния и опыта, которые обеспечивают прорывные технологии.</p> <p>ИИ не просто добавляет инструмент; он меняет то, как выполняется работа. А когда работа меняется на уровне задачи, ценность может проявляться там, где нам этого не увидеть на наших панелях мониторинга.</p> <h3>Таксономия работы устарела</h3> <p>Мы должны перестать рассматривать названия должностей и сквозные рабочие процессы как единственные таксономии, имеющие значение. Нам необходимо научиться декомпозировать задачи. Исследования показывают, что подавляющее большинство рабочих мест, если их декомпозировать, содержат от 15 до 25 основных задач. Как только вы видите задачи, становится неизбежной необходимость получить ответ на фундаментальный вопрос: в какой степени каждая задача может быть ответственно, безопасно и точно автоматизирована, дополнена или обеспечена помощью агента?</p> <p>Если вы реструктурируете анатомию работы, задачу за задачей, вы меняете ДНК рабочего процесса. Так почему же мы должны ожидать, что те же самые устаревшие метрики и KPI, которые мы использовали раньше, останутся такими же точными?</p> <p>По мере того, как организации внедряют и интегрируют ИИ, они могут генерировать новые метрики ценности, которые они ранее не признавали и даже не называли. Человеческое восприятие узко. Мы часто используем старую логику измерения, потому что она нам знакома. Но крупные технологические сдвиги могут заставлять нас изобретать новые способы описания реальности. ИИ не станет исключением.</p> <h3>Что же нам следует теперь измерять?</h3> <p>Ниже приведены пять метрик, которые я считаю практичными, поскольку они напрямую связаны с тем, как ИИ меняет принятие решений, креативность, инновации и обучение.</p> <ol> <li><strong> Скорость принятия решений.</strong> Как ИИ сокращает цикл принятия решений и повышает оперативность? В некоторых областях интеллектуального труда — например, в разработке ПО — получены данные, свидетельствующие о том, что ИИ может сократить время выполнения задач на <nobr>30-40%</nobr> как минимум в некоторых сценариях. Если задачи выполняются быстрее, что происходит со скоростью принятия решений в команде или подразделении?</li> <li><strong> Повышение качества решений (и более качественные вопросы).</strong> Если я покажу свои рассуждения машине, она может помочь мне уточнить мой подход, выявив пробелы, оспорив предположения и предложив улучшения. Есть и обратная сторона: вы улучшаете не только ответ, но и вопрос. Более качественные вопросы приводят к лучшим результатам.</li> <li><strong> Индекс усиления возможностей человека.</strong> Генеративный ИИ может повысить человеческую креативность: он помогает людям генерировать варианты, составлять черновики, итеративно совершенствовать и исследовать. Но он также может ухудшить положение людей в некоторых областях, если они отдают на аутсорсинг слишком много мыслительной работы. Поэтому отслеживайте усиление возможностей с течением времени: расширяет ли ИИ человеческие возможности или ограничивает их?</li> <li><strong> Результативность инноваций.</strong> Организации генерируют множество идей, но лишь немногие из них становятся реальными функциями или улучшениями. Если агенты ИИ теперь участвуют в процессе генерации идей, каков мультипликатор силы? Каково улучшение результативности, процент идей, которые воплощаются в реальность? Исследования <a href="https://psycnet.apa.org/fulltext/2026-29702-001.html">показывают</a>, что люди, генерирующие идеи с помощью агентов ИИ, могут превзойти людей, генерирующих идеи в одиночку, и что команда, использующая одного общего агента ИИ, может избежать издержек, связанных с агрегированием результатов работы нескольких агентов.</li> <li><strong> Эффективность циклов обучения.</strong> Циклы обучения имеют решающее значение для развития рабочей силы. Программы стажировки работали потому, что один человек помогал другому учиться с течением времени. ИИ открывает возможность запуска новых циклов обучения между машинами и людьми, а также между самими людьми в присутствии машины. Далее возникает вопрос: улучшает ли ИИ скорость и качество обучения на рабочем месте?</li> </ol> <h3>Чем стоит заняться в понедельник</h3> <p>Некоторые метрики всегда будут иметь значение. Оценка удовлетворенности сотрудников и клиентов подобна измерению температуры. Но наряду с ними нам нужно быть внимательными к новым метрикам. Опасно жить в мире, где ваши результаты неизмеримы. Метрики формируют поведение. Метрики, которые мы выберем для ИИ, будут определять, что будут оптимизировать руководители, что будут создавать команды и какими станут предприятия.</p> <p>Поэтому, если вы хотите измерить ИИ-трансформацию, не начинайте с вопроса «Сколько людей использовали инструмент?». Начните с самой работы: разложите ее на составляющие, посмотрите, какие задачи изменились, а затем спросите, какой новый смысл создается. Ценность часто уже есть. Вопрос в том, создали ли мы единицы измерения, чтобы ее увидеть.</p> В новой среде, дополненной искусственным интеллектом, организациям необходимо отказаться от традиционных показателей … article Роль искусственного интеллекта как ключевой инфраструктуры медицины https://www.itweek.ru/themes/detail.php?ID=234528 Fri, 27 Mar 2026 10:31:08 +0300 <p>В обсуждениях искусственного интеллекта в здравоохранении долгое время преобладали две крайности. Одни видели в ИИ революцию, которая уже наступила, другие опасались, что технологии вот-вот начнут вытеснять врачей. Но, как это часто бывает, реальность оказалась менее громкой, зато гораздо более значимой.</p> <p>Главный тезис на 2026 год связан не с тем, что ИИ стал «умнее». Куда важнее другое: он все глубже встраивается в медицинские процессы — от клинической практики до исследований, от документооборота до домашнего мониторинга. Именно к такому выводу подводит <a href="https://www.bcg.com/publications/2026/how-ai-agents-will-transform-health-care">отчет</a> BCG «How AI Agents and Tech Will Transform Health Care in 2026»: ИИ начинает менять уже не отдельные функции, а сам способ создания ценности в системе здравоохранения. Для бизнеса это означает довольно практичный сдвиг. Речь идет уже не о том, нужен ли ИИ как технология. Вопрос в другом: кто быстрее и эффективнее встроит его в свою бизнес-модель. В здравоохранении преимущество начинают получать не те организации, которые просто заявляют о внедрении инноваций, а те, кто действительно используют ИИ для снижения затрат, разгрузки персонала, ускорения процессов и более точной работы с пациентом.</p> <h3>Пациент обходит систему</h3> <p>Один из самых заметных сдвигов заключается в том, что пациент перестает быть пассивным участником процесса и все чаще сам начинает управлять своим маршрутом. Цифровые интерфейсы становятся первой точкой входа в медицину: человек анализирует симптомы, отслеживает показатели, сравнивает варианты терапии, получает рекомендации и только потом выходит на очную консультацию. По сути, медицинская система все чаще начинается не с регистратуры и даже не с врача, а с экрана смартфона.</p> <p>На этой основе производители лекарств и цифровые платформы стремятся выстроить прямые отношения с пациентом, обходя часть традиционных посредников. И логика здесь понятна: кто владеет интерфейсом, тот получает и данные, и внимание пользователя, и возможность управлять следующим шагом. Именно поэтому Eli Lilly запустила LillyDirect, где телемедицина и доступ к терапии соединены в одну цепочку. Pfizer развивает PfizerForAll, объединяя запись к врачу, вакцинацию и информацию о лечении. Особенно показательна динамика вокруг препаратов класса GLP-1: они уже активно входят в модели подписки, ритейла и персонализированного сопровождения. Компании вроде Rho Nutrition нормализуют подписочный подход к здоровью, а Amazon через One Medical последовательно собирает в единую систему консультации, маршрутизацию и терапию. В результате единица конкуренции смещается: раньше она проходила через дистрибуцию, теперь — через цифровую точку входа в систему.</p> <h3>ИИ ценен в клинике прежде всего за автоматизацию рутинных задач</h3> <p>При этом один из самых устойчивых мифов о медицинском ИИ до сих пор связан с тем, будто его главная задача — заменить врача в принятии клинических решений. На практике все прозаичнее и, возможно, важнее. Самый быстрый и понятный эффект ИИ сегодня достигается там, где он снимает административную нагрузку.</p> <p>Речь идет о цифровых копилотах, встроенных в электронные медицинские записи. Такие системы автоматически фиксируют разговор врача с пациентом, формируют черновики документов, структурируют данные визита, помогают в подготовке к приему и частично снимают нагрузку с персонала. Именно здесь рынок демонстрирует устойчивый и уже вполне зрелый интерес. Nuance, приобретенная Microsoft, развивает DAX как один из самых известных ambient-scribe-инструментов. Epic внедряет ИИ-функции для работы с данными и сопровождения приема. Mayo Clinic использует ambient AI scribes для снижения нагрузки на врачей и медперсонал.</p> <p>На первый взгляд это может показаться не самым эффектным сценарием, потому что он лишен футуристичности. Но именно он меняет повседневную экономику медицины. Врач получает обратно время, которое раньше уходило на документацию. Пациент — больше внимания. Система — рост производительности без прямого увеличения штата. И, что особенно важно, для медицинских работников такой цифровой контур постепенно становится не преимуществом, а новым стандартом рабочего процесса. Те организации, которые не будут внедрять подобные инструменты, рискуют проиграть не только в эффективности, но и в борьбе за кадры.</p> <h3>Клиника становится распределенной сетью помощи</h3> <p>Еще один важный сдвиг связан с тем, что медицинская помощь постепенно перестает быть жестко привязанной к стенам стационара. Если часть наблюдения, лечения и контроля можно безопасно перенести за пределы больницы, меняется сама архитектура системы здравоохранения.</p> <p>Поэтому сегодня активно развиваются виртуальные отделения, модели hospital-at-home и системы удаленного мониторинга. Их задача не в том, чтобы «отменить» стационар, а в том, чтобы перераспределить нагрузку, сократить сроки пребывания, ускорить выписку и сделать помощь более гибкой. NHS England развивает виртуальные госпитали как системную программу. Mayo Clinic Advanced Care at Home демонстрирует, что стационарный уровень помощи может оказываться на дому в формате полноценной сервисной модели. Отдельную роль в этом играют носимые устройства: Apple Watch, Oura, WHOOP и другие решения постепенно превращают здоровье в режим непрерывного наблюдения, а не эпизодического контакта с медициной.</p> <p>И здесь, пожалуй, проявляется один из самых важных сдвигов: клиника перестает быть только местом, куда приходит пациент, и становится системой постоянного сопровождения. Она все больше определяется данными, каналами связи, протоколами реагирования и способностью здравоохранения поддержать пациента вне физической инфраструктуры. Впрочем, важно не романтизировать эту модель. Домашняя помощь масштабируется только там, где вместе работают технологии, логистика, стандарты маршрутизации, поддержка родственников и устойчивая организационная схема. Иначе даже очень современное цифровое решение рискует остаться красивой, но не до конца жизнеспособной конструкцией.</p> <h3>Фарма и биотех борются не только за молекулы, но и за интеллектуальные ресурсы</h3> <p>Не менее заметные изменения происходят и в исследованиях. Причем здесь ИИ влияет не только на скорость вычислений, но и на саму логику конкурентной борьбы. Компании все чаще получают преимущество не просто за счет собственного продукта, а за счет умения работать со знаниями: собирать данные, быстро тестировать гипотезы, использовать алгоритмы, сокращать циклы принятия решений и строить цифровые исследовательские платформы.</p> <p>ИИ становится важным элементом конкурентоспособности фармацевтической отрасли. Он помогает ускорять поиск кандидатов, оптимизировать ранние этапы разработки, лучше интегрировать данные реальной клинической практики и повышать управляемость процесса. Речь, конечно, не идет о полностью автономном создании лекарств, но темп изменений уже очевиден.</p> <p>На этом фоне вполне закономерно выглядят примеры Isomorphic Labs и Novartis, которые развивают сотрудничество вокруг новой исследовательской модели на базе вычислительных платформ. Exscientia продвигает подходы к разработке молекул с применением ИИ и показывает, насколько можно сжимать путь от открытия к кандидату. Recursion последовательно развивает собственную платформенную модель и доводит программы до ранних клинических стадий. В результате фармацевтическая компания начинает конкурировать не только характеристиками препарата, но и качеством интеллектуальной экосистемы вокруг него: данными, аналитикой, цифровым сопровождением терапии и способностью быстро адаптировать решения под реальную практику.</p> <h3>Главное — дисциплина, а не технологии</h3> <p>И вот здесь становится особенно ясно: ключевой вывод всего этого сдвига связан не столько с технологиями, сколько с управлением. Сам по себе ИИ редко решает проблему. Решает способность организации изменить процессы, роли, метрики и систему ответственности так, чтобы новая технология действительно заработала внутри бизнеса.</p> <p>В здравоохранении это особенно заметно. Очень многие проекты выглядят убедительно на стадии презентации: организация покупает инструмент, запускает пилот, показывает несколько эффектных кейсов, но при этом не пересматривает механизмы принятия решений, не меняет маршруты, не связывает внедрение с KPI и не перестраивает повседневную операционную модель. В итоге технология добавляется поверх старой системы как дорогой цифровой слой — и не создает того эффекта, на который рассчитывали.</p> <p>На практике выигрывают те, кто встраивает ИИ в полную трансформацию процесса. Один чат-бот, один копилот или один аналитический модуль редко меняет экономику организации. А вот переработанная цепочка — маршрут пациента, документация, triage, координация сотрудников, анализ результатов — уже меняет. Поэтому для советов директоров и собственников вопрос сегодня должен звучать не «Есть ли у нас ИИ-проекты?», а «Какие именно процессы мы готовы перестроить так, чтобы ИИ дал реальный экономический и клинический эффект без потери качества, доверия и контроля?».</p> <p>По сути, в 2026 году успешными окажутся не те, кто громче говорит об ИИ, а те, кто откажется от россыпи разрозненных инициатив и сосредоточится на нескольких по-настоящему трансформирующих сценариях.</p> <h3>Что это означает для России</h3> <p>Российский контекст в этой теме уже нельзя описывать как набор первых экспериментов. ИИ в здравоохранении постепенно выходит из пилотной стадии и движется сразу по нескольким направлениям: поддержка врачебных решений, анализ медицинских изображений, автоматизация документооборота, дистанционный мониторинг и развитие нормативной базы. И это происходит на рынке, который уже достиг значительного масштаба, но по-прежнему остается сильно фрагментированным. <a href="https://reksoft.com/wp-content/uploads/2026/03/platform-economy-in-medicine-reksoft-consulting-medscan-report.pdf">По оценкам «Медскан» и «Рексофт»</a>, объем рынка медицины в России составляет около 10 трлн. рублей, сегмент коммерческой медицины — около 2,1 трлн. рублей, а к 2030 году он может вырасти до 4,3 трлн. рублей при среднегодовом темпе роста порядка 13%. При этом в стране насчитывается более 130 тыс. лицензий и около 50 тыс. коммерческих клиник, а сам рынок при доле около 5,5% ВВП остается низко консолидированным. В такой среде ИИ и платформенные модели становятся не просто направлением цифровизации, а инструментом роста/сборки рынка — через единые данные, бесшовный путь пациента, партнерские сети и более управляемую экономику медицинских сервисов.</p> <p>При этом для России эта тема имеет и дополнительную специфику. Если в глобальной повестке основной акцент делается на скорости внедрения, patient journey и новых бизнес-моделях, то в российской практике особенно важны вопросы регуляторной устойчивости, ответственности, защиты чувствительных данных и локализации инфраструктуры. Поэтому российский рынок, скорее всего, будет двигаться по той же траектории, что и мировой, но с более выраженным вниманием к контролю, стандартизации и безопасному внедрению. Это не тормозит развитие ИИ, а задает ему более жесткие правила взросления.</p> <h3>Заключение</h3> <p>Здравоохранение входит не просто в очередной этап цифровизации. По сути, мы наблюдаем более глубокую перестройку. Пациент становится активным участником маршрута лечения. Врач получает цифрового помощника, который снимает рутину и возвращает время для клинической работы. Медицинская помощь выходит за пределы стационара и превращается в распределенную сеть сопровождения. Фарма и биотех начинают конкурировать не только продуктом, но и данными, платформами, скоростью вычислений и качеством интеллектуальных сервисов. А управленческая зрелость становится важнее, чем сама по себе технологическая новизна.</p> <p>Так, ИИ становится одним из базовых слоев современной медицинской инфраструктуры. Поэтому разделение рынка пройдет не между теми, кто «использует ИИ», и теми, кто не использует. Оно пройдет между теми, кто сумеет встроить его в клиническую, производственную и организационную модель, и теми, кто ограничится внешней витриной инноваций. Первые получат преимущество в скорости, данных и качестве управления. Вторые рискуют сохранить видимость современности, но проиграть в реальной операционной эффективности.</p> <p>#IMAGE_234529#</p> В обсуждениях искусственного интеллекта в здравоохранении долгое время преобладали две крайности. Одни видели в ИИ … article Андрей Антонов, основатель и генеральный директор цифровой экосистемы регистрации медицинских изделий КРЕДО.ТЕХ DатаРу: затраты бизнеса на ИТ-оборудование вырастут на 28% из-за дефицита комплектующих https://www.itweek.ru/themes/detail.php?ID=234527 Thu, 26 Mar 2026 15:43:10 +0300 <p>Глобальный кризис компонентной базы кардинально меняет российский ИТ-рынок — оборудование дорожает, проекты замораживаются. По оценкам DатаРу, дефицит ИТ-оборудования к концу 2027 года составит 35%. Затраты бизнеса на его приобретение вырастут на 28%. Больше всего от кризиса пострадает региональный бизнес, который не увидит моментальный рост цен, но впоследствии столкнется с острейшим дефицитом ИТ-«железа», к которому будет не готов.</p> <p>Основным фактором, сформировавшим кризис на рынке серверного оборудования, стал повышенный интерес к технологии искусственного интеллекта. На протяжении последних лет техногиганты — Meta, Microsoft, Amazon и Alphabet — интенсивно наращивают инвестиции в дата-центры, необходимые для обучения и работы ИИ-моделей. Если в 2024 году совокупные капитальные расходы таких компаний на инфраструктуру составляли около $217 млрд, уже в 2026 году они могут вырасти до $650 млрд.</p> <p>В ответ на этот скачок спроса крупнейшие производители компонентной базы — Samsung, SK Hynix и Micron — переориентировали значительную часть производственных мощностей на выпуск высокоскоростной памяти HBM (High Bandwidth Memory), используемой в ускорителях искусственного интеллекта Nvidia и AMD. В результате производство традиционной оперативной памяти типа DRAM, применяемой в серверах и массовой электронике, сократилось. </p> <p>Для российского рынка это обернулось резким, скачкообразным ростом стоимости ключевых компонентов. Цены на ОЗУ DDR5 64 ГБ 5600 МГц взлетели в <nobr>4–5 раз,</nobr> DDR4, применяемой в ПК, серверах и ноутбуках, — в <nobr>2–3 раза,</nobr> а стоимость HBM (высокопроизводительная память для HPC-вычислений, ИИ, а также поддержки графики), по прогнозам, увеличится на 70% в 2026 году. Стоимость твердотельных накопителей (SSD) в отдельных категориях выросла на <nobr>30–100%.</nobr></p> <p>Волатильность цен и нестабильность поставок станет новой нормой для ИТ‑сектора. Быстро компенсировать возникший разрыв в потребности производственных мощностей невозможно: строительство и запуск новых линий занимает годы. А по мере того, как индустрия все глубже интегрирует искусственный интеллект в бизнес‑процессы, борьба за ключевые компоненты будет только усиливаться. </p> <p>Такое положение дел на рынке трансформировало порядок исполнения обязательств на рынке. Многие глобальные вендоры уже включают в контракты положения, позволяющие в одностороннем порядке менять цены или вовсе отменять заказы даже после их размещения в случае дефицита компонентов или непредвиденного роста производственных затрат.</p> <p>«В таких условиях фиксация стоимости ИТ-„железа“ даже на <nobr>3–4</nobr> недели — уже удача. Ждать возврата прежних цен бесполезно — бизнесу придется пересматривать подход к реализации ИТ-инициатив. Фактором принятия решения для клиента станет не цена, а надежность поставщика, прозрачность и способность выстраивать логистику в условиях нестабильности», — прокомментировал ситуацию Роман Гоц, генеральный директор ГК DатаРу.</p> <p>Компании, реализующие долгосрочные ИТ‑проекты, все чаще будут прибегать к гибким стратегиям закупок и модернизации инфраструктуры: например, к использованию серверных платформ с памятью предыдущего поколения DDR4, которая по‑прежнему значительно дешевле — в среднем в <nobr>2-2,5</nobr> раза в сравнении с DDR5 при сопоставимом объеме. </p> <p>Будут пересмотрены подходы к хранению данных, к примеру, в пользу многоуровневой архитектуры хранения, при которой часть «холодных» данных переносится на ленточные библиотеки, позволяя освободить дорогостоящие дисковые ресурсы. В целом сегменты ИТ‑инфраструктуры, менее зависимые от объемов оперативной памяти — такие как сетевое оборудование, SAN‑сети и ленточные библиотеки — окажутся вновь востребованы, поскольку остаются относительно стабильными по цене. В условиях ограниченных бюджетов многие организации начнут ставить в приоритет инвестиции именно в них. </p> <p>Наконец, ожидается рост спроса на облачные платформы. Значительная часть облачной инфраструктуры была построена до текущего скачка цен на комплектующие, и в ряде сценариев аренда вычислительных ресурсов оказывается экономически более эффективной, чем расширение собственной инфраструктуры.</p> <p>В целом же стратегические инициативы, которые требуют большого финансирования, но имеют отложенный эффект (например, беспилотный транспорт, часть ИИ-инициатив), окажутся пересмотрены или, вероятно, заморожены. Фокус сместится на проекты с понятной экономической ценностью и быстрыми результатами. </p> <p>«От кризиса пострадают все. Прежде всего, ситуация коснется нового „железа“ и новых технологий. В течение года-двух закончатся складские запасы, и под удар попадут те, кто выпускает локальное оборудование на накопленных резервах. Затем под удар попадет сегмент прикладного оборудования и ПО. Причем если федеральные заказчики, которые уже сейчас видят рост цен, могут успеть пересчитать экономику проектов, адаптироваться и запустить их реализацию, исходя из новых реалий, регионы ожидает „двойной удар“. Сначала плавный, но сильный рост цен из-за удаленности и наличия каких-то остатков на локальных складах, а затем — острейший дефицит комплектующих и оборудования в том виде и количестве, что необходим для реализации проектов», — продолжил Роман Гоц.</p> Глобальный кризис компонентной базы кардинально меняет российский ИТ-рынок — оборудование дорожает, проекты замораживаются … message M1Cloud: изменения требований бизнеса к сервис-провайдингу в 2026 году https://www.itweek.ru/themes/detail.php?ID=234526 Thu, 26 Mar 2026 15:41:26 +0300 <p>Сегодня сервис-провайдер — это не просто площадка для размещения виртуальных машин, а партнер по устойчивому росту бизнеса в условиях быстро меняющегося и ограниченного по ресурсам ИТ-рынка. Владимир Лебедев, директор по развитию бизнеса сервис-провайдера M1Cloud, рассказал о том, что сегодня для бизнеса на первый план выхолит не стоимость ядер и гигабайт, а способна ли инфраструктура провайдера выдержать стратегические цели заказчиков, регуляторные требования и дефицит оборудования в горизонте нескольких лет. Бизнес смотрит на облако как на управляемый сервис и реальную готовность масштабироваться под бизнес-планы компании.</p> <p>Если еще несколько лет назад в основе подхода к облачным провайдерам лежал жестко формализованный SLA, однако сегодня отдельное внимание уделяется аварийной практике: пост-мортемы, регламенты эскалации, работа с корневыми причинами, что снижает вероятность повторения инцидентов и защищает бизнес от регулярных простоев.</p> <p>Для компаний из регулируемых отраслей и сегмента enterprise сегодня критична не только надежность, но и соответствие нормативным требованиям, то есть на базе каких дата-центров провайдер строит инфраструктуру, резервирование ключевых систем и устойчивость к единичным отказам. Для бизнеса это выражается в минимизации риска простоя критичных сервисов и возможности строить отказоустойчивые схемы с разнесением по разным площадкам, не выходя за рамки юрисдикции РФ. Сертификация, соблюдение требований по защите персональных данных и отраслевых стандартов позволяют не вступать в конфликт с внутренней службой ИБ и комплаенсом, а использовать облако как естественное продолжение корпоративной ИТ-среды.</p> <p>Новый взгляд на поддержку как сервис для бизнеса, а не только для ИТ-подразделения. Круглосуточная линия, выделенные сервис-менеджеры и доступ к архитекторам позволяют опираться на внешнюю экспертизу при принятии архитектурных решений. Это особенно заметно на этапах миграции и быстрых изменений: команда провайдера участвует в аудите текущей инфраструктуры, проектировании целевой архитектуры и совместной дорожной карте переноса систем. Для бизнеса это снижает риски срыва сроков, уменьшает нагрузку на внутреннюю команду и сокращает время до получения эффекта от облака — будь то запуск нового продукта, выход в новый регион или повышение отказоустойчивости существующих сервисов.</p> <p>Отдельная зона внимания — предсказуемость затрат. Модель ценообразования строится так, чтобы финансовое планирование было прозрачным для бизнеса и контроллинга. Заказчик видит детализацию по ресурсам, лицензиям, поддержке и дополнительным сервисам и понимает, как изменятся затраты при росте нагрузки или включении новых проектов. Такой подход позволяет интегрировать облачные расходы в бюджетный цикл компании, планировать совокупную стоимость владения на длительный период. Облако становится управляемым элементом с точки зрения затрат.</p> <p>В условиях дефицита серверного и сетевого оборудования, а также нестабильности поставок, способность провайдера масштабироваться под планы бизнеса превращается в фактор стратегической устойчивости. Сервис-провайдер заранее резервирует мощности, выстраивает долгосрочные отношения с поставщиками, планирует жизненный цикл платформ и обновление оборудования. Для бизнеса это означает, что проекты масштабирования — будь то рост пользовательской базы, запуск маркетплейса или цифровизация промышленного контура — не упрется в физическое отсутствие ресурсов. Возможность быстро нарастить мощности, задействовать гибридные сценарии и при этом сохранить управляемость затратами дает компании пространство для роста даже в ограниченной технологической среде.</p> <p>Облачная инфраструктура не должна ограничивать стратегию бизнеса, а, наоборот, должна эффективно поддерживать ее. Опыт работы с инцидентами, соответствие требованиям, сильная поддержка, прозрачное ценообразование и готовность масштабироваться в условиях дефицита «железа» работают в связке и превращают облако в устойчивый фундамент цифровой трансформации компании.</p> Сегодня сервис-провайдер — это не просто площадка для размещения виртуальных машин, а партнер по устойчивому … message РИКИТЛАБ запустила комплексную модель сопровождения производственных ИТ-систем https://www.itweek.ru/themes/detail.php?ID=234525 Thu, 26 Mar 2026 15:40:06 +0300 <p>ИТ-компания РИКИТЛАБ объявила о запуске комплексного сервиса по сопровождению производственных ИТ-систем. Решение ориентировано на предприятия массового производства (FMCG, фармацевтику, промышленность и другие отрасли), в том числе задействованные в транснациональных цепочках поставок на рынках России, СНГ и стран ЕАЭС.</p> <p>Сервисная модель охватывает все элементы производственной ИТ-инфраструктуры: планирование ресурсов предприятия (ERP), оперативное управление производством (MES), системы маркировки (Track & Trace) и управление складом (WMS). Под техническое сопровождение попадают все критические звенья цепочки — от приемки сырья на склад до отгрузки готовой продукции.</p> <p>Техническая поддержка организована по трехуровневой модели (L1—L2—L3). Первый и второй уровни включают прием обращений, обработку типовых запросов и инцидентов, консультацию пользователей, мониторинг стабильности сервисов, выявление сбоев, а также взаимодействие с внешними участниками (в том числе с регуляторами, например ЦРПТ). Третий уровень обеспечивает администрирование серверов, приложений, баз данных и интеграционных сервисов. А также восстановление после сбоев, обновление ПО, управление сертификатами, выполнение требований ИБ. В рамках L3 организовано взаимодействие с вендорами по вопросам устранения инцидентов и реализации изменений. Технологической основой сервисной модели выступает платформа для управления ИТ-услугами и активами TIKITRIK.</p> <p>«С ростом цифровизации производственных процессов и расширением требований к маркировке продукции повышаются требования к устойчивости ИТ-систем. Сбои в таких системах могут приводить к остановке производственных процессов, масштабным финансовым и репутационным потерям. Комплексное сервисное сопровождение, построенное по трехуровневой модели, позволяет минимизировать эти риски за счет единого контура управления инцидентами и изменениями на базе платформы TIKITRIK», — отметил генеральный директор РИКИТЛАБ Артем Хижний.</p> ИТ-компания РИКИТЛАБ объявила о запуске комплексного сервиса по сопровождению производственных ИТ-систем. Решение … message Как локальные домены меняют карту Рунета https://www.itweek.ru/themes/detail.php?ID=234514 Thu, 26 Mar 2026 00:00:00 +0300 <p><em>В национальных доменных зонах .ru и .рф почти не осталось коротких свободных имен. </em><em>Обсудим</em><em>, почему в этой ситуации бизнес все чаще смотрит в сторону локальных доменов и кому они действительно подходят</em><em>.</em></p> <p>В зоне .ru, которая остается основой для большинства проектов, найти короткое, звучное и при этом свободное имя становится задачей со звездочкой. В зоне .рф ситуация еще острее: согласно совместному <a href="https://www.vedomosti.ru/business/articles/2026/03/02/1179938-kirillitsa-vpervie-operedila-latinitsu">исследованию</a> сервисов «Онлайн патент» и Рег.решения, среди популярных слов, защищенных товарными знаками, домены заняты в 91% случаев. Рынок первичных регистраций в популярных зонах близок к насыщению.</p> <p>На этом фоне вторичный рынок доменов закономерно реагирует ростом цен. В 2025 году, по внутренним данным Руцентра, средний чек в зоне .рф достиг 66,2 тыс. руб., а в .ru — 72,4 тыс. руб. Бизнес стал чаще смотреть на альтернативные доменные зоны. В первую очередь — локальные, связанные с геопривязкой. Например, по итогам минувшего года наибольший рост показали зоны .москва (14%) и .moscow (5%). Такие зоны открывают новое окно возможностей в условиях дефицита имен без крупных финансовых затрат.</p> <h3>Что такое локальные домены</h3> <p>Локальные домены (или региональные доменные зоны) — это пространства имен, привязанные к конкретному географическому объекту: городу, региону или области. В мировой системе доменных имен они наряду с тематическими доменами относятся к новым доменам верхнего уровня (New gTLD).</p> <p>В Рунете к таким зонам прежде всего относятся кириллические и латинские домены для крупнейших городов и субъектов РФ. Самые популярные из них:</p> <ul> <li> .москва и .moscow — для проектов, ориентированных на столичный регион;</li> <li> .спб.рф и .spb.ru — для Санкт-Петербурга и Ленинградской области;</li> <li> .tatar — для Республики Татарстан.</li> </ul> <p>Главное отличие локальных зон от национальных (.ru, .рф) — их целевая аудитория. Если .ru и .рф позиционируются как общенациональные и понятные всей стране, то локальные домены изначально создавались как инструмент для усиления присутствия бизнеса в конкретном городе.</p> <p>Сегодня, в условиях дефицита коротких имен в популярных зонах, они превращаются из нишевого инструмента в полноценную доступную альтернативу.</p> <h3>Почему в локальных зонах есть что ловить</h3> <p>Логика проста: если в популярном доменном пространстве становится тесно, компании ищут альтернативу. И у этого движения есть вполне прагматичные основания.</p> <ul> <li><strong>Доступность свободных имен. </strong>В локальных зонах ситуация с первичным рынком принципиально иная. Здесь по-прежнему можно зарегистрировать красивое, короткое и осмысленное имя за стандартную цену в пределах пары тысяч рублей в зависимости от зоны и регистратора. Если в .рф нужный адрес уже занят и выставлен на продажу за сотни тысяч рублей, высока вероятность, что в .moscow или кириллической .москва он может быть еще свободен.</li> <li><strong>Короткие адреса без переплаты. </strong>Спрос на локальные домены пока существенно ниже, чем на общенациональные. В 2025 году доля проданных доменов в региональных зонах не превысила и 1%. Это создает уникальную возможность: бизнес может получить одно- или двусложное имя, которое в .ru или .рф давно стало бы предметом торгов.</li> <li><strong>Ценовой арбитраж. </strong>Вторичный рынок региональных зон только формируется. Цены здесь значительно ниже, чем в премиальной .рф. По данным Руцентра, средняя стоимость сделки в .moscow в 2025 году составила 11,9 тыс. рублей, что в шесть раз ниже, чем в .ru и в 5,5 раза ниже, чем в .рф. При этом потенциал роста очевиден: по мере насыщения основных зон интерес к локальным доменам будет усиливаться.</li> <li><strong>Маркетинговый бонус. </strong>Для бизнеса, работающего в конкретном городе или регионе, домен с географической привязкой работает как дополнительный сигнал доверия. Посетитель сразу понимает: компания «своя», ориентирована на местную аудиторию.</li> </ul> <p>Существует стереотип, что домен в зоне .москва или .спб.рф не даст сайту ранжироваться в других городах. Это не совсем так. Для поисковых систем региональная привязка домена — это один из множества сигналов, но далеко не единственный и не самый главный.</p> <p>Действительно, для поиска «доставка цветов Москва» сайт в зоне .москва получит небольшое преимущество в глазах поисковика, так как домен четко соответствует региону. Однако если вы московская компания, но хотите клиентов в Санкт-Петербурге, достаточно создать отдельный региональный раздел на сайте или заполнить карточку организации в Яндекс Бизнесе с указанием работы на Санкт-Петербург. Домен не станет фатальным препятствием для продвижения в других регионах.</p> <h3>Кому локальный домен противопоказан</h3> <p>Было бы ошибкой представлять локальные зоны как универсальное решение для всех. Есть четкие критерии, при которых выбор регионального домена может стать стратегическим просчетом.</p> <ul> <li><strong>Федеральные и международные проекты. </strong>Если бизнес планирует масштабирование на всю страну или выход на глобальные рынки, привязка к конкретному городу в домене может запутать аудиторию. Для таких проектов .ru или .рф остаются приоритетом.</li> <li><strong>Сферы с высокими требованиями к статусу. </strong>Банки, крупные холдинги, государственные структуры — здесь консерватизм аудитории и регуляторов диктует необходимость использования «классических» зон.</li> <li><strong>Бизнес, не связанный с географией. </strong>Онлайн-школа, работающая по всей России, или интернет-магазин с доставкой в любой регион вряд ли выиграют от московского или петербургского домена. Скорее, это создаст ненужную ассоциативную привязку, которая может отпугнуть клиентов из других регионов.</li> </ul> <h3>Что делать бизнесу в 2026 году</h3> <p>Рынок доменных имен сегодня предлагает бизнесу четкую развилку.</p> <ul> <li> <strong>Первый путь</strong> — борьба за премиальные активы в зонах .ru и .рф. Это требует серьезных бюджетов, особенно на вторичном рынке, и готовности к тому, что идеальное имя может быть занято или стоить заоблачных денег. Этот путь подойдет крупным игрокам, которым домен в этих зонах нужен под конкретные стратегические цели.</li> <li> <strong>Второй путь</strong> — освоение региональных и тематических зон. Здесь можно получить качественное имя без переплаты, а в некоторых случаях — с маркетинговым бонусом в виде географической идентификации.</li> <li><strong>Оптимальная стратегия для большинства компаний</strong> — комбинированный подход. Основной проект может располагаться в «центральной» зоне, а региональные представительства, акции или спецпроекты — в локальных. Это позволяет одновременно сохранять статусность и гибко работать с местной аудиторией.</li> </ul> <p>#IMAGE_234515#</p> В национальных доменных зонах .ru и .рф почти не осталось коротких свободных имен. Обсудим, почему в этой ситуации … article Георгий Казаров, руководитель отдела доменов Руцентра Бум ИИ настиг CPU, которые снова стали “модными” https://www.itweek.ru/themes/detail.php?ID=234470 Thu, 26 Mar 2026 00:00:00 +0300 <p><em>Видеокарты и микросхемы NAND — не единственные компоненты вычислительной техники, которые сейчас продаются как горячие пирожки благодаря буму в области искусственного интеллекта. Руководители AMD и Intel отмечают, что спрос на центральные процессоры (</em><em>CPU</em><em>) х64 значительно вырос из-за общего тренда создания фабрик ИИ и, в частности, благодаря переходу на выполнение рабочих нагрузок ИИ-инференса и агентного ИИ, сообщает портал </em><em>HPCwire</em><em>.</em></p> <p>До настоящего момента графические процессоры (GPU) были бесспорными звездами шоу аппаратного обеспечения для ИИ благодаря своей способности обрабатывать тяжелые вычислительные задачи, необходимые современным нейронным сетям. Это особенно актуально на этапе обучения, когда GPU с тысячами ядер могут выполнять параллельное умножение матриц, необходимое для преобразования обучающих данных во взвешенные параметры. Занимая львиную долю рынка центров обработки данных, Nvidia пожинает плоды бума ИИ, который сделал ее первой в мире компанией с капитализацией в 5 трлн. долл.</p> <p>По мере того, как в начале 2025 г. стихал первоначальный ажиотаж вокруг ИИ, внимание переключалось с обучения моделей ИИ на ИИ-инференс. Также появилась новая рабочая нагрузка — агентный ИИ. Внезапно операторы ИИ столкнулись с перспективой параллельного запуска сотен или тысяч полуавтономных агентов ИИ. Это создало новое узкое место в инфраструктуре, связанное со скоростью перемещения данных из памяти в GPU и обратно. Ненасытный спрос на высокоскоростную память (HBM) оказал давление на мировые запасы NAND, что привело к дефициту NVMe-накопителей и значительному росту цен.</p> <p>До сих пор в нашем рассказе скромный CPU не играл главной роли. Но мы видим, что по мере развития ИИ требования к инфраструктуре снова смещаются в сторону оптимального выбора CPU.</p> <p>Причина в том, что, хотя CPU нечасто напрямую запускают модели ИИ, они отвечают за выполнение многих других задач, необходимых для работы современных нейронных сетей. Среди них такие задачи, как предварительная обработка данных, оркестрация моделей ИИ и планирование распределения наиболее ресурсоемких задач между группами GPU. Неслучайно Nvidia, AMD и другие компании создают «суперчипы», которые объединяют GPU (или другие ИИ-ускорители) с CPU в одном чипе.</p> <p>В некоторых случаях CPU являются предпочтительным оборудованием для выполнения ИИ-инференса, особенно для небольших моделей, которые будут работать на периферии. CPU меньше больших современных GPU, и у них более скромные требования к энергопотреблению и охлаждению. По мере развития революции в области агентного ИИ и стремления организаций к внедрению ИИ, они всё чаще предпочитают запускать свои модели ИИ локально и на периферии, а не в огромных облачных дата-центрах, отчасти для минимизации перемещения данных, которое требует больших вычислительных затрат.</p> <p>«В этом году CPU снова стали „крутыми“, — заявил на недавней конференции Morgan Stanley Technology, Media & Telecom Conference в Сан-Франциско исполнительный вице-президент и финансовый директор Intel Дэвид Зинснер. — Мы давно считаем, что CPU должны присутствовать в этих дата-центрах наряду с GPU».</p> <p>По его словам, общий рынок CPU вырос на <nobr>20-30%</nobr> в 2025 г. и, как ожидается, продолжит расти в 2026 г. «Мы начинаем видеть, как клиенты в этом сегменте запрашивают долгосрочные соглашения, что говорит о перспективах этого направления, — отметил Зинснер. — Они рассматривают это на перспективу от трех до пяти лет и хотят закрепить за собой поставки».</p> <p>Это мнение поддержала генеральный директор AMD Лиза Су, которая также выступила на конференции Morgan Stanley. «Я очень, очень рада развитию сегмента рынка GPU, — сказала она. — И спрос на CPU на самом деле намного превзошел мои ожидания».</p> <p>Конец <nobr>2025-го</nobr> и начало 2026 г. ознаменовались значительным спросом на высокопроизводительные вычисления, отметила Су, упомянув предстоящий запуск MI450, графического процессора AMD следующего поколения, который должен выйти во второй половине 2026 г.</p> <p>Но GPU — не единственный тип чипов, пользующийся спросом благодаря ИИ. «Вообще говоря, мы наблюдаем значительный спрос на CPU в результате роста спроса на задачи инференса, — сказала Су. — Мы всегда считали, что вычислительная инфраструктура гетерогенна, и вам понадобятся CPU, CPU, ПЛИС и другие компоненты. Это действительно воплощается в жизнь в 2026 г.».</p> <p>Intel и AMD представили на выставке Embedded World 2026 в Нюрнберге новые процессоры, которые ориентированы на выполнение рабочих нагрузок ИИ на периферии. Серия Intel Core 2 разработана для промышленных и периферийных приложений, требующих более высокой многопоточной производительности и меньшей задержки. А новый процессор AMD Ryzen AI Embedded P100 Series ориентирован на промышленные ПК, физический ИИ и медицинские приложения.</p> <p>Миру определенно нужно больше ускорителей ИИ для выполнения сложных задач, которые требует ИИ. Триллионы долларов инвестируются в инфраструктуру для обеспечения работы новых рабочих нагрузок ИИ, и значительная часть этих денег пойдет на GPU и другие XPU от Nvidia, AMD, Intel и др. Но, будучи процессорами общего назначения, способными выполнять широкий спектр задач, скромные CPU также будут часто упоминаться в связи с развитием дата-центров в течение следующих четырех лет. Единственным сюрпризом здесь может быть то, что всплеск спроса на CPU оказался неожиданным.</p> Видеокарты и микросхемы NAND — не единственные компоненты вычислительной техники, которые сейчас продаются как … message ИСИЭЗ НИУ ВШЭ: цифровая трансформация машиностроения https://www.itweek.ru/themes/detail.php?ID=234518 Wed, 25 Mar 2026 16:36:24 +0300 <p>Институт статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ оценил текущий и перспективный спрос организаций машиностроения на цифровые технологии и решения, способствующие автоматизации процессов производства, а также общей цифровой трансформации отрасли.</p> <p>На фронтире цифровой трансформации машиностроения — отрасли, формирующей основу цифровизации всей экономики, — находятся станки с ЧПУ. Эту технологию интегрировали порядка 59% обследованных компаний, из них более половины применяют ее широко, треть — ограниченно, но планируют масштабировать.</p> <p>На второе и третье места по востребованности вышли системы цифрового проектирования и моделирования, а также системы автоматизации производственных процессов: их применяет примерно каждое второе предприятие отрасли (55% и 48% соответственно). Замыкают топ-5 по уровню распространенности технологии Интернета вещей (36%) и аддитивные установки (3D-печать) (28% обследованных организаций).</p> <p>Среди всех рассмотренных цифровых решений наименее востребованы на предприятиях машиностроительного комплекса технологии больших данных, цифровые двойники и беспилотные системы (их используют 16%, 12% и 7% организаций соответственно). Между тем первые две технологии из данной триады имеют довольно высокий потенциал распространения: по 4% обследованных организаций в ближайшие три года планируют их внедрение и еще около трети в каждом случае считают применение этих цифровых решений перспективным для своих задач.</p> <p>Пока небольшой круг предприятий машиностроения использует технологии искусственного интеллекта (ИИ), среди которых наиболее востребованы решения для обработки визуальных данных, включая компьютерное зрение (их внедрили 14% опрошенных), а наименее — ИИ-агенты (3%). При этом еще порядка трети организаций имеют среднесрочные планы по внедрению ИИ-технологий или видят большую перспективность данных решений.</p> <p>Внедрение цифровых технологий на предприятиях машиностроения в <nobr>2022–2024 гг.</nobr> главным образом затронуло операционный уровень: производство (23%) и администрирование (22%). В среднесрочной перспективе темпы цифровой трансформации бизнес-процессов могут вырасти, а ее фокус может сместиться в сторону стратегического планирования и управления (это прогнозируют около трети компаний).</p> <p>Внедрение цифровых технологий на предприятиях машиностроения сдерживают главным образом ресурсные и инфраструктурные ограничения. Основным препятствием 57% обследованных организаций считают нехватку свободных средств на модернизацию, обновление технологий и развитие инфраструктуры.</p> Институт статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ оценил текущий и перспективный спрос … message Новый релиз CommuniGate Pro 6.5.5: усиление стабильности и безопасности для крупного бизнеса https://www.itweek.ru/themes/detail.php?ID=234516 Wed, 25 Mar 2026 11:24:51 +0300 <p>Российский разработчик АО «СБК» выпустил продуктовый релиз платформы унифицированных коммуникаций CommuniGate Pro 6.5.5. В новой версии основное внимание уделено повышению стабильности работы в высоконагруженных средах, усилению безопасности и расширению функциональности веб-интерфейса.</p> <p>Релиз включает более 30 доработок. Для конечных пользователей ключевые изменения коснулись веб-интерфейса. В календаре появился индексированный поиск событий с выделенной страницей результатов, фильтрами и удобной навигацией. Упрощена работа с адресатами: теперь можно вставлять несколько контактов в поле «Кому» через запятую или точку с запятой. Также добавлена возможность удаления писем по гибко настраиваемым правилам.</p> <p>В версии реализован новый раздел настроек безопасности с опциями управления двухфакторной аутентификацией (2FA). Пользователи теперь могут менять пароль самостоятельно, без обращения к администратору. Улучшена интеграция: добавлена поддержка поиска во внешних справочниках по протоколу AirSync.</p> <p>Особое внимание в релизе 6.5.5 уделено повышению стабильности работы с календарями. Устранены сбои при обработке исключений из повторяющихся событий, а также исправлены проблемы с отображением занятости участников и ресурсных ящиков при создании серий встреч. Это важно для крупных организаций с интенсивным графиком и сложной логикой планирования.</p> <p>Проведена оптимизация кода: устранены утечки памяти, повышена устойчивость кластерных конфигураций, усилена защита от потенциальных уязвимостей.</p> <p>«Улучшения в новом релизе CommuniGate Pro в первую очередь ориентированы на крупный бизнес. Доработки в версии значительно повышают стабильность, безопасность и производительность в средах с высокой нагрузкой, включая делегированные доступы, повторяющиеся события и интеграцию с внешними системами. Мы продолжим развивать продукт и планомерно добавлять в него новые востребованные функции», — прокомментировал Борис Моисеев, директор департамента разработки CommuniGate Pro.</p> <p>Обновление CommuniGate Pro 6.5.5 уже доступно для скачивания на официальном сайте компании.</p> Российский разработчик АО «СБК» выпустил продуктовый релиз платформы унифицированных коммуникаций CommuniGate … message Процессная аналитика вышла за рамки Process Mining https://www.itweek.ru/themes/detail.php?ID=234495 Wed, 25 Mar 2026 00:00:00 +0300 <p>За последние три года аналитика бизнес-процессов (Process Mining) перестала восприниматься как нишевой инструмент для отдельных инициатив. Всё чаще такие решения становятся частью системной работы компаний по анализу и повышению эффективности внутренних процессов.</p> <p>Эту тенденцию подтверждают и исследования. <a href="https://processmi.com/blog/process-mining-v-rossii-2026-nezavisimoe-issledovanie-rynka-ot-processmi/">Независимый обзор</a> российского рынка Process Mining показывает, что технология постепенно закрепляется в технологическом контуре бизнеса. Схожие выводы содержатся и в <a href="https://www.tadviser.ru/index.php/%D0%A1%D1%82%D0%B0%D1%82%D1%8C%D1%8F:%D0%98%D1%81%D1%81%D0%BB%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5:_Process_&_Task_Mining_%D0%BF%D0%B5%D1%80%D0%B5%D1%81%D1%82%D0%B0%D0%BB%D0%B8_%D0%B1%D1%8B%D1%82%D1%8C_%D1%85%D0%B0%D0%B9%D0%BF%D0%BE%D0%BC_%D0%B8_%D1%81%D1%82%D0%B0%D0%BB%D0%B8_%D1%80%D0%B0%D0%B1%D0%BE%D1%87%D0%B8%D0%BC_%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D0%BE%D0%BC_%D0%B1%D0%B8%D0%B7%D0%BD%D0%B5%D1%81%D0%B0">оценке зрелости рынка</a> Process Mining и Task Mining (аналитики бизнес-операций) в России от TAdviser и Axenix.</p> <p>При этом отмечается динамичное развитие <a href="https://www.itweek.ru/themes/detail.php?ID=231803">Task Mining</a> — направления, которое позволяет анализировать выполнение операций на уровне действий сотрудников. Фактически речь идёт о формировании более широкого класса технологий — процессной аналитики, объединяющей анализ бизнес-процессов и бизнес-операций.</p> <p>На мой взгляд, именно это и становится главным изменением рынка: анализ процессов больше не сводится к одной технологии, а постепенно превращается в набор инструментов, позволяющих понять, как на самом деле выполняется работа внутри организации, и определить, какие её этапы можно оптимизировать и автоматизировать с максимальным экономическим эффектом.</p> <h3>Что сегодня понимают под процессной аналитикой</h3> <p>Если попытаться описать это направление шире, сегодня процессная аналитика — это целый набор технологий, позволяющих анализировать фактическое выполнение процессов и операций на основе цифровых данных.</p> <p>С одной стороны, <a href="https://www.itweek.ru/themes/detail.php?ID=234200">Process Mining</a> работает с журналами событий информационных систем и помогает восстановить реальное выполнение бизнес-процессов: увидеть их структуру, выявить отклонения от регламентов, определить «узкие места» и причины задержек. Эволюция Process Mining привела к появлению мультипроцессной аналитики — подхода, позволяющего анализировать не отдельные процессы, а их взаимосвязь и влияние друг на друга, что дает возможность оценивать метрики на стыке процессов — например, время от оформления заказа до его фактической доставки. Такой подход позволяет уйти от искусственного объединения процессов и получить более точную и целостную картину операционной деятельности.</p> <p>С другой стороны, Task Mining позволяет анализировать выполнение операций на уровне действий сотрудников — фиксировать последовательность шагов, рассчитывать трудозатраты и выявлять рутинные операции, которые могут быть оптимизированы или автоматизированы.</p> <p>В совокупности эти технологии позволяют анализировать процессы сразу на нескольких уровнях — от движения задач между системами до конкретных действий сотрудников внутри операций.</p> <p>Именно такая комбинация инструментов и формирует современную процессную аналитику.</p> <h3>От анализа процессов к управлению ими</h3> <p>Расширение инструментов процессной аналитики меняет не только глубину анализа, но и саму логику работы. Если раньше акцент делался на ретроспективном анализе — изучении уже завершенных процессов и поиске причин отклонений, — то сегодня фокус внимания на управлении процессами здесь и сейчас.</p> <p>Современные решения позволяют анализировать выполнение процессов практически в режиме реального времени. Это дает возможность не только фиксировать проблемы постфактум, но и своевременно реагировать на отклонения: выявлять задержки, обнаруживать перегрузку сотрудников или этапы, где процесс начинает замедляться.</p> <p>В результате процессная аналитика постепенно превращается из инструмента диагностики в инструмент управления. Она помогает компаниям не просто понимать, как работают их процессы, но и активно влиять на их эффективность.</p> <h3>Интеллектуальная автоматизация процессов</h3> <p>Еще одно направление развития процессной аналитики связано с автоматизацией операций. Анализ фактического выполнения процессов позволяет выявлять повторяющиеся действия, рутинные операции и этапы, где сотрудники тратят значительное количество времени на ручную работу.</p> <p>Благодаря этому компании получают возможность более точно определять точки для оптимизации и автоматизации. Вместо того чтобы автоматизировать процессы на основе предположений или формальных регламентов, решения принимаются на основе реальных данных о том, как выполняется работа.</p> <p>Это особенно важно в условиях высокой сложности современных процессов, где один бизнес-процесс может включать десятки операций, выполняемых в разных системах и подразделениях. Процессная аналитика позволяет увидеть эту картину целиком и определить, какие участки дают наибольший эффект от автоматизации.</p> <h3>Новый этап развития процессной аналитики</h3> <p>Таким образом, процессная аналитика постепенно выходит за пределы своей первоначальной роли инструмента анализа процессов. Сегодня она становится основой для более широкого управления операционной эффективностью.</p> <p>Компании используют ее не только для того, чтобы понять, как работают их процессы, но и для того, чтобы управлять ими, находить точки для оптимизации и определять направления автоматизации.</p> <p>В этом смысле Process Mining или мультипроцессную аналитику уже нельзя рассматривать как единственные инструменты анализа процессов. Они становится частью более широкой экосистемы решений, которая включает анализ операций, мониторинг выполнения процессов и инструменты для повышения эффективности работы.</p> <p>Именно поэтому сегодня всё чаще именно о процессной аналитике как о самостоятельном направлении технологий управления процессами.</p> <p> #IMAGE_234496#</p> За последние три года аналитика бизнес-процессов (Process Mining) перестала восприниматься как нишевой инструмент для … article Александр Бочкин, генеральный директор “Инфомаксимум” Сократит ли ИИ рабочие места? Скорее, реорганизует https://www.itweek.ru/themes/detail.php?ID=234446 Wed, 25 Mar 2026 00:00:00 +0300 <p><em>Новое <a href="https://www.snowflake.com/en/lp/radical-roi-generative-ai/">исследование</a> Snowflake «</em><em>The</em> <em>ROI</em> <em>of</em> <em>Gen</em> <em>AI</em> <em>and</em> <em>Agents</em> <em>2026» показывает, что спрос на технологические вакансии смещается от базовых навыков к высокоуровневому управлению искусственным интеллектом, сообщает портал </em><em>ZDNet</em><em>.</em></p> <p>Глобальный опрос 2050 руководителей по всему миру показывает ряд сокращений в некоторых категориях ИТ-вакансий, но также и рост найма на те же самые должности. Из-за ИИ происходит сокращение рабочих мест, но те же самые профессии также выигрывают от внедрения ИИ. Например, 40% опрошенных руководителей сообщают о сокращении специалистов по ИТ-операциям благодаря автоматизации, в то же время 56% сообщают о дополнительном найме на эти должности. Еще 26% видят сокращения в сфере разработки ПО, но 37% также сообщают об увеличении найма разработчиков. Для аналитиков данных эти показатели составляют 37 к 37%.</p> <table> <tbody> <tr> <th> Должности</th> <th> Наблюдается сокращение рабочих мест</th> <th> Наблюдается увеличение рабочих мест</th> </tr> <tr> <td> ИТ-операции</td> <td> −40%</td> <td> +56%</td> </tr> <tr> <td> Разработка ПО</td> <td> −26%</td> <td> +38%</td> </tr> <tr> <td> Кибербезопасность</td> <td> −25%</td> <td> +46%</td> </tr> <tr> <td> Аналитика данных</td> <td> −37%</td> <td> +37%</td> </tr> </tbody> </table> <p>Что касается профессий вне ИТ, картина более проста — и для большинства менее драматична, за исключением персонала служб поддержки клиентов. В организациях, участвовавших в опросе, численность персонала в сфере обслуживания клиентов сократилась на 37%; при этом только 15% компаний увеличили набор персонала (можно списать это на ИИ, но аутсорсинг также может быть одной из причин сокращений).</p> <p>В производственных и логистических операциях 6% компаний сокращали штат, а 13% нанимали новых сотрудников. В маркетинге 16% сокращали штат, тогда как 12% нанимали новых сотрудников.</p> <p>Сравнивать напрямую эти тренды роста и сокращения рабочих мест не совсем корректно. «Мы наблюдаем реорганизацию работы, а не простое расширение или сокращение штата, — говорит Барис Гюльтекин, вице-президент Snowflake по ИИ. — ИИ берет на себя повторяющиеся, ручные задачи этих должностей. В то же время он создает совершенно новые обязанности, связанные с интеграцией ИИ, управлением, инжинирингом данных, безопасностью и контролем производительности. В этом смысле все не так однозначно, как кажется. Компании не просто сокращают или создают новые рабочие места. Они их перестраивают, чтобы поддерживать новые рабочие процессы, основанные на ИИ».</p> <h3>Эволюция, а не исчезновение</h3> <p>На вопрос о том, привел ли генеративный ИИ к созданию рабочих мест, их потере или и тому, и другому в их организациях, 42% ответили, что рабочие места были созданы благодаря генеративному ИИ, в то время как 11% указали на потерю рабочих мест. Еще 35% сообщили, что благодаря ИИ были и созданы, и сокращены рабочие места. Оставшиеся 13% заявили, что ИИ не оказал никакого влияния.</p> <p>В целом, согласно исследованию, 77% респондентов сообщили о создании рабочих мест, с сопутствующей потерей или без нее. По словам Гюльтекина, это указывает на то, что речь идет не столько об исчезновении должностей, сколько об их эволюции.</p> <p>«Как только ИИ выходит за рамки экспериментов, требования к навыкам меняются, — объясняет он. — Проведение пилотного проекта — это одно. Эксплуатация ИИ в масштабах предприятия — совсем другое. Это требует прочного фундамента данных, четких моделей управления, экспертных знаний в области инфраструктуры и людей, которые понимают, как отслеживать, оценивать и оптимизировать производительность моделей с течением времени».</p> <p>Согласно опросу, 35% организаций называют нехватку квалифицированных кадров основным препятствием на пути к успеху ИИ. «Это явный сигнал о том, что ограничением является уже не только технология ИИ, но и экспертиза, необходимая для обеспечения ее успеха на предприятии, — говорит Гюльтекин. — По мере того, как компании переходят к более продвинутым сценариям использования агентов, потребность в контроле возрастает. Кто-то должен обеспечивать качество данных, управлять рисками и гарантировать, что эти системы действуют ответственно. В этом смысле ИИ не устраняет необходимость в людях, а меняет ожидания относительно того, что эти люди должны знать».</p> <h3>Повышение спроса на высококвалифицированных специалистов</h3> <p>Данные свидетельствуют о том, что нынешняя ситуация с вытеснением ИИ рабочих мест в сфере технологий «сложнее, чем многие думают», отмечает он: «Исторически сложилось так, что крупные технологические сдвиги меняют структуру трудовой деятельности в большей степени, чем сокращают общую занятость. Мы наблюдаем аналогичную картину с генеративным и агентным ИИ. Некоторые задачи автоматизируются. В то же время растет спрос на высококвалифицированных специалистов в таких областях, как ИИ-операции, кибербезопасность, инжиниринг данных и управление».</p> <p>Кроме того, накопление опыта работы с ИИ приводит к росту числа рабочих мест. «Организации, которые продвинулись дальше в освоении ИИ, с большей вероятностью сообщают о его положительном влиянии на занятость, — отмечает Гюльтекин. — Это важный показатель. Он говорит о том, что вместо полного сокращения рабочих мест мы наблюдаем перераспределение талантов в сторону более стратегических, технических и связанных с ИИ ролей».</p> Новое исследование Snowflake «The ROI of Gen AI and Agents 2026» показывает, что спрос на технологические вакансии … article «НВБС» прогнозирует рост рынка климатических систем для ЦОД в 2026 году на 20–25% https://www.itweek.ru/themes/detail.php?ID=234512 Tue, 24 Mar 2026 16:24:09 +0300 <p>Системный интегратор и производитель АО «НВБС» совместно с разработчиком промышленных климатических систем АО «Антарктис» фиксируют устойчивый рост спроса на системы охлаждения для центров обработки данных (ЦОД). Об этом сообщил технический директор «НВБС» Дмитрий Антонюк на основании аналитики и данных «Антарктис».</p> <p>По оценке компании, увеличение заказов в конце 2025 — начале 2026 года на 15% обусловлено не столько динамикой рынка HVAC-оборудования, сколько ростом плотности вычислительных нагрузок и ускоренным вводом ИТ-инфраструктуры. Речь идет как о строительстве новых ЦОД, так и о модернизации существующих площадок с переходом на более высокие стойковые мощности (35+ кВт на стойку).</p> <p>«Мы наблюдаем рост спроса со стороны операторов дата-центров, связанный не только с вводом новых объектов, но и с переходом к более плотным конфигурациям размещения оборудования. Это требует пересмотра архитектуры охлаждения — от классических прецизионных кондиционеров к решениям с изоляцией горячих/холодных коридоров, in-row охлаждению и жидкостным технологиям», — отметил технический директор «НВБС» Дмитрий Антонюк.</p> <p>По данным компании, ключевыми драйверами спроса выступают рост облачных сервисов, развитие ИИ-нагрузок и увеличение удельного тепловыделения серверного оборудования (TDP современных CPU/GPU). В этих условиях эффективность системы охлаждения напрямую влияет на показатель PUE. Модернизация климатической инфраструктуры — включая внедрение free cooling, adiabatic cooling и интеллектуальных систем управления — позволяет снизить энергопотребление дата-центра на <nobr>10–20%</nobr> в зависимости от архитектуры.</p> <p>Компания ожидает, что в 2026 году рынок климатического оборудования для ЦОД продолжит рост. По прогнозу «НВБС», при сохранении текущих темпов строительства и модернизации дата-центров, а также увеличении средней плотности размещения ИТ-оборудования, сегмент может вырасти на <nobr>20–25%</nobr> по итогам года.</p> <p>«Для ЦОД критична точность поддержания температурно-влажностных параметров и предсказуемость тепловых режимов. Даже локальные перегревы приводят к деградации компонентов и снижению отказоустойчивости, а избыточное охлаждение — к росту OPEX. Сегодня, с увеличением нагрузки на серверы и распространением GPU-кластеров, требования к системам охлаждения смещаются в сторону энергоэффективности, масштабируемости и адаптивного управления в реальном времени. Именно поэтому сегмент ЦОД демонстрирует наиболее высокие темпы роста среди всех отраслей, где применяется промышленное охлаждение», — добавил Дмитрий Антонюк.</p> Системный интегратор и производитель АО «НВБС» совместно с разработчиком промышленных климатических систем … message Вышла новая версия платформы «Боцман» 1.4 https://www.itweek.ru/themes/detail.php?ID=234511 Tue, 24 Mar 2026 16:23:09 +0300 <p>Компания «Платформа Боцман» (входит в «Группу Астра») выпустила новую версию решения для управления контейнеризированными средами. «Боцман» 1.4 предлагает расширенную функциональность и повышенную производительность по сравнению с предыдущей версией 1.2, отвечая на актуальные запросы бизнеса к масштабированию, безопасности и автоматизации.</p> <p>В новой версии значительно усилены механизмы управления кластерами. Внедрена система самодиагностики, способная выявлять проблемы и выполнять полуавтоматическое восстановление работоспособности. Реализована поддержка мультикластерного управления, что позволяет централизованно контролировать распределённые инфраструктуры. Добавлена функция автоматического масштабирования, обеспечивающая адаптацию ресурсов под текущие нагрузки. Кроме того, платформа теперь поддерживает развертывание в различных облачных средах и на разных гипервизорах, предоставляя заказчикам свободу выбора инфраструктуры.</p> <p>Безопасность и наблюдаемость стали одними из ключевых направлений развития. В версии 1.4 появилась система обнаружения некорретных конфигураций с точки зрения информационной безопасности, что позволяет предотвращать потенциальные угрозы на ранних этапах. Усилен мониторинг состояния кластеров, внедрено централизованное логирование для сбора и анализа событий, а также добавлено управление сетевыми политиками, обеспечивающее тонкую настройку межсетевого взаимодействия.</p> <p>Для бизнес-пользователей новая версия предлагает инструменты, ускоряющие разработку и повышающие прозрачность процессов. Автоматизация развертывания и обновлений реализована через GitOps-инструмент Fleet. Платформа интегрирована с различными системами хранения данных, включая LocalPath, Cinder, vSAN и Yandex Storage, предоставляя гибкие возможности для работы с данными. Аутентификация может выполняться через LDAP и SSO, а гранулярный контроль доступа обеспечивает защиту корпоративных данных от несанкционированного использования.</p> <p>Управление множеством кластеров теперь доступно через единый веб-интерфейс, что существенно упрощает администрирование. Графический интерфейс стал более интуитивным, появился визуальный редактор сетевых политик, позволяющий настраивать правила без глубокого погружения в код. Встроенный терминал для работы с подами ускоряет выполнение задач, а централизованный маркетплейс приложений упрощает развёртывание готовых сервисов. </p> <p>«Выход версии 1.4 — это закономерный этап развития „Боцмана“ как платформы, которая закрывает самые сложные задачи управления контейнерными средами. Мы сделали акцент на автоматизации процессов: от самодиагностики и восстановления кластеров до GitOps-подхода в развертывании. Это позволяет заказчикам сосредоточиться на разработке приложений, а не на поддержке инфраструктуры», — прокомментировал Михаил Кобик, технический директор платформы «Боцман».</p> Компания «Платформа Боцман» (входит в «Группу Астра») выпустила новую версию решения для управления контейнеризированными … message «Штурвал 2.13»: автоматизация развертывания, новый containerd, отчеты по безопасности и прочее https://www.itweek.ru/themes/detail.php?ID=234510 Tue, 24 Mar 2026 16:20:02 +0300 <p>Российский разработчик ПО «Лаборатория Числитель» выпустил релиз «Штурвал 2.13». Главные изменения версии — автоматизация развертывания без графического интерфейса и повышение прозрачности эксплуатации.</p> <p>Разработчики существенно расширили возможности инструмента установки shtil. Теперь кластер управления можно полностью развернуть из консоли: через YAML-манифесты или параметры командной строки, без использования графического интерфейса. Это особенно важно для развертываний в нескольких ЦОДах одновременно.</p> <p>Также был реализован переход на containerd 2.x в качестве среды выполнения контейнеров, что обеспечило более точный контроль ресурсов и изоляцию контейнеров при работе с большими образами — <nobr>ML-моделями</nobr> и датасетами. </p> <p>Еще были добавлены профили конфигурации клиентских кластеров, позволяющие создавать и переиспользовать их шаблоны настроек. </p> <p>Для обеспечения целостной картины состояния платформы и быстрого расследования инцидентов были расширены инструменты контроля и наблюдаемости:</p> <ul> <li>в интерфейсе появились сводные отчеты по всем кластерам — по политикам безопасности Kyverno и результатам сканирования образов контейнеров Trivy;</li> <li>логи кластера теперь структурированы по стримам и обладают расширенным поиском по параметрам, что позволяет легче ориентироваться в потоке сообщений;</li> <li>добавлено отображение состояний конфигураций узлов (NodeConfigs) для упрощения контроля фактического применения настроек;</li> <li>пользовательские параметры фильтрации и поиска в интерфейсе сохраняются при переходе между страницами.</li> </ul> <p>Также был переработан интерфейс конфигурации узлов (NCI): параметры Kube API Server теперь настраиваются через графический интерфейс, а разделы вынесены в модальные окна для более структурированной работы. Управление системными сервисами оптимизировано через трехпозиционный переключатель Absent/Manual/Auto, что упрощает стандартизацию конфигураций.</p> <p>«В версии 2.13 мы сделали акцент на том, чтобы платформа становилась не просто средой управления кластерами, а основой для масштабируемых цифровых сервисов. Автоматизированная установка через YAML, профили конфигурации и сводные отчеты по безопасности позволяют быстрее запускать новые продукты и управлять рисками на уровне всей инфраструктуры», — отметил Александр Краснов, СТО «Штурвала». </p> Российский разработчик ПО «Лаборатория Числитель» выпустил релиз «Штурвал 2.13». Главные изменения версии — … message CURATOR нейтрализовала длительную атаку в 2 Тбит/с на платформу онлайн-ставок https://www.itweek.ru/themes/detail.php?ID=234508 Tue, 24 Mar 2026 16:14:56 +0300 <p>Компания CURATOR, специализирующаяся на обеспечении доступности интернет-ресурсов и нейтрализации DDoS-атак, нейтрализовала масштабную DDoS-атаку типа UDP flood, направленную на организацию из сегмента «Онлайн-ставки». Пиковые значения объема вредоносного трафика достигали 2 Тбит/с и около 1 млрд пакетов в секунду. При этом атака сохраняла высокую интенсивность более 40 минут.</p> <p>В ходе инцидента, произошедшего в середине марта, было зафиксировано 11 всплесков трафика, четыре из которых превышали 1 Тбит/с. Такая структура указывает на многоэтапный характер атаки и попытки поддерживать длительное интенсивное давление на инфраструктуру жертвы.</p> <p>Это важное изменение: ранее в случае атак подобного масштаба пиковая интенсивность, как правило, сохранялась лишь считанные секунды. Злоумышленники экономили ресурсы и быстро прекращали высокоинтенсивное воздействие как в случае успеха атаки — уже деградировавший сервис можно поддерживать в таком состоянии меньшими объемами вредоносного трафика, — так и в случае, когда они не могли добиться своей цели, чтобы не расходовать ресурсы впустую.</p> <p>В данном случае повторяющиеся пики свидетельствуют о попытках атакующих адаптировать стратегию и добиться эффекта за счет продолжительного воздействия. Несмотря на их усилия, CURATOR удалось эффективно нейтрализовать атаку и обеспечить непрерывную доступность защищаемого сервиса.</p> <p>Как показывает статистика, масштаб DDoS-атак продолжает расти. Этот тренд во многом обусловлен снижением стоимости проведения атак: использование ИИ-инструментов и IoT-ботнетов позволило значительно удешевить генерацию вредоносного трафика — по некоторым оценкам, до 95% за последний год. В результате злоумышленники могут не только запускать атаки высокой интенсивности чаще, но и поддерживать их дольше.</p> <p>«Терабитные DDoS-атаки больше не являются редкостью: применение атакующими ИИ и дешевых IoT-ботнетов значительно снизило стоимость их проведения. Как показывает данный инцидент, это меняет характер атак: злоумышленники теперь способны не только создавать пики трафика в несколько Тбит/с, но и поддерживать высокую интенсивность в течение длительного времени. Это подчеркивает необходимость использования масштабируемой и эффективной DDoS-защиты», — отметил Дмитрий Ткачев, генеральный директор CURATOR.</p> Компания CURATOR, специализирующаяся на обеспечении доступности интернет-ресурсов и нейтрализации DDoS-атак … message ИСИЭЗ НИУ ВШЭ: робототехника в отечественной промышленности https://www.itweek.ru/themes/detail.php?ID=234505 Tue, 24 Mar 2026 13:13:24 +0300 <p> Институт статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ оценил уровень востребованности промышленных роботов в высокотехнологичных отраслях российской промышленности, а также проанализировал среднесрочные планы компаний по расширению парка роботов и сфер их применения.</p> <p>Более половины (56,2%) инновационно активных предприятий из высокотехнологичных отраслей отечественной промышленности используют промышленных роботов для решения различных производственных задач. Лидируют по их внедрению средние и крупные предприятия, среди которых доля активных пользователей достигает 70%. Малые предприятия пока осваивают такие решения в порядке эксперимента.</p> <p>Чаще всего инновационно активные предприятия используют промышленных роботов для упаковки и распаковки (включая паллетирование) продукции (36,8%), ее погрузки и выгрузки (33,3%), а также проведения сварочных работ и лазерной резки (31,6%).</p> <p>В ближайшие три года собираются начать эксплуатацию промышленных роботов 12% обследованных организаций. При этом спрос со стороны текущих пользователей может увеличиться: о своих планах расширить применение соответствующих решений заявили более трети (34,5%) малых и почти 60% средних и крупных предприятий, т. е. примерно четыре из пяти предприятий, использующих промышленных роботов в настоящее время.</p> <p>Масштабирование промышленных роботов может происходить экстенсивно. Так, расширить их использование хотя бы в одном производственном процессе, в котором они уже внедрены, собирается лишь каждая седьмая инновационно активная организация, а внедрить их в новые направления — каждая вторая (53,9%). Более того, если применение роботизированных решений только в одном новом производственном процессе планируют 14,6% компаний, то в двух — уже 17,5%, а в трех и более — 21,8%.</p> <p>Семь из десяти инновационно активных предприятий, использовавших промышленных роботов, отметили, что внедрение робототехники принесло им определенный экономический эффект, который примерно в каждом третьем случае превысил ожидания и сделал дальнейшую роботизацию приоритетом. Разочаровались в применении робототехники в связи с отсутствием существенных результатов всего <nobr>3,1–4,4%</nobr> предприятий, вне зависимости от их размера. Каждая четвертая компания (26,5%) пока была не готова оценить эффект от внедрения робототехники.</p> <p>«Результаты исследования говорят о том, что промышленную робототехнику бизнес рассматривает среди инструментов модернизации производства, наряду с приобретением более современных моделей станков; при этом она в большей степени предназначена для использования на новых производственных участках, чем на существующих. Эффекты от внедрения робототехники в целом положительные, однако зависят от ситуации на конкретном предприятии. Можно предположить, что, по мере распространения успешного опыта, внедрение робототехники в российской обрабатывающей промышленности будет постепенно увеличиваться, однако „бума“ ожидать не стоит как минимум до начала новой фазы активного обновления производственных фондов», — отметил Сергей Лозинский, заместитель директора Центра инвестиционного анализа Института статистических исследований и экономики знаний НИУ ВШЭ.</p> Институт статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ оценил уровень востребованности промышленных … message Сбер представил новое поколение ИИ-помощника ГигаЧат на базе флагманской модели https://www.itweek.ru/themes/detail.php?ID=234504 Tue, 24 Mar 2026 13:08:14 +0300 <p>Сбер представил рынку масштабное обновлении ИИ-помощника ГигаЧат, в основу которого легла новая флагманская модель ГигаЧат Ультра (GigaChat Ultra). Теперь ИИ-помощник запоминает факты о пользователе и использует их для дальнейшей персонализации общения и предлагаемых решений, самостоятельно ищет информацию в интернете, генерирует текстовые ответы в 2 раза быстрее.</p> <p>Релиз новой модели открывает новые возможности не только для конечных пользователей, но и для разработчиков: на базе GigaChat Ultra уже можно строить прикладные ИИ-продукты и сервисы, запускать код прямо в интерфейсе и получать ответы на вопросы о собственных возможностях, опираясь на актуальную документацию. </p> <p>Антон Фролов, старший вице-президент, руководитель блока «Развитие генеративного ИИ» Сбербанка, отметил: «Мы делаем шаг от инструмента для ответов на вопросы к мультиагентному ИИ-помощнику ГигаЧат. Но наша цель шире: мы создаём будущее, в котором классические мобильные приложения уступят место интерфейсу на базе нейросети. Нужные функции сервисов будут появляться по запросу, делая навигацию по цифровому миру бесшовной. GigaChat Ultra — одна из самых больших моделей в мире, полностью разработанная и обученная в России. Флагманская версия модели теперь помнит ваши предпочтения, работает быстрее, глубже понимает задачи и даёт более качественные рекомендации. Мы стираем последние барьеры в общении с машиной».</p> <p>Одно из ключевых нововведений — долгосрочная память. Контекстная (краткосрочная) память нейросети ограничена рамками одного диалога и сбрасывается при его завершении. Долгосрочная память ГигаЧат устроена иначе — модель сохраняет факты о пользователе между сессиями и использует их в каждом последующем разговоре.</p> <p>Что именно запоминает ГигаЧат:</p> <ul> <li>увлечения, вкусы и интересы;</li> <li>профессию, образование, жизненные цели и привычки;</li> <li>личные данные — в той мере, в которой пользователь сам ими делится;</li> <li>информацию о близких людях и питомцах.</li> </ul> <p>Система самостоятельно выделяет значимые факты и не перегружает память мелочами: краткосрочные планы, очевидные общеизвестные сведения и детали, не относящиеся к пользователю, не сохраняются. Все данные хранятся в едином профиле и синхронизируются между веб-версией, мобильными приложениями и Telegram-ботом при авторизации по Сбер ID. Пользователь полностью контролирует функцию: память можно включить или отключить в настройках профиля в любой момент. </p> <p>ГигаЧат генерирует текстовые ответы в 2 раза быстрее, чем предыдущая флагманская модель Сбера. Это напрямую влияет на то, как быстро пользователь видит ответ: даже при сложных запросах, требующих развёрнутого рассуждения, результат появляется практически мгновенно.</p> <p>Прирост скорости обеспечен архитектурой Mixture of Experts (MoE): модель устроена как команда узкоспециализированных специалистов, каждый из которых отвечает за свой тип задач. На любой запрос откликаются только нужные «эксперты», а не вся модель целиком. </p> <p>ГигаЧат теперь сам автоматически подключает поиск актуальной информации в интернете — пользователю не обязательно включать соответствующий режим. Это обеспечивает достоверность ответов при обсуждении свежих новостей, биржевых котировок и других динамически меняющихся данных. Поиск оснащён специализированным рефразером — системой, которая автоматически переформулирует пользовательский запрос для повышения релевантности результатов и качества итоговых ответов.</p> <p>Онлайн-поиск также появился в режиме «Общение голосом». Диалог стал полноценно интерактивным: пользователь может перебивать модель, уточнять детали или мгновенно менять тему — система обрабатывает смену контекста без задержки. После завершения разговора в чате сохраняется полная текстовая расшифровка диалога.</p> <p>В ГигаЧат реализован механизм самопознания — способность модели корректно отвечать на вопросы о самой себе. При формировании таких ответов модель обращается к актуальной документации, описывающей её характеристики: текущую версию, поддерживаемые функции, ограничения и особенности поведения. Это исключает типичную для языковых моделей проблему, когда нейросеть даёт неверную или устаревшую информацию о собственных возможностях — например, ошибочно заявляет о функциях, которых нет, или не знает об уже существующих.</p> <p>В ГигаЧат встроен кодовый интерпретатор — изолированная среда выполнения программного кода прямо в интерфейсе помощника. До появления этой функции модель могла лишь написать код и показать его пользователю; запустить и проверить результат было невозможно без сторонних инструментов. Теперь ГигаЧат сам генерирует код и немедленно его исполняет — в безопасной изолированной среде, не затрагивая систему пользователя.</p> <p>Интерпретатор поддерживает работу с загружаемыми файлами, выполняет сложные численные вычисления, валидирует структуры данных и генерирует графики и диаграммы прямо в чате. Это превращает ГигаЧат в полноценный аналитический инструмент для работы с отчётами, таблицами и массивами данных.</p> <p>Модель прошла три этапа обучения. На первом был расширен кругозор: добавлены академические книги, материалы по математике и программированию, увеличен объём многоязычных данных — теперь модель охватывает 10 языков. На промежуточном этапе улучшались специализированные навыки: расширен корпус кода, добавлены данные по физике, медицине и финансам, включены записи реальных диалогов и усилена безопасность генераций. Финальная настройка на примерах (тексты редакторов, диалоги для вызова функций, системные подсказки) обеспечила стабильную работу модели в реальных условиях.</p> <p>Наибольший прирост качества зафиксирован в ответах на открытые и закрытые вопросы, а также в задачах, требующих сложных логических рассуждений. По бенчмаркам для русского языка модель демонстрирует высокую грамотность, естественность речи, читаемость и структурированность ответов. Улучшения затронули и прикладные отраслевые сценарии: модель стала увереннее работать с задачами в сфере права, кибербезопасности, медицины, финансов и торговли — особенно там, где важна российская специфика и отраслевая терминология. Заметный рост показали также математические вычисления и генерация кода, что расширяет применимость модели в финтехе, образовании и разработке.</p> <p>Сбер выложил код и веса своей флагманской модели GigaChat Ultra в открытый доступ. По оценкам экспертов компании, она уже сейчас превосходит DeepSeek V3.1, Qwen3-235B и своего предшественника GigaChat 2 Max в русскоязычных задачах, математике и общих рассуждениях. Благодаря публикации репозитория любая организация — от крупного банка до небольшого стартапа — получит возможность инсталлировать нейросеть в своём закрытом контуре и адаптировать её под корпоративные данные, что знаменует собой движение к подлинному технологическому суверенитету.</p> <p>Попробовать обновлённую модель можно бесплатно в веб‑версии, приложениях для Android в RuStore и AppGallery, а также в Telegram‑боте и мессенджере MAX. Для активации голосового режима и памяти достаточно авторизоваться по Сбер ID и включить нужные опции в настройках профиля.</p> Сбер представил рынку масштабное обновлении ИИ-помощника ГигаЧат, в основу которого легла новая флагманская модель ГигаЧат … message MWS Cloud открывает доступ к MWS GPT Model Hub https://www.itweek.ru/themes/detail.php?ID=234503 Tue, 24 Mar 2026 13:05:48 +0300 <p>MWS Cloud, входит в МТС Web Services, объявила о запуске сервиса по работе с большими языковыми моделями — MWS GPT Model Hub в публичном облаке MWS Cloud Platform.</p> <p>Сервис позволяет компаниям за несколько минут подключать LLM к своим продуктам и системам без управления инфраструктурой моделей и быстрее запускать AI-функции. За счёт этого продуктовые команды могут сокращать time-to-market новых решений до двух раз. С помощью сервиса российские компании смогут внедрять ведущие мировые модели в том числе одну из самых мощных LLM Kimi 2 Instruct.</p> <p>MWS GPT Model Hub — облачный сервис, который предоставляет доступ к большим языковым моделям через API внутри MWS Cloud Platform. Сервис запущен на базе платформы MWS GPT. В рамках него доступны 10 больших языковых моделей, среди которых ведущие мировые открытые LLM: DeepSeek, Google, Alibaba, Zhipu AI, Moonshot AI, BAAI и другие. До конца года в сервисе появятся еще 10 моделей, включая модели TTS (преобразующие текст в речь) и ASR (преобразующие аудио в текст), а также реранкеры.</p> <p>Сервис может применяться для внедрения AI-ассистентов в продукты, построения интеллектуального поиска, обработки текстовых данных, автоматизации поддержки, создания AI-инструментов для разработчиков и внутренних AI-сервисов для сотрудников.</p> <p>MWS GPT Model Hub позволяет использовать LLM как инфраструктурный компонент приложения — так же, как облачные базы данных, очереди сообщений или объектное хранилище — без необходимости самостоятельно разворачивать и обслуживать инфраструктуру.</p> <p>Модели доступны через OpenAI-совместимый API и могут быть быстро интегрированы в backend-сервисы, developer-инструменты и пользовательские приложения. Сервис предоставляется по модели самообслуживания через консоль управления MWS Cloud Platform. LLM развёртывается по клику за несколько секунд и сразу доступна для работы через точку подключения в облаке MWS.</p> <p>Такой формат особенно важен backend-разработчикам, AI-инженерам, DevOps и platform-командам, разработчикам SaaS-продуктов и стартап-командам, которым нужно ускорять вывод продуктов на рынок без избыточных операционных затрат. Встроенные в облачную платформу ресурсная модель, политики доступа и биллинга упрощают управление сервисом и позволяют отслеживать расходы на уровне проектов и команд. В результате, команды получают возможность быстро прототипировать AI-функции и запускать их в эксплуатацию, сосредотачиваясь на продуктовой логике, а не на обслуживании инфраструктуры моделей.</p> <p>«Мы видим, что LLM становятся базовым строительным блоком цифровых продуктов, но их внедрение часто упирается в инфраструктуру и компетенции. MWS GPT Model Hub создан для того, чтобы разработчики могли использовать большие языковые модели так же просто, как любые другие облачные сервисы: подключиться по API, быстро проверить гипотезы и масштабировать использование по мере роста нагрузки. Это позволяет экспериментировать с AI прямо в облаке и быстрее добавлять интеллектуальные функции в продукты и внутренние системы», — прокомментировал генеральный директор МТС Web Services Павел Воронин.</p> MWS Cloud, входит в МТС Web Services, объявила о запуске сервиса по работе с большими языковыми … message MS Навигатор ускоряет проверку ТИМ-моделей и подготовку презентационных материалов https://www.itweek.ru/themes/detail.php?ID=234501 Tue, 24 Mar 2026 10:36:37 +0300 <p>Компания АО «СиСофт Разработка» (входит в ГК «СиСофт») объявила о выпуске новой версии программного продукта MS Навигатор. Решение позволяет получить сводную модель проекта на основе данных, полученных из разных источников, анализировать и проверять ее на коллизии и несоответствия, создавать фотореалистичные изображения и видеоанимации, включающие движение техники и персонажей. Продукт дополняет линейку ТИМ-решений CSoft и может использоваться на разных этапах жизненного цикла объекта — от проектирования до эксплуатации.</p> <p>MS Навигатор ориентирован на главных инженеров и архитекторов, руководителей проектов, BIM-менеджеров, представителей экспертных организаций и инвесторов — всех, кому нужен быстрый, наглядный доступ к ТИМ-модели без погружения в сложные специализированные САПР.</p> <p>На фоне роста требований к применению ТИМ и дефицита квалифицированных специалистов MS Навигатор позволяет выявлять ошибки на ранних этапах, снижая затраты на их устранение.</p> <p>MS Навигатор доказывает свою универсальность, загружая данные в разных форматах с высокой скоростью: помимо родного формата mlt и прямого подключения к базе данных проекта, он может читать широко распространенный ifc, популярный dwg, форматы зарубежных разработчиков, например, rvt и rvm, различные форматы облаков точек и многие другие. Входя в экосистему Model Studio и MS, выступает дополнительным клиентом в существующей ТИМ‑инфраструктуре CSoft и позволяет выстроить сквозной цифровой процесс — от проектирования до анализа, согласования и визуализации — на базе продуктов CSoft.</p> <p>В новой версии MS Навигатор существенно повышена точность инженерного ядра, что позволяет просматривать территориально распределенные проекты без искажений. Добавлены новые условия проверки на коллизии: дублирование объектов, наличие соседних объектов, расстояние до поверхности и другие. В сценариях появилась возможность изменять траекторию движения камеры, персонажей и объектов; также стал доступен новый сценарий по изменению визуальных свойств объектов (цвета и прозрачности).</p> <p>Добавлен новый визуальный стиль «Прогрессивный» с более реалистичной светотенью, позволяющий представить проект в новом виде. Расширены типы выносок, появился встроенный голосовой чат для совместной работы в сетевом режиме. Реализована возможность экспорта проекта в формат FBX.</p> <p>MS Навигатор показывает высокую эффективность при работе с большими объемами данных, в том числе с возможностью подключения к базе данных проекта. Инженеры в режиме совместной работы могут проверять и анализировать модели с помощью реалистичных персонажей, проводить замеры и добавлять аннотации. Девелоперы и маркетологи получили возможность готовить материалы для презентаций и продаж еще до завершения строительства, создавая фотореалистичные изображения и впечатляющие видеоролики.</p> <p>Продукт MS Навигатор доступен по постоянной лицензии, а также по подписке сроком на один или два года, которую можно приобрести у авторизованных партнеров.</p> Компания АО «СиСофт Разработка» (входит в ГК «СиСофт») объявила о выпуске новой версии программного продукта … message UDV Group представила обновленную систему зонтичного мониторинга UDV ITM 1.9 https://www.itweek.ru/themes/detail.php?ID=234500 Tue, 24 Mar 2026 10:32:15 +0300 <p>UDV Group выпустила новую версию системы зонтичного мониторинга распределенных автоматизированных и информационных систем различного назначения, в том числе АСУ ТП UDV ITM 1.9.</p> <p>Ключевая задача UDV ITM — давать полную информацию о ресурсах системы для оценки эксплуатационных характеристик и предупреждения возможных сбоев в работе. В качестве сервера мониторинга используется зарекомендовавшее себя на рынке решение на базе Zabbix. Решение особенно востребовано на крупных промышленных предприятиях.</p> <p>Версия UDV ITM 1.9 направлена на повышение удобства и безопасности использования, стабильной работы с новыми версиями Zabbix и PostgeSQL, а также — расширение возможностей установки на ведущих российских операционных системах, таких как Astra Linux, РЕД ОС и Альт СП.</p> <p>Ключевые обновления релиза:</p> <ul> <li>добавлена удобная сортировка и ранжирование объектов мониторинга по количеству проблем;</li> <li>ключевая информация о состоянии ИТ-услуг теперь отображается в интерфейсе (актуальный статус, история проблем и показатели SLA);</li> <li>реализован функционал контроля выполнения работ по ликвидации проблем, а также удобный просмотр и анализ списка проблем и формирование отчетов.</li> </ul> <p>«Скорость выявления проблем и их устранения напрямую влияет на размер возможного ущерба от инцидента, поэтому в релизе UDV ITM 1.9 мы сконцентрировались на удобстве специалистов: на 80% сократили время на поиск проблемных узлов сети и в 2 раза уменьшили количество ручных операций по получению подробной информации о состоянии ИТ-сервисов. Комплексный мониторинг ИТ-инфраструктуры, оборудования, приложений и сервисов — это фундамент кибербезопасности бизнеса, поэтому с каждым новым релизом мы улучшаем не только удобство, но и защищенность решения. В релизе UDV ITM 1.9 добавлена поддержка последних версий Zabbix и PostgeSQL для корректной и защищенной работы», — прокомментировала новый релиз менеджер по развитию продукта UDV ITM Алена Макаревич.</p> UDV Group выпустила новую версию системы зонтичного мониторинга распределенных автоматизированных и информационных систем … message ИИ-плагин в Solar appScreener ускоряет безопасную разработку софта https://www.itweek.ru/themes/detail.php?ID=234499 Tue, 24 Mar 2026 10:28:34 +0300 <p>ГК «Солар», архитектор комплексной кибербезопасности, интегрировала в новую версию платформы для комплексной безопасности приложений Solar appScreener локальную (on-premise) большую языковую модель DerTriage/DerCodeFix. ИИ-плагин в составе Solar appScreener автоматизирует самые трудоемкие и рутинные операции, которыми на масштабных софтверных проектах занимаются до 10 AppSec-инженеров. Он выступает помощником для профессионалов безопасной разработки: в 10 раз ускоряет процессы AppSeс, сокращает время вывода приложения в «прод» (time-to-market) и снижает нагрузку на команды IT и ИБ.</p> <p>Согласно исследованию рынка программного обеспечения и IT-услуг, опубликованному Б1 в августе 2025 года, сегмент заказной разработки на горизонте до 2032 года будет одним из ключевых драйверов софтверной индустрии. В 2024 году объем рынка заказной разработки и IT-услуг составил 150 млрд рублей, или 14% от общего объема рынка ПО и ИТ-услуг. К 2028 году доля этого сегмента вырастет до 24% и составит около 280 миллиардов рублей.</p> <p>Растущий спрос на разработку, требования регуляторов и бизнес-заказчиков к качеству и безопасности повышают нагрузку на команды разработки и AppSec-инженеров. В результате бизнес стремится оптимизировать процессы разработки. Так, аналитики выявили важный тренд — уже к 2025 году более 70% новых корпоративных приложений создаются с использованием low-code/no-code и GenAI. Более того, 87% корпоративных ИТ-разработчиков используют платформы разработки low-code/no-code для части своих разработок. ИИ ускоряет написание кода, но при этом обязательный этап разметки (триажа) уязвимостей становится «бутылочным горлышком» при высоких объемах разработки. ИБ-команды сталкиваются как с нехваткой DevSecOps-инженеров, так и с различным уровнем экспертизы, конфликтом мнений специалистов и закономерным накоплением технического долга.</p> <p>Для решения этих задач «Солар» интегрировал в модуль статического анализа SAST продукта Solar appScreener ИИ-плагин, который содержит две технологии: интеллектуальный триаж SAST-результатов (DerTriage) и автоматическую генерацию исправленного кода уязвимостей (DerCodeFix). «Солар» объединяет в одном продукте высокий уровень информационной безопасности клиентского кода и широкую базу актуальных уязвимостей для российских и международных софтверных проектов, включая опенсорс и другие источники кода. Базой для обучения LLM стали данных проектов по безопасной разработке более 1000 компаний в течение семи лет. ИИ-плагин может быть развернут в закрытом контуре, работает без доступа в интернет, что минимизирует риски утечек данных во внешние сервисы и платформы для обмена кодом.</p> <p>Технология DerTriage использует «сырые» результаты сканирования, автоматически разбирает каждую уязвимость по контексту и выдает список только реальных угроз с пояснением для разработчиков, почему та или иная уязвимость требует исправления. Точность автоматической верификации уязвимостей составляет 95%. Плагин также настраивается под требования разработчика ПО, позволяет применять логику верификации ко всем обнаруженным уязвимостям или только к высокоприоритетным рискам. Таким образом, Solar appScreener сокращает число ложных срабатываний при SAST-анализе и в 500 раз ускоряет устранение уязвимостей, поддерживая производительность команды разработки без ущерба для безопасности софтверного продукта.</p> <p>ИИ-технология автоматического исправления уязвимостей DerCodeFix также предоставляет готовые сгенерированные исправления, контекстные патчи кода для подтвержденных уязвимостей. Исправления создаются в соответствии с принятыми стандартами кодирования, что обеспечивает читабельность, производительность кода и решает проблемы безопасности. Каждое исправление содержит подробное объяснение того, что и почему было изменено. Разработчик может быть уверен в корректной проверке кода и получает дополнительный источник данных для обучения.</p> <p>Как показали данные исследования шести больших языковых моделей на 20 проектах, созданных на языках Java и Python, модель DerTriage/DerCodeFix демонстрирует 80% точности на этапе верификации (триаж) и <nobr>78-83%</nobr> на этапе исправления уязвимостей (кодфикс). При этом публичные LLM, которые часто используются для этапов триажа и кодфикса, пропускают от 40 до 50% уязвимостей. Этот показатель точности является критичным, создавая риски для компаний, не располагающих штатом квалифицированных AppSec-инженеров, которые могли бы снизить вероятность эксплуатации необнаруженных и неисправленных уязвимостей.</p> <p>«Интеграция с надежной ИИ-моделью кратно ускоряет выпуск релизов. Результаты сканирований обрабатываются за несколько минут даже для проектов с миллионами строк кода, а не недель, как это было ранее. Соответственно ускоряется и выпуск любого программного продукта, при этом сохранении высокого уровня безопасности разрабатываемого ПО. Как показывают наши замеры на масштабных тестовых проектах, команды разработки в сотни раз повышают продуктивность, при этом фокус смещается с обработки уязвимостей на создание востребованного продукта», — подчеркнул Владимир Высоцкий, руководитель развития бизнеса платформы комплексной безопасности приложений Solar appScreener.</p> <p>Сейчас Solar appScreener лидирует среди российских решений, поддерживая анализ кода, написанного на 36 языках программирования. Он объединяет на базе одного ядра несколько модулей. Модуль SAST (статический анализ кода) помогает найти уязвимости и недекларированные возможности в исходном коде с первых этапов разработки. Одной из особенностей модуля SAST в продукте является возможность проведения бинарного анализа (анализа бинарных файлов при отсутствии доступа к исходным кодам). Динамический анализ кода (DAST) анализирует веб-приложения, отправляя заведомо неверные данные и проверяя реакцию приложения на них. Проекты динамического анализа в Solar appScreener можно привязать к проектам статического анализа и на основе корреляции их результатов получить более точную картину безопасности приложения.</p> <p>В свою очередь модуль анализа OSA включает в себя два вида анализа SCA и SCS. Анализ состава ПО (SCA) позволяет выявить зависимости и уязвимости в используемых open-source-библиотеках и снизить риски для разработки приложений. В продукте используются стандартные базы уязвимостей и данные крупнейшей базы данных об актуальных атаках и тактиках киберпреступников Solar JSOC. Анализ безопасности цепочки поставок ПО (SCS) позволяет оценить риски, связанные с open source, и сформировать рейтинг безопасности каждого стороннего компонента. Рейтинг строится на базе восьми конкретных метрик: репутация автора, активность сообщества, внимание к безопасности и др. Анализ лицензионных рисков помогает отслеживать лицензионные политики при использовании опенсорс-компонентов, оценивает критичность использования той или иной библиотеки и позволяет избежать юридических рисков, связанных с лицензиями.</p> <p>Использование локальной LLM модели, обученной для специфических задач разметки уязвимостей, позволяет снизить уровень ложно положительных срабатываний статических анализаторов. Это снимает часть нагрузки на AppSec специалистов, повышает скорость безопасной разработки и как следствие — повышает экономическую эффективность софтверных проектов.</p> <p>По итогам 2025 года 35 IT-партнеров в России реализуют проекты для крупных клиентов, формируют комплексные решения на базе собственных продуктов и Solar appScreener. В число ключевых партнеров по безопасной разработке входят ГК Softline, «Инфосистемы Джет», Swordfish, УЦСБ, «Кросс Технолоджис», ГК «Астра», НОТА (входит в Т1 Холдинг) и др.</p> <p>Solar appScreener поддерживает необходимые стандарты по обеспечению кибербезопасности, включая ГОСТ Р <nobr>56939-2016,</nobr> ГОСТ Р <nobr>56939-2024,</nobr> приказ ФСТЭК № 239 и входит в Реестр российского ПО Минцифры России.</p> ГК «Солар», архитектор комплексной кибербезопасности, интегрировала в новую версию платформы для комплексной … message Axenix запустила центр компетенций Digital CFO https://www.itweek.ru/themes/detail.php?ID=234498 Tue, 24 Mar 2026 10:26:15 +0300 <p>Консалтинговая технологическая компания Axenix запустила центр компетенций Digital CFO, который поможет бизнесу осуществить переход от учетной и контролирующей функции финансов к роли ключевого участника в реализации бизнес-стратегии компании. Digital CFO занимается проектами разного масштаба и сложности для функции финансов: от стратегии развития до внедрения ИТ-систем. В центр компетенций вошли эксперты с различной индустриальной специализацией, методологи, технические специалисты, стратеги и бизнес-аналитики.</p> <p>В условиях роста издержек, высокой стоимости капитала, усложнения ИТ-ландшафтов и повышения требований к прозрачности бизнеса финансовая функция сегодня выходит за рамки учета и отчетности. От нее ожидают точного прогнозирования, управления капиталом, участия в стратегических решениях и партнерской поддержки бизнес-подразделений. При этом во многих компаниях процессы остаются фрагментированными, данные — распределенными между системами, а часть операций продолжает выполняться вручную. Это ограничивает скорость принятия решений и снижает управляемость затрат. </p> <p>Центр компетенций помогает сформировать функциональную стратегии финансовых департаментов, выстраивает архитектуру финансовой деятельности и сопровождает изменения на уровне процессов, организационной модели и ИТ-решений. </p> <p>Эксперты Axenix также проводят диагностику зрелости финансовых процессов и оценку операционной модели, анализируют структуру затрат, функций бэк-офиса и общих центров обслуживания, совокупную стоимость владения ИТ-ландшафтом, выявляют узкие места. По итогам аудита формируется целевая модель финансовой функции и дорожная карта изменений.</p> <p>Digital CFO помогает сформулировать методологию финансового планирования компаний в рамках интегрированного бизнес-планирования (IBP), гибкие модели бюджетирования, управления затратами по методологии ZBB/ZBS/ZBx, а также ABC. Кроме того, центр компетенций сопровождает проекты по оптимизации OPEX и рационализации SG&A.</p> <p>Используя свой опыт внедрения различных ИТ-систем, в том числе решений по бюджетированию, консолидации и финансового контроля для крупных российских и международных компаний, Axenix сформировал подход по цифровой трансформации финансовой функции. Он включает в себя построение долгосрочной цифровой стратегии, оптимизацию и адаптацию методологии, формирование требований к целевым системам, детальное проектирование их реализации, а также разработку, внедрение, развитие, а также поддержку ИТ-решений.</p> <p>Технологическая часть трансформации включает интеллектуальную автоматизацию процессов и внедрение инструментов искусственного интеллекта. Эксперты Axenix разрабатывают драйверные модели прогнозирования, внедряют предиктивную аналитику, что позволяет ускорить процесс и повысить точность прогнозирования. По оценке компании, автоматизация способна охватить до <nobr>40-80%</nobr> отдельных операций в финансовых процессах, сократить стоимость транзакций и ускорить подготовку управленческой отчетности.</p> <p>«Финансовая функция сегодня находится в точке эволюционного перехода от учета к оркестрации. Бизнесу нужны финансы в качестве партнеров при принятии управленческих решений с быстрым пересчетом сценариев, вариантами оптимизации затрат и роста операционной эффективности. Центр компетенций Axenix Digital CFO становится единым проводником к стратегической трансформации, оптимизированным процессам и передовым технологиям. Задача команды — помогать нашим клиентам решать их самые насущные задачи в сфере финансов», — прокомментировала Алия Диханова, куратор центра компетенций Digital CFO Axenix.</p> Консалтинговая технологическая компания Axenix запустила центр компетенций Digital CFO, который поможет бизнесу осуществить … message Nerpa представила новую сетевую архитектуру для дата-центров с пропускной способностью до 400 Гбит/с https://www.itweek.ru/themes/detail.php?ID=234497 Tue, 24 Mar 2026 10:22:20 +0300 <p>Российский ИТ-бренд Nerpa расширил линейку сетевого оборудования и вывел на рынок IP-фабрику — современную архитектуру для построения высокопроизводительных сетей в центрах обработки данных и облачных инфраструктурах.</p> <p>Решение построено на архитектуре Clos и имеет уровни Spine и Leaf. В отличие от традиционной трёхуровневой схемы «ядро — агрегация — доступ», такая модель обеспечивает равномерное распределение нагрузки и устойчивую работу сети даже при росте трафика и масштабировании инфраструктуры.</p> <p>IP-фабрика объединяет сетевые устройства, серверы и системы хранения данных дата-центра в единую производительную сеть. Она упрощает управление адресацией, позволяет гибко сегментировать трафик через экономию IP-адресов и ускоряет развёртывание виртуальных сервисов.</p> <p>Решение поддерживает ключевые для современных ЦОДов протоколы VXLAN, EVPN и MLAG, которые обеспечивают отказоустойчивость и гибкость сетевой архитектуры, а также резервирование блоков питания и вентиляторных модулей. В основе IP-фабрики — три коммутатора Nerpa с портами uplink до 400 Гбит/с: HC DC (98), HC DC (685) и HC DC (557). Две первые модели спроектированы для работы в ЦОДах и облачных инфраструктурах.</p> <p>Коммутатор нового поколения Nerpa HC DC (557) выполняет роль управляющего элемента фабрики. Он разработан на базе ASIC-архитектуры, поддерживает двухстековое управление, статическую маршрутизацию и расширенные функции безопасности.</p> <p>IP-фабрика совместима с серверами Nerpa, оснащёнными сетевыми картами Ethernet (NIC), что позволяет построить устойчивую ИТ-инфраструктуру на основе продуктов одного производителя. Решение ориентировано на операторов связи, облачных провайдеров, владельцев корпоративных ЦОДов и интеграторов, реализующих проекты по строительству дата-центров.</p> <p>«Объёмы трафика растут быстрее, чем инфраструктура успевает обновляться. Классические архитектуры уже не всегда справляются с нагрузкой. IP-фабрика позволяет перейти к более гибкой и масштабируемой модели сети, которая готова к дальнейшему росту данных», — сообщил Олег Авилов, руководитель отдела продаж ИТ-бренда Nerpa.</p> <p>На IP-фабрику Nerpa предоставляется гарантия сроком 1 год с возможностью расширения до 3 лет. Продвижением решения занимается официальный дистрибьютор бренда — компания OCS.</p> Российский ИТ-бренд Nerpa расширил линейку сетевого оборудования и вывел на рынок IP-фабрику — современную … message Как производителям удобрений подготовиться к цифровой маркировке https://www.itweek.ru/themes/detail.php?ID=234493 Tue, 24 Mar 2026 00:00:00 +0300 <p><em>В России <a href="http://publication.pravo.gov.ru/document/0001202510220047?index=1">стартовал</a> эксперимент по цифровой маркировке отдельных видов удобрений в потребительской упаковке через систему Центра развития перспективных технологий (ЦРПТ) «Честный ЗНАК». Однако для плавного перехода на работу по новым правилам бизнесу потребуется заблаговременная подготовка.</em></p> <h1>Маркировка — шанс на чистый рынок</h1> <p>Требования цифровой маркировки коснутся производителей минеральных или химических удобрений, содержащих нитраты и фосфаты калия, а также прочие нитраты. Подпадает под них и продукция с двумя или тремя питательными элементами: азотом, фосфором и калием — как в форме таблеток, так и в других формах и упаковках, не превышающих 10 кг. Эксперимент продлится до 31 августа 2026 года, после чего цифровая маркировка этой категории удобрений станет обязательной.</p> <p>Рынок удобрений в России активно растет — в первом полугодии 2025 года выпуск такой продукции <a href="https://specagro.ru/analytics/202508/daydzhest-udobreniya-i-szr-po-itogam-i-polugodiya-potrebnost-rossiyskikh-agrariev">увеличился</a> на 5,5%, а к 2030 году Россия может занять 25% мирового рынка удобрений, по прогнозам РАПУ. При этом останется проблема контрафакта — по данным экспертов НИУ ВШЭ, нелегальный оборот такой продукции может достигать 17%. Ожидается, что введение маркировки поможет обелить сегмент и увеличить доходы поставщиков.</p> <p>Сроки эксперимента выбраны не случайно — они охватывают период осенней подготовки почв и весенне-летние сельскохозяйственные работы. Это позволит проверить систему в реальных условиях агросезона перед стартом перехода на обязательную маркировку. Как сделать переход к сериализации максимально мягким и плавным?</p> <h1>Как подготовиться к введению цифровой маркировки</h1> <h2><em>Этап 1. Формирование команды и аудит</em></h2> <p>Подготовка начинается с создания внутренней рабочей группы из пяти-семи человек, включающей специалистов по информационным технологиям, производству, юридическим вопросам и финансам.</p> <p>Рабочая группа изучает законодательство, анализирует опыт коллег, оценивает затраты и формирует бюджет. В частности, проводит аудит информационной инфраструктуры, включая системы планирования ресурсов и управления складом. Также потребуется учесть влияние процедур запуска и отладки технологических процессов цифровой маркировки, которые могут временно снизить мощности производственных линий.</p> <p>Рекомендуется выделить не менее четверти рабочего времени группы на изучение нюансов сериализации, например, маркировки нестандартных упаковок или особенностей хранения готовой продукции. Это может повлиять на читаемость кодов, а также спрогнозировать будущие затраты на обучение специалистов.</p> <p>Применительно к производителям и поставщикам удобрений важно учесть сезонные пики спроса на поставку продукции, приходящиеся на весенне-осенний период, чтобы избежать возможных сбоев в логистических цепочках.</p> <h2><em>Этап 2. Регистрация и подготовительные процедуры</em></h2> <p>После формирования рабочей группы понадобится уделить внимание регистрации компании в ГИС МТ «Честный ЗНАК». Помимо этого, проверить электронную подпись руководителя компании на совместимость с системой «Честный ЗНАК», а также обеспечить подключение ЭДО к существующим учетно-бухгалтерским системам, что позволит существенно сократить время для будущего обмена данными.</p> <p>Для производителей удобрений этот этап дополнительно <a href="http://publication.pravo.gov.ru/document/0001202510220047?index=2">включает</a> подачу заявки в Минпромторг, который также публикует методические рекомендации по нанесению кодов и передаче данных.</p> <h2><em>Этап 3. Подготовка к технической интеграции</em></h2> <h3><em>Выбор оборудования и ПО для маркировки</em></h3> <p>Выбор подходящего оборудования и программного обеспечения для нанесения кодов Data Matrix — один из критических этапов, обеспечивающих успешный процесс запуска маркировки.</p> <p>Решение во многом будет зависеть от форм-фактора упаковки продукции (бумажные этикетки, фольгированные паучи, мешки или нестандартная тара), способа нанесения (лазерное, термотрансферное, каплеструйное, автоматическое или ручное) и возможности интеграции с существующими производственными процессами.</p> <p>При оценке предложений важно учитывать совместимость техники с форм-факторами товаров, наличие и сроки поставки, а также перспективы расширения ассортимента. Оборудование должно быть универсальным и способным работать с разными типами тары, включая будущие новинки.</p> <p>Для многих компаний внесение изменений в упаковку может оказаться менее затратной статьей расходов, чем покупка специализированного оборудования под каждый из форм-факторов.</p> <p>На этом этапе важно оценить компетенции поставщика оборудования. Идеально, если он обеспечивает полный цикл — от поставки и подключения аппаратной части (принтеры, сканеры, регистраторы эмиссии) до интеграции с ИТ-системами и последующим сервисным сопровождением.</p> <p>Если поставщик специализируется только на поставке «железа» или только на ПО, то компании потребуется заложить дополнительный бюджет на системного интегратора, доработку решений и найм профильных специалистов. Готовые «коробочные» решения ускоряют запуск, но редко покрывают все потребности компании без адаптаций.</p> <h3><em>Выбор поставщика решения уровня L4 для передачи данных в «Честный ЗНАК»</em></h3> <p>По действующему законодательству о цифровой маркировке товар <a href="https://zpp.rospotrebnadzor.ru/news/regional/517497">считается</a> введенным в оборот только после фиксации его данных в системе «Честный ЗНАК».</p> <p>Поэтому следующий этап — подбор поставщика решения уровня L4, которое обеспечит передачу сведений о нанесенных кодах Data Matrix в государственную учетную систему. Он особенно важен для крупных производителей с широкой номенклатурой и большим количеством SKU.</p> <p>Многие производители отдают приоритет облачным решениям уровня L4, которые обеспечивают достаточную пропускную способность, а также поддерживают быстрое масштабирование производства. Максимально автоматизированные решения такого класса имеют готовые коннекторы к корпоративным системам управления складом (WMS) и ресурсами предприятия (ERP), а также могут автоматически передавать данные прямо со складов временного хранения. Это существенно ускоряет внедрение цифровой маркировки и минимизирует адаптации.</p> <p>Некоторые продукты L4 также совместимы с таможенными процессами и интегрируются с системами маркировки партнеров из других стран, что в свою очередь важно для компаний, занимающихся импортом.</p> <p>Ключевой критерий выбора будущего поставщика решения уровня L4 — это отсутствие vendor lock-in. Поскольку жесткая привязка к одному поставщику создает риски технических сбоев и недоступности сервиса, например, из-за политических ограничений, которые могут парализовать производство и нарушить цепочки поставок.</p> <p>Дополнительные вызовы возникают у компаний, работающих с сетевым ритейлом, так как может понадобиться интеграция с EDI-системами партнеров для обмена данными о кодах. А для экспортеров добавляется необходимость синхронизации с международными реестрами, включая перспективную единую маркировку стран ЕАЭС.</p> <p>В целом, необходимо выбирать решения с открытой архитектурой, позволяющие при необходимости быстро перейти на альтернативные платформы без остановки производственных процессов.</p> <h2><em>Этап 4. Бюджет перехода на маркировку</em></h2> <p>В некоторых случаях в бюджет проекта маркировки помимо вышеперечисленных статей потребуется заложить средства на модернизацию производственных линий или изменение дизайна упаковки.</p> <p>На практике частично снизить финансовую нагрузку и ускорить запуск позволяет вынесение части операций по маркировке за пределы компании, например, на таможенные склады или на контрактные площадки.</p> <p>***</p> <p>Участие в эксперименте дает возможность производителям удобрений заранее опробовать и адаптироваться к новым требованиям сериализации продукции, чтобы впоследствии избежать резких операционных шоков при введении обязательной маркировки.</p> <p>#IMAGE_234494#</p> В России стартовал эксперимент по цифровой маркировке отдельных видов удобрений в потребительской упаковке через … article Василий Савин, директор по консалтингу Utrace Подготовка корпоративных дата-центров к внедрению ИИ https://www.itweek.ru/themes/detail.php?ID=234445 Tue, 24 Mar 2026 00:00:00 +0300 <p><em>Предприятия, внедряющие искусственный интеллект, сталкиваются с проблемами, отличными от проблем пользователей гиперскейлеров, в планировании мощностей и возможностей своих центров обработки данных, пишет на портале </em><em>Data</em> <em>Center</em> <em>Knowledge</em> <em>Кирк Киллиан, президент </em><em>Partners</em> <em>National</em> <em>Mission</em> <em>Critical</em> <em>Facilities</em><em>.</em></p> <p>Стратегии планирования корпоративных дата-центров часто остаются без внимания в заголовках новостей о масштабном строительном буме, связанном с необходимостью поддержки ИИ. McKinsey прогнозирует рост расходов на ИТ-инфраструктуру, необходимую для ИИ, до почти 7 трлн. долл. к 2030 г., включая 3 трлн. долл. на дата-центры и 4 трлн. долл. на вычислительное и телекоммуникационное оборудование, что позволит примерно удвоить мировые мощности дата-центров.</p> <p>Крупные предприятия выполняют множество ИТ-функций помимо ИИ, и большинство предприятий внедряют ИИ иначе, чем гиперскейлеры, что напрямую влияет на планирование корпоративных дата-центров.</p> <h3>Предприятия полагаются на дата-центры для ИИ и традиционных вычислений</h3> <p>ИИ — лишь один из аспектов планирования мощностей и возможностей корпоративных дата-центров. Предприятиям необходимо внедрять новые ИИ-инициативы наряду с традиционными вычислениями, которые поддерживают множество важных корпоративных функций, включая производство, дистрибуцию, исследования и разработки, бухгалтерский учет, финансы, управление персоналом и маркетинг.</p> <p>Опрос Uptime Institute «2025 Global Data Center Survey» показал, что 93% респондентов испытывают сложности с прогнозированием будущих потребностей в мощностях дата-центров.</p> <p>CIO крупных предприятий — отчасти из-за FOMO, или «страха упустить возможность» — отдают приоритет инвестициям в ИИ. Отчет Boston Consulting Group «AI Radar 2026» указывает на то, что предприятия планируют в 2026 г. примерно удвоить свои инвестиции в ИИ по сравнению с прошлым годом, и 59% CIO и СТО этих организаций уверены, что ИИ окупится.</p> <h3>Обучение ИИ отличается от ИИ-инференса</h3> <p>Предприятиям необходимо различать обучение и инференс моделей ИИ, чтобы разумно планировать потребности в дата-центрах. Обучение ИИ отдает приоритет огромной доступности мощности, а не надежности или резервированию телекоммуникаций, поскольку модели могут быть перезапущены в случае прерывания. Оно лучше всего работает в крупных дата-центрах, где размещены тысячи энергоемких серверов, расположенных очень близко друг к другу, а большинство шкафов для обучения ИИ потребляют <nobr>80-160 кВт,</nobr> что требует жидкостного охлаждения. Некоторые крупные кампусы для обучения ИИ расположены в отдаленных сельских районах, где доступность телекоммуникационных сетей ниже, а задержка до кластеров пользователей выше, чем на развитых рынках дата-центров.</p> <p>Гиперскейлеры строят и арендуют мега-кампусы для обучения своих моделей ИИ, тогда как предприятия чаще передают обучение моделей на аутсорсинг специалистам-разработчикам ИИ или обучают модели ИИ внутри компании в сравнительно небольших масштабах.</p> <h3>Предприятия внедряют ИИ-инференс</h3> <p>Предприятия развертывают приложения для ИИ-инференса, чтобы получать выгоду за счет увеличения доходов, сокращения расходов и улучшения внутренних процессов, таких как обслуживание клиентов. Компании, внедряющие ИИ-инференс в масштабе, отдают приоритет низкой задержке в телекоммуникациях, высокой надежности (часто описываемой в терминах «времени безотказной работы») и безопасности данных, а не вычислительной мощности.</p> <p>Для оптимальной обработки ИИ-инференса требуется непрерывный доступ с низкой задержкой к корпоративным данным, включая транзакции клиентов и входные данные из внутренних операций, для быстрого получения ответов в режиме реального времени, что побуждает размещать вычислительные ресурсы для инференса рядом с другими корпоративными вычислительными узлами. Некоторые предприятия ориентируются на развертывание периферийных дата-центров, чтобы минимизировать задержку в приложениях ИИ.</p> <p>ИИ-инференс требует менее плотной кластеризации процессоров, чем обучение моделей, что позволяет выполнять его в дата-центрах средней плотности, обеспечивающих охлаждение <nobr>25-70</nobr> кВт на шкаф. Поскольку ИИ-инференс использует ценные корпоративные данные и интеллектуальную собственность, многие крупные предприятия с высокими требованиями к безопасности предпочитают выполнять вычисления для инференса внутри компании, чтобы снизить риск кражи данных, даже если первоначальное обучение моделей ИИ передается на аутсорсинг.</p> <h3>Гибридное размещение: подход «частично облачного» размещения</h3> <p>Ключевой задачей планирования является оценка потенциальных путей развертывания дата-центров, и многие предприятия обнаруживают, что гибридная облачная модель (облако плюс колокация или онпремис) обеспечивает максимальную гибкость, надежность и доступность для сочетания потребностей в области ИИ и иных корпоративных вычислительных задач.</p> <p>Публичное облако по всему миру предлагает быстрое развертывание, гибкие контракты и низкие первоначальные капитальные затраты. В отчете Flexera «2025 State of the Cloud» отмечается, что внедрение публичных облаков продолжает ускоряться, и 70% респондентов используют гибридную облачную модель.</p> <p>В то же время, в исследовании AFCOM «2026 State of the Data Center» отмечается, что 67% респондентов возвращают некоторые функции из публичного облака. Перерасход средств на облачные вычисления часто не заложен в бюджет, а широко освещаемые в СМИ сбои заставили некоторые предприятия пересмотреть размещение критически важных вычислительных ресурсов в топологии, полностью основанной на облаке.</p> <p>Предприятия, использующие колокацию, могут сохранять контроль над оборудованием в пределах конкретного физического помещения, обеспечивая преимущества в области безопасности, управления, аудита и соответствия нормативным требованиям по сравнению с публичным облаком. Колокация позволяет оптимально развертывать частные облака, обеспечивая при этом экономию за счет масштаба в строительстве и эксплуатации, недоступную для большинства онпремисных решений.</p> <p>Унаследованные онпремисные дата-центры могут экономично справляться с предсказуемыми традиционными рабочими нагрузками, но большинство из них не могут обеспечивать охлаждение вычислительных ИИ-кластеров высокой плотности, а модернизация таких объектов часто обходится дорого и занимает много времени. Согласно Cisco «2025 AI Readiness Index», только 34% респондентов считают, что их ИТ-инфраструктура полностью адаптируема и масштабируема для ИИ-проектов.</p> <p>В настоящее время большинство предприятий используют лишь небольшой процент шкафов, потребляющих более 35 кВт, но хотят обеспечить перспективность своих дата-центров в плане размещения высокоплотного оборудования для ИИ в будущем. Многие предприятия, стремящиеся к гибкости дизайна, теперь выбирают объекты, в которых размещаются шкафы с воздушным охлаждением, потребляющие до 35 кВт. Эти объекты также оснащены трубопроводами для жидкого хладагента (для теплообменников на задней двери и жидкостного охлаждения чипов), что позволит увеличить плотность размещения оборудования в будущих шкафах до <nobr>70-160</nobr> кВт без нарушения текущих критически важных операций.</p> <h3>Планирование готовности к ИИ</h3> <p>Предприятия могут реализовать конкретные стратегии для создания гибких, надежных и доступных дорожных карт развития дата-центров, готовых к ИИ:</p> <ul> <li> Сформировать многопрофильную команду, включающую специалистов по ИТ, сетям, эксплуатации критически важных объектов, управлению рисками, аудиту/соответствию нормативным требованиям и финансам, для планирования мощности и возможностей дата-центров.</li> <li> Привлечь опытных сторонних консультантов (включая экспертов по интеграции ИИ, инженеров-проектировщиков и консультантов/брокеров по закупкам), чтобы помочь уточнить цели, ускорить сроки и снизить затраты.</li> <li> Определить конкретные задачи по определению объема работ, выбору и закупкам с указанием дат начала и окончания, ответственных лиц и этапов, чтобы информировать высшее руководство о ходе проекта.</li> <li> Оценить существующие и планируемые программные приложения, чтобы определить, какие из них еще не готовы к эффективной работе в публичном облаке, и проверить наличие пробелов в аудите, соответствии нормативным требованиям и сертификации публичного облака, которые могут не отвечать корпоративным требованиям.</li> <li> Учесть влияние надежности телекоммуникационных сетей и задержек между потенциальными новыми кампусами публичного облака и колокации, поскольку ИИ-инференс требует непрерывной передачи данных между всеми корпоративными вычислительными ресурсами.</li> <li> Сравнить капитальные затраты на развертывание ИТ-решений, а также текущие расходы на аренду и вычислительные ресурсы как в облачной среде, так и в среде колокации/онпремис.</li> <li> Разграничить обязательные требования к дата-центрам, необходимые для достижения критически важных корпоративных ИТ-целей, от желательных, но не обязательных функций.</li> <li> Проанализировать текущие метрики использования и вероятные тенденции роста, чтобы оценить объемы необходимых вычислительных мощностей (по всем направлениям) в каждом из сценариев с низким, высоким и наиболее вероятным базовым уровнем роста.</li> </ul> Предприятия, внедряющие искусственный интеллект, сталкиваются с проблемами, отличными от проблем пользователей … article Коммуникация и управление ожиданиями: важные навыки для системного аналитика https://www.itweek.ru/themes/detail.php?ID=234491 Mon, 23 Mar 2026 00:00:00 +0300 <p><em>Системный аналитик находится в эпицентре проекта: между бизнес-заказчиками, которые хотят «волшебную кнопку», и разработчиками, которые мыслят категориями архитектуры, API и баз данных. Успех проекта частично зависит от того, насколько хорошо аналитик выстроит мосты понимания между этими мирами, состоящие в<strong> управлении ожиданиями</strong> всех участников процесса. Достигается это в первую очередь через <strong>эффективную коммуникацию</strong>.</em></p> <p><em>В этой статье расскажу, как управлять ожиданиями в команде.</em></p> <p>Ожидания заказчиков включают не только функциональность. Это также:</p> <ul> <li> <strong>Сроки:</strong> «Мы хотели вчера».</li> <li><strong>Бюджет:</strong> «Это же простая доработка, зачем это оценивать?»</li> <li><strong>Качество:</strong> «Система должна быть идеальной и никогда не падать».</li> <li><strong>Приоритеты:</strong> «Для нас все требования критичны и должны быть в первой версии».</li> </ul> <p>Неуправляемые ожидания приводят к классическим проблемам:</p> <ul> <li> <strong>Раздутие объема работ:</strong> постоянное добавление «мелких правок» без пересмотра сроков и бюджета.</li> <li> <strong>Недовольство заказчика:</strong> полученный продукт не совпал с его «мысленной картинкой».</li> <li> <strong>Выгорание команды:</strong> постоянная гонка за меняющимися целями и авральные режимы.</li> <li><strong>Провал проекта:</strong> когда расхождения становятся непреодолимыми.</li> </ul> <p>Управление ожиданиями — это непрерывный процесс, а не разовое действие. Рассмотрим ключевые инструменты и практики для системного аналитика, которые могут помочь в этом непростом деле.</p> <p>С самого начала работы над проектом необходимо понимание контекста и стейкхолдеров, для чего нужно найти ответы на следующие вопросы:</p> <ul> <li> <strong>Кто является участником?</strong> Все, кто напрямую или опосредованно причастен к проекту или заинтересован в его результатах. Заказчик, конечные пользователи, спонсор, регулятор, разработчики, тестировщики и т. д.</li> <li><strong>Каковы их роли и интересы?</strong> Бизнес-заказчик хочет увеличить прибыль, пользователь — упростить работу, разработчик — писать красивый код, тестировщик — вовремя провести регресс, клиент — удобный и полезный сервис.</li> <li><strong>Какой у них уровень влияния?</strong> Регулятор требует исполнения закона, клиент — приносит свои деньги, а собственник бизнеса решает, сколько выделить средств на проект.</li> </ul> <p>Участниками могут быть не только люди, но и другие системы, а также нормативные и иные документы, изучение которых обязательно для понимания процесса и получения качественного продукта в будущем.</p> <h2>Техники активного взаимодействия</h2> <p>Техники активного взаимодействия — это системный набор методов и практик (таких как интервью, фокус-группы, совместные воркшопы и регулярная коммуникация через подходящие каналы), направленных на выявление, вовлечение и управление интересами всех заинтересованных сторон проекта или организации. Это нужно для того, чтобы своевременно понимать их ожидания, снижать риски возникновения конфликтов, получать ценную обратную связь и, как итог, обеспечивать поддержку и одобрение ключевых решений, что напрямую влияет на успех и устойчивость любого начинания. Коммуникация должна быть постоянной и прозрачной.</p> <ul> <li> <strong>Регулярные встречи:</strong> не для отчета, а для диалога. Стейкхолдер-встречи для обсуждения прогресса и проблем, митинги с командой — для синхронизации.</li> <li><strong>Активное слушание:</strong> перефразируйте услышанное: «Правильно ли я понял, что вам нужно...». Это сразу выявляет расхождения.</li> <li><strong>Задавайте правильные вопросы:</strong> вместо «Что вы хотите?» спрашивайте «Какую проблему вы решаете?», «Что происходит сейчас и чем вас это не устраивает?». Вопросы «Почему?» помогают докопаться до корневой потребности.</li> </ul> <p>Активное взаимодействие превращает стейкхолдеров из пассивных наблюдателей или потенциальных критиков в союзников, чей вклад помогает достигать целей более эффективно и устойчиво.</p> <h2>Проактивное управление изменениями</h2> <p>Требования будут меняться — это норма. Главное — управлять этим процессом. Проактивный подход — это не защита от «что, если», а готовность к «когда это случится».</p> <p>Вместо реактивной борьбы с последствиями, проактивное управление строится на трёх основах:</p> <ul> <li> <strong>Предвидеть.</strong> Регулярно анализировать риски, тренды и обратную связь стейкхолдеров, выявлять потенциальные сдвиги в требованиях, технологиях или приоритетах на ранней стадии.</li> <li><strong>Планировать.</strong> Иметь чёткий, но гибкий процесс оценки изменений: как они повлияют на сроки, бюджет, качество и цели проекта. Каждое потенциальное изменение должно быть быстро оценено, например, по принципу «принимаем/отклоняем/откладываем».</li> <li><strong>Коммуницировать.</strong> Открыто обсуждать возможные изменения со всеми участниками. Чётко доносить, почему изменение необходимо или почему от него нужно отказаться, и как оно влияет на общий результат.</li> <li><strong>«</strong><strong>Парков</strong><strong>ать</strong><strong>» иде</strong><strong>и</strong><strong>:</strong> Заведите отдельный бэклог для «хороших, но не сейчас» идей. Это показывает, что вы услышали предложение, но не позволяете ему сбить текущий план.</li> </ul> <p>Ключевая выгода — <strong>контроль</strong>. Проект не плывёт по течению, а целенаправленно адаптируется. Команда не тратит силы на авралы, а спокойно перестраивает работу. Стейкхолдеры видят управляемый процесс, а не хаос.</p> <p>В итоге, проактивное управление изменениями превращает их из угрозы в инструмент для создания именно того продукта, который максимально соответствует актуальным потребностям бизнеса. Это инвестиция в предсказуемость и качество результата.</p> <h3>Конкретные шаблоны фраз для сложных ситуаций</h3> <ul> <li> <strong>Когда просят «простую доработку»:</strong> <ul> <li><em>Вместо:</em> «Это сложно».</li> <li><em>Лучше:</em> «Я понимаю, что функциональность кажется простой. Давайте разберем ее на составляющие, чтобы оценить трудозатраты и понять, как она впишется в текущий спринт/этап. Возможно, мы найдем более оптимальное решение».</li> </ul> </li> <li> <strong>Когда требования размыты:</strong> <ul> <li><em>Вместо:</em> «Вы сами не знаете, чего хотите».</li> <li><em>Лучше:</em> «Чтобы мы с командой правильно это реализовали, давайте уточним на примере. Опишите, пожалуйста, шаг за шагом, как пользователь будет работать с этой функцией. Каков будет его первый клик, что он увидит на экране?».</li> </ul> </li> <li> <strong>Когда заказчик настаивает на срочном изменении:</strong> <ul> <li><em>Вместо:</em> «Нет, мы не успеем».</li> <li><em>Лучше:</em> «Мы можем внести это изменение. Однако, по нашей оценке, это потребует дополнительно X часов/дней и сдвинет срок сдачи фичи Y. Вы готовы принять эти последствия, или, возможно, мы отложим что-то менее приоритетное?».</li> </ul> </li> </ul> <h3>Золотые правила</h3> <ul> <li> <strong>Обещай меньше, делай больше.</strong> Закладывайте буфер в оценки и радуйте заказчика, когда делаете быстрее.</li> <li><strong>Коммуникация — это ваша ответственность.</strong> Если вас не поняли, это не вина собеседника, а ваша задача — донести мысль иначе.</li> <li><strong>Будьте переводчиком.</strong> Переводите бизнес-потребности в технические спецификации и наоборот.</li> <li><strong>Говорите о проблемах рано.</strong> Не скрывайте риски и проблемы. Лучше сообщить плохие новости сразу, чем позволить им превратиться в катастрофу.</li> </ul> <h2>Ключевые каналы коммуникации и правила их использования</h2> <h3>Официальная документация</h3> <p>Официальная документация (технические задания, API-спецификации, стандарты, руководства пользователя) должна стать источником истины. Отступление от неё без согласования ведёт к рискам безопасности и стабильности.</p> <p>При конфликте информации, официальная документация имеет наивысший приоритет над любыми другими внутренними ресурсами.</p> <p>Необходимо следить за актуальностью документации, при сомнениях задавать вопросы команде и другим заинтересованным лицам.</p> <p>Документация не всегда может дать ответ «почему» для каждого случая. Применение критического мышления сэкономит время на разработке, отладке, повысит качество и надёжность продукта.</p> <h3>Регулярные встречи для синхронизации</h3> <p>Регулярные встречи с командой разработчиков и заказчиками (стейкхолдерами) критически важны для успеха проекта, так как они обеспечивают синхронизацию видения, оперативное выявление рисков и быструю адаптацию к изменениям.</p> <p>Основные правила включают: проведение встреч с фиксированной периодичностью (например, ежедневные стендапы и еженедельные обзоры), наличие чёткой повестки и предварительных материалов, обязательное участие ключевых лиц, фокус на статусе проекта, возникших блокерах и ближайших целях, а также фиксацию решений и назначение ответственных по итогам каждой встречи.</p> <p>Для общения со стейкхолдерами действует принцип прозрачности и управление ожиданиями — все решения, сроки и изменения должны быть ясно донесены и согласованы.</p> <h3>Системы управления проектами</h3> <p>Системы управления проектами, такие как Jira, являются важным инструментом для командной работы, обеспечивая структурированное планирование, трекинг задач и контроль процессов.</p> <p>Основные правила работы включают: обязательное создание и детализацию задач (тикетов) с четкими заголовками, описанием, приоритетом и сроком; систематическое обновление статусов задач для актуальной видимости прогресса; использование скрам- или канбан-досок для визуализации потока работ; регулярное комментирование и прикрепление файлов непосредственно в тикетах для сохранения контекста; соблюдение соглашений о наименовании и рабочих процессах, принятых в команде и проекте; а также использование функций поиска и фильтрации для оперативного доступа к информации.</p> <p>Это дисциплинирует процесс, повышает прозрачность и ответственность каждого участника.</p> <h3>Мессенджеры и чаты</h3> <p>Мессенджеры и чаты помогают оперативной коммуникации, обеспечивая диалог, обмен файлами и быстрые согласования.</p> <p>Для эффективной работы в них необходимо соблюдать базовые правила: использовать отдельные каналы/чаты под конкретные задачи или команды, не смешивая темы; структурировать сообщения, избегая потоков сознания и явно обозначая вопросы или решения; уважать личные границы, устанавливая временные рамки для сообщений вне рабочего времени;</p> <p>Однако нужно помнить, что фиксировать важные договорённости и технические решения необходимо только в официальных документах или системах управления проектами, так как чат — это инструмент для обсуждения, а не хранения итоговых решений. Это позволяет сохранить фокус, прозрачность и не утонуть в информационном шуме.</p> <h3>Электронная почта</h3> <p>Электронная почта служит каналом формальной коммуникации, обеспечивая документальное закрепление решений, требований и отчетов.</p> <p>Для эффективной работы необходимо использовать информативные темы писем, четко структурировать текст, выделяя задачи и вопросы, и обязательно привлекать в переписку всех заинтересованных лиц. Важно оперативно отвечать на письма, даже если полный ответ требует времени — в этом случае следует подтвердить получение и обозначить сроки. Все технические договоренности, особенно по изменениям, должны фиксироваться в письменном виде через почту, а срочные или спорные вопросы оперативно выносить в чаты или на совещания, резюмируя их итоги затем в рассылке.</p> <p>Приведу несколько простых советов «как задать вопрос или поставить задачу в почте».</p> <ul> <li> Проверить список адресатов.</li> <li> Если просьба к конкретному человеку из списка адресатов, обязательно обратиться по имени. Например, «Здравствуйте, Андрей». Письмо без личного обращения будет с большой вероятностью проигнорировано.</li> <li> Можно обратиться к нескольким людям, перечисляя их, а можно «Коллеги из отдела продаж».</li> <li> Обязательно добавить контекста (краткое описание проблемы, ссылки на документы, куски предыдущих переписок и т. п.).</li> <li> Задать вопрос или поставить задачу лаконично и без общих слов.</li> <li> Указать, какой результат нужен.</li> <li> Назначить срок.</li> </ul> <p>INVEST и здесь принесет пользу.</p> <h3>Доски, демо и другие инструменты визуализации</h3> <p>Доски, демо-стенды и другие инструменты визуализации служат мощным каналом коммуникации, трансформируя абстрактные идеи и задачи в единую, наглядную и постоянно актуальную картину для всей команды и заказчика.</p> <p>Ключевые правила работы с ними включают: централизацию информации (один источник правды), поддержание актуальности статусов и данных, использование единых стандартов оформления (цвета, теги, структура), обязательное комментирование изменений, а также регулярные синхронизации для коллективного обсуждения визуализированного прогресса или проблем.</p> <p>Выбор канала коммуникации определяется срочностью, сложностью и целевой аудиторией. Срочные и критические вопросы решаются через мессенджеры, тогда как сложные технические обсуждения требуют видеозвонков для демонстрации экрана и личного контакта. Официальные решения, требования и итоги встреч фиксируются через email или корпоративные порталы для создания документальной истории. Ключевые правила: соблюдать регламент ответов (например, на срочные сообщения — в течение часа), не обсуждать сложные темы в чатах, где важны нюансы, и всегда резюмировать устные договорённости письменно в общем доступе. Это минимизирует риски недопонимания и обеспечивает прозрачность.</p> <h2>Коммуникационные ловушки и психологические синдромы</h2> <p>Помимо выстраивания процессов, системному аналитику важно понимать типичные психологические паттерны у стейкхолдеров, команды и в себе самом. Распознавание этих «синдромов» — первый шаг к их преодолению.</p> <h3>Синдром «чистого листа»</h3> <p>Синдром чистого листа — это тот парализующий психологический барьер, который возникает в момент старта, когда перед тобой открывается безграничная пустота неопределенности.</p> <p>Стейкхолдеры, впервые сталкиваясь с принципиально новой задачей, не могут четко сформулировать требования, просто потому что у них ещё нет готового «образца» желаемого результата. Эта неопределенность, умноженная на страх сделать первый неидеальный шаг, создаёт порочный круг: сложно начать, потому что цели размыты, а цели остаются размытыми, потому что не начинают действовать.</p> <p>Преодоление этого синдрома требует не «сразу гениальной идеи», а готовности к итеративному процессу, где первый черновик, набросок или прототип становится тем самым маяком, который превращает абстрактную тревогу в конкретную работу.</p> <p>«Мыслительный процесс запускается руками». Основным каналом коммуникации должны стать встречи за белой доской, где шаг за шагом в обсуждениях и мозговых штурмах будет рождаться прототип будущего проекта.</p> <h3>Синдром «Да, но...»</h3> <p>Синдром «Да, но» проявляется в первоначальном согласии с идеями, за которым сразу следует критика или возражение, блокируя прогресс. Синдром возникает на встречах, ретроспективах, обсуждениях задач, результатов, когда стейкхолдеры или команда говорят «Да, идея хорошая, но... реализация сложная/дорогая/не сработает/хотелось такого же, но с перламутровыми пуговицами». Это тормозит разработку, демотивирует участников и усиливает выгорание. Усиливается в условиях дедлайнов, неопределенности или низкой вовлеченности стекхолдеров.</p> <p>Основным инструментом преодоления должны стать регулярные встречи для синхронизации понимания и демо ключевым участникам проекта. На встречах нужно фиксировать все «да, но», переводить в конструктив: «Что именно мешает? Давайте найдем решение», внедрять «Да, и...», где вместо критики появляется идея.</p> <h3>Синдром «неоткрытых руин»</h3> <p>Это ситуация, которая возникает в процессе выявления требований, основных и, особенно альтернативных сценариев. <strong>Суть синдрома</strong>: чем лучше понимают проблему и больше требований выявляют, тем очевиднее становится, что это ещё не все требования. Синдром «неоткрытых руин» относится к проблемам, вызванным тем фактом, что невозможно узнать требования, если никто о них не знает, а также выявить все альтернативные сценарии и возможные ошибки.</p> <p>Команда может надолго застрять в фазе проектирования, в то время как бизнес ждет результатов. Проект теряет скорость и гибкость.</p> <p>Основным инструментом преодоления является декомпозиция и приоритизация задач. Сначала проектируется ядро, основной сценарий и минимальный для решения основной бизнес-задачи функционал, затем уточняются детали и проектируются альтернативные сценарии. Нужно не забыть согласовать план с бизнес-заказчиками и зафиксировать в официальной документации.</p> <p>Таким образом, мастерство управления ожиданиями складывается из двух взаимосвязанных компонентов. С одной стороны — это владение инструментами и процессами: от анализа стейкхолдеров и проактивного управления изменениями до выбора правильных каналов коммуникации. С другой — понимание психологии участников проекта и навык ясной, адаптивной коммуникации, позволяющей переводить бизнес-язык в технический и обратно.</p> <p>Именно сочетание этих аспектов — (инструменты + процессы) × (понимание психологии + ясная коммуникация) — способны привести проект к успеху, сохраняя доверие заказчика и мотивацию команды даже в условиях неопределённости и постоянных изменений.</p> <p>#IMAGE_234492#</p> Системный аналитик находится в эпицентре проекта: между бизнес-заказчиками, которые хотят «волшебную кнопку» … article Татьяна Долгина, ведущий системный аналитик компании IT_ONE Конец “налога на наблюдаемость”: почему предприятия переходят на OpenTelemetry https://www.itweek.ru/themes/detail.php?ID=234444 Mon, 23 Mar 2026 00:00:00 +0300 <p><em>По мере масштабирования внедрения искусственного интеллекта предприятия непреднамеренно усугубляют существующий кризис данных. Возникающий в результате этого всплеск телеметрии перегружает инфраструктуру, уже испытывающую нагрузку из-за перехода к мультиоблачным средам, современным приложениям и IoT, что приводит к росту затрат. Организации платят за сбор, хранение и обработку огромных массивов данных, которые часто не приносят существенной пользы для бизнеса, пишет на портале </em><em>BigDataWire</em> <em>Майк Келли, основатель и генеральный директор Bindplane.</em></p> <p>Это давление <a href="https://www.elastic.co/pdf/dimensional-research-landscape-of-observability-2026-public-sector.pdf">ощущают</a> 66% предприятий, которые регулярно сталкиваются с непредвиденными расходами или перерасходами, связанными с инструментами наблюдаемости, и 95% предприятий активно предпринимают шаги по снижению затрат на наблюдаемость. Но сокращение расходов — это только половина дела; предприятиям также необходимо перемещать данные как никогда раньше.</p> <p>Современные приложения требуют постоянного потока данных для корректной работы. Системы должны взаимодействовать друг с другом в режиме реального времени, что генерирует терабайты трафика каждый день. Сейчас ИИ и машинное обучение полностью меняют подход предприятий к управлению этими потоками, требуя бесперебойного и мгновенного перемещения информации между различными облаками, аналитическими инструментами и ИИ-фреймворками.</p> <p>Эпоха слепой оплаты за неуправляемые данные закончилась. Стремясь максимизировать ценность конвейеров данных без перерасхода средств, предприятия переходят на OpenTelemetry, чтобы вернуть контроль.</p> <h3>Скрытый «налог на наблюдаемость»</h3> <p>Чтобы предприятия смогли сэкономить свой бюджет, им необходимо сначала решить проблему неэффективности — скрытый «налог на наблюдаемость», с которым сталкиваются многие команды DevOps. Каждая организация, по сути, перестраивает один и тот же конвейер с нуля, и когда конфигурации не стандартизированы, инженеры не учатся друг у друга; они фактически повторяют одни и те же процессы проб и ошибок тысячи раз.</p> <p>Это дублирование усилий приводит к пустой трате времени и ресурсов. Часто требуются недели, чтобы вручную настроить сборщики, обработчики и экспортеры, плюс бесчисленные часы на отладку проблем с подключением. Эта сложная задача уже решена тысячами других организаций, но многие команды остаются в неведении о том, что оптимальные настройки для их рабочей нагрузки уже были отработаны в других областях.</p> <p>Хотя некоторые предприятия могут выбирать проприетарных поставщиков для решения этой проблемы, сторонние решения только усугубляют ситуацию. Эти инструменты обещают лучшее управление данными и снижение затрат на хранение, но возникающая в результате зависимость от поставщика часто создает дополнительные долгосрочные проблемы. Когда объем данных превышает возможности решения проприетарного поставщика, переход на новые платформы становится сложным и дорогостоящим. Поэтому, когда бизнесу необходимо перейти на новую платформу, он часто оказывается ограничен существующими отношениями с поставщиками, не имея возможности изменить подход без существенной переработки своего конвейера данных.</p> <h3>Последствия избыточности</h3> <p>Неэффективная работа с огромными объемами данных также может привести к увеличению затрат организаций, усугубляя именно ту проблему, которую они хотят решить. Организации часто используют несколько инструментов и агентов для сбора данных, что требует специальных знаний в области распределенных систем, таких как инжиниринг данных, безопасность и машинное обучение. Управление этими системами как изолированными создает дополнительную нагрузку на ресурсы и часто приводит к необходимости увеличения штата или проведения специализированного обучения, что влечет за собой финансовые затраты и временные ограничения.</p> <p>Если инженеры данных застряли в цикле проб и ошибок при управлении огромными массивами телеметрии, то организации оказываются перегруженными информацией и задачами вместо того, чтобы целенаправленно и активно управлять своими данными. В мире, где ИИ требует немедленного доступа к огромным объемам данных, эта негибкость становится фатальным конкурентным недостатком. Если предприятия хотят преуспеть в мире, управляемом ИИ, их инфраструктура данных должна быть способна обеспечивать высокую скорость передачи данных без ущерба для экономической эффективности.</p> <p>Выявление и смягчение этих скрытых проблем и затрат имеет решающее значение, если предприятия хотят превратить свои данные в актив, а не в пассив.</p> <h3>Возвращение контроля над бюджетом с помощью OpenTelemetry</h3> <p>Предприятия, стремящиеся максимизировать ценность своих данных, переходят на Open Source-платформы, такие как OpenTelemetry (OTel). Создавая конвейеры обработки данных на основе OTel, предприятия могут обеспечить их гибкость и независимость от поставщиков, что позволяет им мгновенно адаптироваться к меняющимся потребностям бизнеса.</p> <p>OTel — это стандартизированная платформа, упрощающая сбор и обработку телеметрических данных с использованием различных языков программирования и операционных систем. Устраняя необходимость во множестве проприетарных инструментов, OTel снижает сложность и операционные затраты на управление телеметрией в масштабе предприятия.</p> <p>OTel также объединяет опыт ведущих инженеров по данным из крупнейших мировых организаций для решения основных операционных задач, предоставляя предприятиям доступ к единой платформе, созданной и усовершенствованной лучшими специалистами отрасли. Благодаря стандартизированному подходу, OTel сокращает время обучения и количество проб и ошибок при внедрении конвейеров, по сути, исключая дублирование работы. Кроме того, в эту платформу постоянно внедряются обновления, улучшающие соответствие нормативным требованиям и безопасность. OTel, поддерживаемая глобальным сообществом, постоянно развивается, чтобы решать повседневные задачи, с которыми сталкиваются CIO и инженерные команды при обеспечении устойчивости своей инфраструктуры данных.</p> <p>Благодаря такому подходу предприятия могут получать более качественные инсайты экономически эффективным способом. В конечном итоге, однако, настоящая сила заключается в адаптивности OTel, позволяющей предприятиям постоянно совершенствоваться.</p> <p>Для успешного построения конвейеров обработки данных на OpenTelemetry предприятиям следует внедрить следующие три практики:</p> <ul> <li><strong> Сборщик OTel.</strong> При создании конвейера телеметрии предприятиям необходимо настроить совместимый с OpenTelemetry сборщик в качестве основного блока обработки. Этот сборщик объединяет данные из разных источников, вносит в них изменения и отправляет их в нужные места. Преобразуя и обогащая данные внутри конвейера, системы организаций становятся более интероперабельными и гибкими.</li> <li><strong> Централизованное управление.</strong> Оно объединяет все агенты телеметрии и настройки в одном месте, предоставляя организациям больший контроль над настройкой наблюдаемости, одновременно оптимизируя операции и снижая затраты на управление разрозненными системами телеметрии. Это также помогает организациям быстро находить и устранять проблемы, сокращая объем работы по обслуживанию конвейеров и снижая вероятность ошибок при настройке. OpenTelemetry поддерживает централизованное управление с использованием таких протоколов, как OpAmp, что позволяет удаленно настраивать и отслеживать агенты телеметрии.</li> <li><strong> Фильтрация данных.</strong> Для организаций крайне важно использовать инструменты, предлагаемые в рамках платформы OTel, которые выборочно фильтруют данные и направляют данные меньшей ценности в недорогое хранилище. Это снижает затраты на хранение и обработку, одновременно улучшая видимость критически важных данных, делая анализ быстрее и эффективнее.</li> </ul> <h3>Устранение «налога на наблюдаемость» с помощью более интеллектуальных конвейеров</h3> <p>Перевод конвейеров данных на OTel позволяет предприятиям не только сократить затраты и ускорить обработку данные, но и более эффективно использовать собираемую телеметрию.</p> <p>В сложных ИТ-средах, где быстро развивается ИИ, организации должны иметь возможность корректировать свою инфраструктуру данных в режиме реального времени по мере изменения потребностей, без традиционной ручной очистки. Упрощение процесса сбора с помощью OTel улучшает распределение данных и обеспечивает гибкость для адаптации к меняющимся потребностям, позволяя организациям обеспечить устойчивость своей системы наблюдаемости в будущем для повышения операционной отказоустойчивости.</p> <p>Когда организации возвращают себе полный контроль над своими конвейерами данных, они могут получить конкурентное преимущество. Переход к Open Source-платформе, управляемой сообществом, гарантирует, что предприятия смогут избавиться от привязки к поставщику и получить основу для масштабирования и внедрения новых технологий, таких как ИИ, без дорогостоящих переделок или перегрузки команд DevOps телеметрическим шумом.</p> По мере масштабирования внедрения искусственного интеллекта предприятия непреднамеренно усугубляют существующий кризис … article SOAR: какие сценарии автоматизировать, чтобы ускорить реагирование и не получить хаос в процессах https://www.itweek.ru/themes/detail.php?ID=234486 Fri, 20 Mar 2026 00:00:00 +0300 <p><em>Средства мониторинга инцидентов, включая SIEM, незаменимы при обнаружении атак, но без выстроенного реагирования — бесполезны. </em><em>Рассмотрим, к</em><em>ак составлять сценарии последующих действий и почему не стоит прибегать к тотальной автоматизации</em><em>.</em></p> <p>Формальный регламент реагирования нужен, но сам по себе он не обеспечивает управляемую и быструю реакцию на инциденты. В реальной инфраструктуре реагирование опирается на набор сценариев — описанных и протестированных цепочек действий под конкретные типы атак и источники детектов.</p> <p>Сценарий — это «живой» документ: его приходится пересматривать после учений, кибериспытаний, реальных инцидентов, изменений в ИТ-ландшафте и модели угроз. Набор сценариев и их глубина зависят от поверхности атаки, зрелости средств мониторинга (SIEM, EDR, NDR, почтовые шлюзы, облачные сервисы) и технических возможностей по принудительному воздействию на инфраструктуру.</p> <p>Хороший сценарий опирается на три фактора: какое событие его запускает, какими контролируемыми точками инфраструктуры можно воспользоваться и до какого уровня допустимо воздействовать на сервисы, не поднимая эскалацию. Уже после этого имеет смысл решать, какие части сценария автоматизировать в SOAR, а какие оставить на ручном контроле.</p> <h3>С чего начинать автоматизацию: точки входа</h3> <p>Опыт кибериспытаний и реальных атак показывает: максимальный эффект реагирования достигается в первые минуты, пока злоумышленник закрепляется в инфраструктуре и наращивает привилегии. Поэтому в приоритете автоматизации должны быть сценарии вокруг точек входа — внешнего периметра и конечных устройств.</p> <p>Для большинства компаний типовые точки входа — внешние веб-сервисы и VPN-шлюзы, почта, пользовательские рабочие станции и ноутбуки. Логика приоритизации проста: чем ближе контрольная точка к первому шагу цепочки атаки, тем больше ценность ее быстрой, желательно автоматизированной активации.</p> <h3>Базовые меры на внешнем периметре</h3> <p>Для периметра в сценариях и SOAR-интеграциях должны быть реализованы как минимум следующие действия:</p> <ul> <li> Блокировка входящих соединений по IP или подсети на межсетевом экране или WAF (временные блоки, динамические списки репутаций, интеграция с TI-фидами).</li> <li> Принудительный разрыв клиентских сессий на уровне приложения или reverse-proxy (отключение конкретного токена или cookie, сброс websocket/HTTP-сессий).</li> </ul> <p>Эти операции хорошо подходят для автоматизации: они обратимы, локальны и не затрагивают бизнес-логику приложения. Важно, чтобы их можно было выполнять точечно по конкретному индикатору компрометации (например, отдельному IP-адресу, цифровому отпечатку устройства или сессии), а не по целому пулу клиентов.</p> <h3>Базовые меры для рабочих станций и серверов</h3> <p>Для конечных точек и серверов приоритетны следующие действия:</p> <ul> <li> Блокировка запуска файлов по хэшу через EDR/antimalware-движок.</li> <li> Остановка процесса по PID/имени с фиксацией артефактов для детального технического расследования инцидента по цифровым следам (форензики).</li> <li> Изоляция хоста от сети на уровне ОС (host-based firewall, отключение сетевых интерфейсов, ограничение маршрутов).</li> <li> Изоляция хоста на уровне сетевого оборудования (динамическое помещение в карантинный VLAN, применение ACL на порт).</li> <li> Блокировка доступа в интернет по IP и URL (web-proxy, NGFW, DNS-фильтрация) для отсечения C2 и фишинговых ресурсов.</li> </ul> <p>Пока на рабочей станции или сервере корректно работает агент защиты и он способен выполнять команды, изоляцию можно реализовать на уровне самой операционной системы — например, с помощью локального файрвола.</p> <p>Если же есть признаки, что агент отключен, скомпрометирован или ему нельзя доверять, изоляцию необходимо выполнять на уровне сети: переводить устройство в карантинный VLAN, ограничивать трафик на коммутаторе или межсетевом экране.</p> <p>При этом для массовых инцидентов, особенно на пользовательских ПК, обычно используются два режима изоляции. «Мягкий карантин» ограничивает доступ к внешним ресурсам, а «жесткий карантин» практически полностью изолирует хост от сети, сохраняя только минимальный доступ для специалистов SOC, необходимый для сбора артефактов и проведения расследования.</p> <h3>Учётные записи и инфраструктурные сервисы</h3> <p>Учетка — еще одна классическая точка входа, особенно в сценариях фишинга, подбора паролей, компрометации SaaS. Набор обязательных операций для сценариев и SOAR-интеграций:</p> <ul> <li> Блокировка учетной записи и принудительный сброс пароля в AD/IdP.</li> <li> Блокировка приема писем с определенных доменов и отправителей на почтовом шлюзе.</li> <li> Удаление уже доставленных писем из ящиков пользователей (EWS/Graph API, административные инструменты почтового сервиса).</li> <li> Принудительный разрыв сессии пользователя на VPN-шлюзе.</li> <li> Принудительная деаутентификация пользователя из внешних облачных сервисов (OIDC/SAML, revoke tokens, logout sessions).</li> </ul> <p>С точки зрения риска все эти действия нужно заранее классифицировать: где допускается полная автоматизация по одному сигналу, а где обязательно участие человека (ручное подтверждение ключевых шагов). Например, если система фиксирует подозрительный вход в аккаунт (необычная страна или IP-адрес с плохой репутацией), она может автоматически завершить сессию пользователя без участия аналитика. Блокировку учетной записи доменного администратора лучше проводить только по заранее настроенной процедуре с ручным подтверждением в SOAR</p> <h3>Как собирать сценарии в единое полотно</h3> <p>Перечень элементарных действий сам по себе не дает управляемости — нужна связка в логические сценарии с учетом источников детектов и типа атаки. Например, фишинг, массовое вредоносное ПО на рабочих станциях, подозрительные логины, атаки на внешние веб-сервисы.</p> <p>Сценарий должен описывать: стартовое событие (какой сигнал его запускает в SIEM/EDR/почтовом шлюзе), шаги по обогащению данных (какой дополнительный контекст подтягиваем), последовательность сдерживающих действий, точки принятия решений человеком и условия завершения. Важно замыкать сценарии на пост-инцидентные активности: техническое расследование инцидента, улучшение правил обнаружения, корректировку сценариев реагирования и обучение пользователей.</p> <p>За период кибериспытаний мы убедились на практике, что когда не получается «сломать» технику, первоочередной целью становятся люди. Поэтому разберем пример атаки с использованием социальной инженерии.</p> <p>Злоумышленник запускает рассылку, ее цель — заставить пользователя перейти по ссылке, ввести доменные учетные данные, затем скачать и запустить обфусцированный вредонос. После запуска файл устанавливает реверс-соединение на C&C. При корректной настройке мониторинга (почтовый шлюз, web-proxy, EDR, TI-фиды) детекты появляются на нескольких этапах. Логичный сценарий реагирования может выглядеть так:</p> <ol> <li> Заблокировать прием писем с домена отправителя на почтовом шлюзе.</li> <li> Добавить фишинговый URL в блок-лист web-proxy/DNS-фильтрации.</li> <li> Для пользователей, уже перешедших по ссылке, инициировать принудительный сброс пароля и пересоздание сессий в критичных системах.</li> <li> Добавить хэш загруженного файла в блок-лист EDR/antimalware по всей инфраструктуре.</li> <li> Для тех, кто успел запустить файл, остановить процесс и изолировать хост.</li> <li> URL или IP C&C внести в черный список на межсетевом экране/proxy/DNS.</li> </ol> <p>Дальше начинается детальное расследование: анализ логов аутентификации, поиск горизонтального перемещения злоумышленника по сети, проверка фактов утечки данных, очистка и восстановление хостов. Ключевой смысл сценария — успеть автоматически или полуавтоматически выполнить все шаги по локализации и сдерживанию атаки для большого количества хостов и учетных записей, пока она не вышла за пределы изначального сегмента.</p> <h3>Роль SOAR: оркестрация против хаоса</h3> <p>Часто современная ИБ-инфраструктура представляет собой набор разрозненных систем: SIEM, EDR/XDR, NGFW, WAF, почтовые шлюзы, CASB, облачные консоли, тикет-системы. Координировать ручное выполнение десятков действий в правильном порядке, да ещё в сжатые сроки, сложно даже для сплоченной команды.</p> <p>SOAR решает эту проблему за счет оркестрации и частичной автоматизации: из единого интерфейса аналитик запускает сценарий реагирования, который сам обращается к нужным интеграциям по API, собирает контекст, предлагает следующий шаг и фиксирует все действия. Это снижает вероятность ошибок, исключает неформальные согласования при эскалации задач администраторам и ускоряет реакцию.</p> <p>Главный вопрос: можно ли сказать, что чем больше автоматизации в SOAR — тем лучше? Исходя из собственного опыта, отвечу — не всегда. Потому что тотальная автоматизация возможна при полном исключении ложноположительных срабатываний системы мониторинга, чего очень сложно добиться.</p> <p>Поставщики решений любят демонстрировать полностью автоматические сценарии реагирования. В реальности даже хорошие модели и корреляционные правила периодически дают «шум», а бизнес-сервисы чувствительны к радикальным действиям вроде блокировки учеток или изоляции серверов.</p> <p>Практический компромисс, к которому приходят опытные команды, выглядит так:</p> <ul> <li> Автоматизировать до конца только простые, хорошо формализуемые сценарии, не трогающие критичные узлы и сервисы (например, блокировка URL, IP, домена-отправителя, добавление хэша в блок-лист, создание тикета).</li> <li> Для действий с высоким бизнес-риском следует использовать режим с участием человека: система SOAR собирает контекст, предлагает действие, но требует явного подтверждения аналитика или ответственного специалиста по ИБ.</li> <li> Сложные инциденты с несколькими ветками развития вести вручную, но через SOAR-интерфейс, используя его для оркестрации и протоколирования.</li> </ul> <p>Такой подход хорошо защищает от сценариев, когда утренний сбой в критичном сервисе оказывается следствием ночного ложноположительного срабатывания и агрессивного реагирования. При этом SOC получает предсказуемое поведение системы и возможность постепенно расширять зону доверенной автоматизации по мере накопления статистики и обкатки сценариев на киберучениях.</p> <p>Каждая команда в итоге вырабатывает свой профиль автоматизации: кто-то смелее автоматизирует изоляцию рабочих станций и серверов, но осторожно относится к блокировке учетных записей; кто-то, наоборот, предпочитает быстро разрывать сессии и блокировать учетку, но минимизировать воздействие на инфраструктурные узлы. Важно, чтобы это решение было осознанным, опиралось на реальные кибериспытания и регулярно пересматривалось вместе с моделью угроз и архитектурой ИБ.</p> <p> #IMAGE_234488#</p> Средства мониторинга инцидентов, включая SIEM, незаменимы при обнаружении атак, но без выстроенного реагирования — … article Дмитрий Кокорин, CISO компании Innostage Что происходит с базой данных, когда пользователем становится ИИ-агент? https://www.itweek.ru/themes/detail.php?ID=234443 Fri, 20 Mar 2026 00:00:00 +0300 <p><em>Макс Лю, соучредитель и генеральный директор TiDB, разработанной компанией PingCAP распределённой базы данных SQL с открытым исходным кодом, рассказывает на портале </em><em>The</em> <em>New</em> <em>Stack</em> <em>о том</em><em>, почему агенты искусственного интеллекта становятся новыми основными пользователями баз данных и как должна развиваться архитектура, чтобы приоритизировать скорость, эластичную эфемерность и безопасность за счет изоляции.</em></p> <p>В прошлом мы оценивали корпоративные базы данных по тому, насколько они полезны для таких людей, как мы. Мы оценивали их по тому, насколько хорошо они помогают архитекторам создавать схемы, администраторам баз данных планировать ресурсы, а аналитикам — создавать запросы.</p> <p>Мы ожидали, что эти базы данных будут служить долго — вероятно, многие годы — обеспечивая отчеты о продажах и квартальные прогнозы и развиваясь вместе с организацией. Но теперь появился новый тип пользователя: ИИ-агент. У него другие потребности. Он работает в другом темпе. Он использует базы данных для выполнения своей работы; но как только его задача выполнена, базу данных можно удалить.</p> <p>Мы можем представить себе базу данных, разработанную для людей, как замедленную съемку сверху формирования городского ландшафта. На протяжении всей сцены краны и бульдозеры заняты добавлением и удалением сооружений, оставляя большинство зданий нетронутыми. Детали меняются, но общая форма города и взаимосвязи между его частями остаются относительно стабильными.</p> <p>База данных, разработанная с учетом потребностей агентов, выглядела бы совсем иначе. Вместо устойчивой картины взаимосвязанной сети улиц и зданий — аналогия традиционной реляционной базы данных — сцена постоянно меняется. Квартиры и городские кварталы, не связанные друг с другом, появляются и исчезают быстрее, чем глаз может это заметить. Высокоскоростная фотосъемка показывает, что сооружения имеют причудливую форму. Они не предназначены для использования людьми. Их форма, местоположение и, прежде всего, их эфемерность служат потребностям цифровых пользователей.</p> <p>Все признаки указывают на то, что в ближайшем будущем агенты, а не люди, будут основными пользователями баз данных. Итак, как же должны измениться базы данных?</p> <h3>Базы данных должны отдавать приоритет скорости, а не удобству использования</h3> <p>Как и люди, агенты планируют задачи, выполняют действия, наблюдают за результатами и адаптируются на основе полученных знаний. Но в отличие от людей, агенты работают быстрее, чем можно подумать. Им не важна простота использования.</p> <p>В первую очередь, ИИ-агент ценит скорость. Доступность и отзывчивость тоже. Но скорость важнее всего.</p> <p>Агенты постоянно обращаются к данным. Они генерируют резкие всплески активности и свертывают свое рабочее пространство, как только работа завершена. Их рабочие «привычки» создают слишком высокую нагрузку на базы данных, оптимизированные для бесконечно более медленных и продуманных взаимодействий с человеком.</p> <p>Как сказал мой коллега Эд Хуанг, «агенты не замедляются и не оптимизируются, если вы их к этому не принуждаете. Их естественное состояние — это комбинаторный взрыв».</p> <p>Платформа баз данных, разработанная для ИИ-агентов, должна реагировать так же быстро, как и ИИ.</p> <h3>Нам придется учитывать эластичную эфемерность</h3> <p>Как правило, масштабирование облачной базы данных включает копирование целых кластеров данных. Это связано с ограничениями корпоративных сетей. Для поддержания высокой производительности данные должны храниться рядом с вычислительными ресурсами. Но репликация и сохранение данных требуют времени и увеличивают затраты.</p> <p>В ориентированных на человека базах данных эти неэффективности нежелательны; в базах данных, ориентированных на ИИ, они неприемлемы.</p> <p>Непрактично и расточительно создавать новые кластеры данных всякий раз, когда агент резко увеличивает загрузку CPU. Базам данных, ориентированным на ИИ, потребуется масштабировать вычислительные ресурсы вверх и вниз, минимизируя при этом влияние на локальное хранилище и затраты на хранение.</p> <p>Архитектуры, которые разделяют вычислительные ресурсы и системы хранения, особенно использующие облачное объектное хранение в качестве своей основы, напрямую решают эту задачу. В них вычислительные ресурсы масштабируются эластично в зависимости от интенсивности и типа рабочей нагрузки. Холодные данные остаются в объектном хранилище, где затраты минимальны. Часто используемые данные кэшируются рядом с компьютером для обеспечения низкой задержки.</p> <p>Такая конструкция обеспечивает быстрое масштабирование в периоды активности и быстрое уменьшение масштаба при спаде спроса — именно так работает ИИ.</p> <h3>И нам придётся обеспечивать безопасность за счёт изоляции</h3> <p>Агенты могут быть непредсказуемыми. Им нужны ограничительные механизмы. Для поддержки пользователей-агентов базы данных должны предоставлять среды, в которых агенты могут безопасно работать, не опасаясь повредить что-либо важное.</p> <p>Бессерверное ветвление может быть полезным подходом. База данных с возможностью ветвления может создавать изолированные среды с копированием при записи, где агент может работать с реальными данными, не опасаясь перегрузки системы или повреждения данных.</p> <p>Опыт Manus, универсальной платформы для ИИ-агентов, которая за несколько недель привлекла миллионы пользователей, хорошо это иллюстрирует. Модель «контекстного инжиниринга» Manus генерирует тысячи итераций для каждой задачи, каждая из которых сохраняет состояние по мере выполнения. Это требует исключительной производительности чтения-записи.</p> <p>Более того, Manus хотела создать рои агентов, способные решать сложные задачи параллельно. Команде разработчиков необходимо было поддерживать массовую параллельность, избегая при этом конфликтов «шумных соседей». Но такой уровень параллельности был бы невозможен при архитектуре без ветвления. Именно поддержка ветвления позволяет каждому агенту — или группе агентов — независимо создавать форки базы данных, запускать эксперименты и фиксировать результаты. Это позволяет агентам Manus одновременно оценивать альтернативные подходы, сравнивать результаты и сохранять только те, которые имеют значение.</p> <h3>Подготовка к будущему, ориентированному на агентов</h3> <p>Большинство предприятий все еще находятся на ранних этапах внедрения агентного ИИ. Тем не менее, выбор инфраструктуры, который они делают сейчас, определит скорость и успех реализации их усилий.</p> <p>Поскольку пользователи-люди уступают место агентам, оптимизация баз данных по надежности, прозрачности или простоте использования больше не имеет смысла. Агенты процветают в средах, оптимизированных для быстрого создания и удаления, объектного хранения и строгой изоляции. Эфемерность — новое ключевое слово. Скорость — главный приоритет.</p> <p>Допуск агентов в вашу базу данных не означает отказа от контроля. Это просто означает, что контроль будет обеспечиваться посредством архитектуры и автоматизации, а не ручного вмешательства человека. Базы данных — и организации — которые придерживаются этих принципов, смогут максимально эффективно использовать своих агентов-сотрудников. Те, кто этого не сделает, неизбежно отстанут от своих конкурентов в мире, где темп задает ИИ.</p> Макс Лю, соучредитель и генеральный директор TiDB, разработанной компанией PingCAP распределённой базы данных … article Modus BI 3.12: умный экспорт, API для отчетов и удобные фильтры по датам https://www.itweek.ru/themes/detail.php?ID=234487 Thu, 19 Mar 2026 16:19:20 +0300 <p>Компания Modus, российский разработчик решений для бизнес-аналитики и управления данными, представила новый релиз платформы Modus BI 3.12. Плановое обновление повышает удобство работы с отчетами, расширяет возможности экспорта и кастомизации.</p> <p>Одно из центральных изменений версии 3.12 — доработка шаблонов экспорта в формате XLSX. При настройке шаблона теперь можно включить отображение названия отчета и списка примененных фильтров с разбивкой по строкам. Имя файла формируется динамически: в нем отражаются название отчета, визуализации, а также дата и время выгрузки. Это избавляет пользователей от необходимости вручную переименовывать файлы и восстанавливать контекст при работе с большим количеством выгрузок.</p> <p>Дополнительно добавлена возможность скачивать отчеты в форматах PDF, PNG, SVG и PPTX через API, что открывает новые сценарии автоматизации: теперь отчеты можно встраивать в корпоративные рассылки, системы уведомлений и внешние дашборды без ручного участия.</p> <p>На панели инструментов отчета появилась кнопка копирования ссылки с учетом примененных фильтров. Теперь пользователь может передать коллеге точный срез данных — без необходимости объяснять, какие фильтры нужно выставить вручную. Это особенно ценно в командной работе, где критически важно смотреть на одни и те же данные в одном контексте.</p> <p>Диапазонный фильтр по датам получил два важных улучшения. Во-первых, в календаре теперь можно последовательно выбрать год и месяц — раньше для этого приходилось вручную пролистывать календарь, что занимало лишнее время. Во-вторых, добавлена кнопка сброса значений, которая позволяет одним кликом очистить выбранный диапазон.</p> <p>Для сводной таблицы введен режим автоматического выравнивания значений в зависимости от типа данных: числа выравниваются по правому краю, строки и даты — по левому. Вычисляемые поля адаптируются автоматически. Это снижает количество ручных настроек и делает таблицы более читаемыми без дополнительных усилий.</p> <p>Расширены возможности персонализации главной страницы аналитического портала: теперь для каждого отчета можно задать индивидуальный цвет плашки, а в настройках темы интерфейса — установить единый цвет для всего портала. Панель закладок получила поддержку множественных значений фильтров в режиме «Отправки запроса».</p> <p>«Каждый релиз Modus BI — это не просто список изменений, а ответ на реальные запросы наших пользователей. В версии 3.12 мы сосредоточились на деталях, которые ежедневно влияют на продуктивность: как быстро аналитик может поделиться нужным срезом данных, насколько удобно настраивать фильтры, что видит получатель выгруженного файла. Улучшений много, но главное — они работают вместе, формируя более цельный и предсказуемый пользовательский опыт», — отметил Роман Чернышов, владелец продукта Modus BI.</p> <p>Релиз Modus BI 3.12 уже доступен и включает также более 20 исправлений, направленных на повышение безопасности, стабильности и общей надежности платформы.</p> Компания Modus, российский разработчик решений для бизнес-аналитики и управления данными, представила новый релиз платформы … message Nerpa выпустила ленточную библиотеку с поддержкой новейшего стандарта LTO-10 https://www.itweek.ru/themes/detail.php?ID=234485 Thu, 19 Mar 2026 16:17:50 +0300 <p>Российский ИТ-бренд Nerpa расширил продуктовый портфель новой флагманской ленточной библиотекой Nerpa TL AL707 с поддержкой новейшего стандарта LTO-10. Решение создано для компаний и организаций, которым требуется высокопроизводительное и безопасное хранение больших объёмов информации, включая системы резервного копирования и архивирования. Официальный дистрибьютор нового оборудования — компания OCS.</p> <p>Ленточная библиотека Nerpa TL AL707 совместима с картриджами нового поколения LTO-10 объёмом до 40 ТБ (native). Оборудование подходит для хранения больших объёмов информации, поскольку располагает ресурсами для хранения и обработки до 22,4 петабайт данных без учёта сжатия или 56 петабайт при его применении. Встроенные интерфейсы SAS 12 Гбит/с, в свою очередь, обеспечивают быструю передачу данных.Для приводов LTO-10 реализована поддержка протокола Fibre Channel (FC) со скоростью 32 Гбит/с. Эта технология является нововведением для всей отрасли ленточных библиотек LTO.</p> <p>Базовый модуль библиотеки оснащён 80 слотами и поддерживает установку до 6 приводов HH (Half Height) или трёх FH (Full Height). Помимо этого, решение обладает высокой производительностью: скорость чтения и записи данных одним накопителем достигает 400 Мб/с в оригинальном формате и 1000 Мб/с с учётом сжатия.</p> <p>Среди преимуществ Nerpa TL AL707 — сертификация поколений LTO-7, LTO-8 и LTO-9 для совместной работы с отечественными системами резервного копирования «Кибер Бэкап» и RuBackup. В планах на 2027 год — расширение списка совместимых моделей на LTO-10.</p> <p>Благодаря новой библиотеке бренда Nerpa компании смогут соблюдать растущие требования к объёму и срокам хранения данных, а также защищать информацию от большинства современных киберугроз, включая программы-шифровальщики. По сравнению с дисковыми системами, ленточная библиотека эффективнее для долгосрочного хранения больших объёмов данных и подходит для компаний из различных отраслей: банковской, телекоммуникационной, медицинской, а также для медиа и нефтегазовой промышленности.</p> <p>«Мы понимаем, насколько важна бесперебойная работа систем резервного копирования и архивирования в условиях постоянно растущих объёмов информации. Nerpa TL AL707 — это новый флагман в нашем портфеле, который задаёт высокие стандарты производительности и ёмкости среди ленточных библиотек. Решение обладает потенциалом для роста благодаря поддержке новейшего поколения LTO», — отметила Наталья Гончарова, исполнительный директор Nerpa.</p> Российский ИТ-бренд Nerpa расширил продуктовый портфель новой флагманской ленточной библиотекой Nerpa TL AL707 с … message СберАналитика и СберКорус: почти 40% российских компаний используют BI-решения https://www.itweek.ru/themes/detail.php?ID=234484 Thu, 19 Mar 2026 16:17:11 +0300 <p>Эксперты СберАналитики и СберКорус представили результаты исследования использования систем бизнес-аналитики (BI) в российских компаниях. В опросе приняли участие 1147 наёмных сотрудников в возрасте от 18 до 65 лет, представляющих различные отрасли и уровни должностей.</p> <p>По данным исследования, 39% респондентов сообщили о внедрении инструментов анализа данных в их организациях. При этом 25% отметили, что подобные решения в компании не применяются. Среди тех, кто подтвердил наличие BI-систем, 56% уже имеют личный опыт работы с ними, тогда как 34% сотрудников не использовали такие инструменты самостоятельно.</p> <p>В разрезе бизнес-процессов инструменты анализа данных наиболее востребованы в финансовом планировании и контроле (31%), логистике и управлении цепочками поставок (26%), а также в производственных и операционных процессах (26%).</p> <p>Чаще всего BI-решения также применяются для анализа финансовых данных (41%), операционных показателей (37%) и клиентских и маркетинговых данных (34%). Также компании используют аналитику для обработки потоковых данных в режиме реального времени (33%) и информации из внешних источников (26%).</p> <p>Основные задачи, которые компании решают с помощью BI, связаны с оптимизацией внутренних процессов и снижением издержек (36%), планированием и прогнозированием (35%), выявлением причин неэффективности (28%), оценкой результатов инициатив (27%) и контролем отклонений (26%).</p> <p>Как отмечают также эксперты СберКорус, интеллектуальные ассистенты позволяют автоматизировать обработку входящих обращений и сопровождение электронных документов, снижая нагрузку на службы поддержки. В рамках пилотных проектов более 55% запросов обрабатываются полностью автоматически, остальные корректно маршрутизируются профильным специалистам. По мере развития и обучения моделей ожидается дальнейший рост доли автоматизированных операций и повышение качества обработки, что способствует оптимизации бизнес-процессов и сокращению количества ошибок.</p> <p>Ключевыми критериями выбора решений для обработки данных респонденты назвали производительность системы (46%) и удобство визуализации (40%). Стоимость внедрения учитывают 32% опрошенных, возможность интеграции с разнородными источниками данных — 29%.</p> <p>По оценке СберАналитики, бизнес-аналитика постепенно становится стандартом для среднего и крупного бизнеса, при этом следующий этап развития рынка будет связан с масштабированием ИИ-решений и повышением автономности пользователей в работе с данными. Технологии искусственного интеллекта находят применение и в системах электронного документооборота, а также в сервисах для взаимодействия компаний с контрагентами.</p> <p>Среди ограничений использования BI чаще всего отмечается зависимость от ИТ-подразделений или профильных специалистов (20%). Недостаточную гибкость решений, сложности в самостоятельном освоении инструментов и ограничения по производительности указали по 16% участников опроса.</p> <p>Отдельный блок исследования был посвящён системам бизнес-аналитики со встроенным искусственным интеллектом (Gen BI). Реальное внедрение таких решений подтвердили 15% компаний. При этом 57% сотрудников уже имели опыт взаимодействия с ИИ-инструментами в рамках пилотных или демонстрационных проектов. В целом 75% респондентов позитивно оценивают перспективы внедрения ИИ в аналитику, 68% считают такие решения релевантными для своей практики.</p> <p>Среди компаний, использующих BI-системы, 76% также работают с большими данными (Big Data). По оценке сотрудников, 81% в рамках своих должностных обязанностей взаимодействуют с крупными массивами данных или результатами их анализа: две трети делают это еженедельно, ещё четверть — не реже одного раза в месяц. Основные направления применения Big Data связаны с автоматизацией процессов (27%), оперативным контролем ключевых показателей (26%) и стратегическим планированием (23%).</p> Эксперты СберАналитики и СберКорус представили результаты исследования использования систем бизнес-аналитики (BI … message M1Cloud: смена приоритетов заказчиков облачных сервисов в 2026 году https://www.itweek.ru/themes/detail.php?ID=234483 Thu, 19 Mar 2026 16:16:31 +0300 <p>Сервис-провайдер M1Cloud проанализировал изменение спроса на облачные сервисы в первом квартале 2026 года. Несмотря на сохранение макроэкономической нестабильности, рынок облачных услуг демонстрирует адаптивность: заказчики смещают фокус с агрессивного расширения инфраструктуры на оптимизацию затрат, гарантированную безопасность и поддержку бизнес-критичных процессов.</p> <p>По итогам 2025 года российский облачный рынок показал устойчивый рост, однако структура спроса претерпела изменения. Если в предыдущие периоды драйвером выступала цифровая трансформация, то есть по сути оцифровка бизнес-процессов, то в 2026 году на первый план выходит технологическая локализация и экономическая эффективность ИТ-ландшафта.</p> <p>«Экономическая турбулентность 2026 года не остановила цифровизацию, но сделала ее более прагматичной. Заказчики меньше экспериментируют с инфраструктурой. Им нужна предсказуемость расходов, гарантированный SLA и соответствие регуляторике. Мы видим, что сервис-провайдинг становится стратегическим партнером для бизнеса, позволяющим конвертировать фиксированные ИТ-издержки в переменные и гибко масштабироваться в зависимости от рыночной конъюнктуры», — отметил Владимир Лебедев, директор по развитию бизнеса M1Cloud.</p> <p>Происходит смена парадигмы использования частных облаков. Если ранее частное облако рассматривалось преимущественно как инструмент защиты данных, то теперь заказчики видят в нем среду для бизнес-инноваций и запуска критичных приложений с гарантированными ресурсами. Доля облачных решений в инфраструктуре бизнеса продолжает расти, превысив отметку в 30%.</p> <p>В условиях ужесточения регуляторных требований и роста киберугроз расходы на информационную безопасность не сокращаются, даже в период турбулентности. Заказчики все чаще передают функции мониторинга и защиты провайдеру. Ключевыми запросами остаются соответствие <nobr>152-ФЗ,</nobr> защита периметра и безопасность данных в распределенной инфраструктуре.</p> <p>Экономическая неопределенность заставляет бизнес искать способы снижения капитальных затрат. В 2025 году запросы на сервисы аварийного восстановления (DRaaS) и резервного копирования (BaaS) в M1Cloud выросли в 3 раза. В 2026 году этот тренд сохраняется: компании предпочитают оплачивать готовую услугу восстановления вместо содержания резервных ЦОД. Также растет интерес к виртуальным рабочим столам (DaaS) как способу безопасной организации удаленной работы без закупки нового «железа» для сотрудников.</p> <p>Единственным сегментом, где наблюдается опережающий рост инвестиций несмотря на турбулентность, является инфраструктура для искусственного интеллекта. Спрос на GPU-ресурсы для обучения и инференса нейросетей продолжает увеличиваться, так как бизнес видит в ИИ-автоматизации способ долгосрочного снижения операционных расходов.</p> <p>В перспективе 2026 года, по прогнозам M1Cloud, будет дальнейшая консолидация рынка и рост спроса на гибридные модели инфраструктуры, позволяющие сочетать контроль частных облаков с экономичностью публичных сервисов.</p> Сервис-провайдер M1Cloud проанализировал изменение спроса на облачные сервисы в первом квартале 2026 года … message