itWeek https://www.itweek.ru Издание itWeek (до 2018 года — PC Week) на портале и на страницах бумажного номера информирует читателей об актуальных информационных и коммуникационных технологиях, продуктах и решениях и опыте развития цифровой экономики и цифровой трансформации предприятий и организаций всех масштабов и отраслей. Издание рассказывает о важнейших событиях отечественного и мирового рынка ИКТ и анализирует тенденции развития ИКТ-индустрии. https://www.itweek.ru/images/itweek/logo-100x40.gif itWeek https://www.itweek.ru Как рабочие нагрузки ИИ меняют дизайн дата-центров https://www.itweek.ru/themes/detail.php?ID=234677 Thu, 16 Apr 2026 10:06:11 +0300 <p><em>Рабочие нагрузки искусственного интеллекта меняют подход к проектированию центров обработки данных, определяя переход от жесткого резервирования к гибкости, адаптированной под конкретные потребности, пишет на портале </em><em>Data</em> <em>Center</em> <em>Knowledge</em> <em>Харкс Сингх, технический директор и соучредитель InfraPartners.</em></p> <p>На протяжении десятилетий дата-центры проектировались как коммерческие авиалайнеры. Они строились с многоуровневым резервированием, потому что отказ просто не был допустим и было неясно, какие приложения будут использовать инфраструктуру объекта. Большинству дата-центров приходилось учитывать различные типы приложений, с обеспечением резервных копий на случай, если что-то пойдет не так.</p> <p>Однако развитие ИИ принесло другую реальность — реальность, которая не требует исключительной отказоустойчивости и почти идеального времени безотказной работы, но при этом ограничена тем, что цепочка поставок не масштабируется достаточно быстро. Этот сдвиг сделал индустрию дата-центров гораздо менее похожей на авиацию и гораздо сильнее похожей на более широкую транспортную сеть, с множеством эталонных архитектур для ИИ-обучения или инференса. Потому что не для каждой перевозки нужен именно самолет. Некоторые могут быть лучше организованы поездами или грузовыми судами.</p> <p>Фактически, в ответ на диверсификацию моделей ИИ операторы отказываются от строительства каждого объекта с максимальным резервированием и вместо этого отдают приоритет прибыльности и энергоэффективности, используя каждый ватт с максимальной эффективностью и инвестируя капитал таким образом, чтобы обеспечить долгосрочную окупаемость. Понимание потребностей в производительности различных моделей и рабочих нагрузок ИИ помогает согласовывать дата-центры с требованиями приложений.</p> <h3>Почему ИИ меняет историю дата-центров</h3> <p>На протяжении большей части истории отрасли 99,999% времени безотказной работы было незыблемым требованием. Дата-центры обеспечивали работу систем, где даже секунды простоя имели немедленные последствия для фондовых бирж, платежных сетей и телекоммуникационной инфраструктуры. В этих средах сбои могли иметь чрезвычайно серьезные последствия для бизнеса. Представьте себе миллионы, потерянные за минуты, или сбои в работе критически важных служб для целых регионов. Поскольку операторы не всегда могли предсказать, какие приложения действительно будут критически важными, многие объекты по умолчанию строились в соответствии с высочайшими стандартами отказоустойчивости.</p> <p>Сегодня ИИ меняет эту необходимость. Хотя многие могут предположить, что новая технологическая эра обуславливает постоянно растущие требования к отказоустойчивости, в действительности различные модели, процессы обучения и инференса требуют совершенно разных уровней обслуживания. В некоторых случаях инфраструктуре не требуются резервные генераторы, сложные системы резервирования или высокоуровневая архитектура. Для рабочих нагрузок обучения ИИ не требуется тот уровень бесперебойной работы, к которому большинство из нас привыкло.</p> <p>Почему это важно? Очевидно, что отрасль находится под сильным давлением и пристальным вниманием. Спрос превышает предложение, нехватка рабочей силы задерживает проекты, а перерасход средств остается постоянной проблемой. В то же время спрос и требования ИИ значительно растут. Использование по умолчанию сверхнадежных высокоуровневых решений для каждого развертывания ИИ усугубляет это давление. Многоуровневые системы резервирования электропитания, обширная резервная инфраструктура и полностью дублированные среды увеличивают капитальные затраты и могут значительно замедлить ввод мощностей в эксплуатацию. Они также вводят операционную сложность, которая просто не требуется для этих рабочих нагрузок.</p> <h3>Почему рабочие нагрузки ИИ отличаются</h3> <p>Многие корпоративные дата-центры были спроектированы для традиционных ИТ-нагрузок, но для ИИ нужен более широкий спектр объектов, удовлетворяющих различные потребности в производительности и времени безотказной работы. Например, крупные центры обучения ИИ работают иначе, чем традиционные площадки, вокруг которых строилась отрасль. Эти среды, использующие графические процессоры, работают в огромных масштабах, при этом основными ограничениями являются доступность электроэнергии и охлаждение. Поскольку эти рабочие нагрузки распределены и основаны на контрольных точках, они функционируют скорее как пакетная обработка, и можно предусмотреть бóльшую гибкость для более быстрого запуска и использования мощностей.</p> <p>Напротив, развертывания инференса обычно производятся ближе к населенным пунктам и службам поддержки, с которыми пользователи регулярно взаимодействуют. Поскольку они связаны с клиентским опытом, ожидания в отношении времени безотказной работы и отказоустойчивости остаются высокими, и инфраструктура должна быть спроектирована таким образом, чтобы обеспечить непрерывную доступность либо на уровне площадки, либо в распределенной модели отказоустойчивости.</p> <p>Это разнообразие требований приводит нас к портфелю различных типов объектов без универсального подхода или высоких ожиданий в отношении создания резервных копий и избыточности. В эпоху ИИ речь идет скорее о «точной отказоустойчивости», то есть об избыточности, отражающей фактическое поведение рабочих нагрузок, а не об опоре на устаревшие проектные предположения.</p> <h3>Цена избыточного проектирования</h3> <p>Ошибка, заключающаяся в проектировании чрезмерной отказоустойчивости по всем направлениям, приводит к замораживанию капитала, который мог бы быть направлен на увеличение вычислительных мощностей, и замедляет развертывание новых площадок.</p> <p>Операторам следует стремиться к балансу. Модернизируемые дата-центры, использующие стандартные эталонные дизайны и блоки,поступающие на строительные площадки, позволяют развертывать инфраструктуру гораздо быстрее. Стандартизация компонентов и их разработка в заводских условиях позволяют операторам снизить сложность на месте и получить гораздо больший контроль над затратами и сроками. Этот вариант упрощает принятие обоснованных решений об отказоустойчивости, производительности и скорости выхода на рынок.</p> <p>Эта стандартизация идет рука об руку с созданием стандартных эталонных дизайнов, которые нам начинают требоваться и которые мы уже видим в контексте ИИ. Когда базовые компоненты стандартизированы, операторы могут гораздо эффективнее собирать объекты различных типов. Стандартизация предоставляет строительные блоки, а эталонные дизайны определяют, как они собираются.</p> <h3>Гибкость имеет фундаментальное значение</h3> <p>Инфраструктура ИИ развивается слишком быстро для жестких проектных предположений, поэтому дизайны должны быть гибкими, чтобы удовлетворить потребности завтрашнего дня. В ближайшие годы ландшафт ИИ, вероятно, будет включать в себя несколько типов объектов. Это будут как энергоэффективные центры обучения, построенные вблизи источников энергии, так и распределенные площадки для инференса, где время безотказной работы и задержка напрямую влияют на пользовательский опыт, а также гибридные среды, поддерживающие как задачи ИИ, так и традиционные рабочие нагрузки.</p> <p>Подобно разнообразной транспортной сети самолетов, поездов и судов, каждый из них служит разным целям и имеет свои компромиссы. Но отказоустойчивость всегда должна быть осознанным проектным решением, определяемым рабочей нагрузкой, бизнес-моделью и получаемым доходом.</p> Рабочие нагрузки искусственного интеллекта меняют подход к проектированию центров обработки данных, определяя переход … article Чем больше вы контролируете, тем меньше управляете https://www.itweek.ru/themes/detail.php?ID=234675 Thu, 16 Apr 2026 09:52:58 +0300 <p><em>В статье расскажу</em><em>, почему постоянный контроль разрушает команду и как выстроить делегирование эффективно</em><em>.</em></p> <h3>Парадокс контроля</h3> <p>Есть одна картина, которую я наблюдаю с пугающей регулярностью. Руководитель работает больше всех в команде. Проверяет каждое решение. Согласовывает каждый подход. Лично вычитывает каждый документ, прежде чем тот уйдёт наружу. И при этом у него стойкое ощущение, что без него всё развалится — что команда не справляется, что люди недостаточно зрелые, что проще и быстрее сделать самому, чем объяснять. Он называет это ответственностью. Иногда — перфекционизмом. Иногда — «ну а кто, если не я».</p> <p>А на самом деле это управленческая ловушка, причём из тех, которые затягиваются постепенно. Пока команда маленькая — два-три человека — ещё можно лично контролировать каждую задачу. Но по мере роста задач становится больше, людей становится больше, а личная пропускная способность руководителя остаётся ровно такой же, какой была. И в какой-то момент скорость всей команды начинает упираться в скорость одного человека. Не потому что люди слабые, а потому что система устроена так, что каждое решение проходит через одну точку. Руководитель становится узким местом собственной команды — и чем старательнее он контролирует, тем уже это место становится.</p> <p>К этой ситуации хорошо подходит одна циничная, но точная управленческая шутка: <em>«„Хочешь, чтобы что-то было сделано хорошо — сделай это сам“ — отличная надпись для надгробия молодого менеджера».</em></p> <p>Она точно описывает установку, которая выглядит ответственной, но на практике разрушает и руководителя, и команду одновременно. Команда не развивается, потому что ей не дают брать ответственность. Руководитель не растёт, потому что тонет в чужой операционке. Все застревают, и никому не понятно, почему.</p> <p>Парадокс в том, что плотный контроль создаёт иллюзию управления, хотя по факту его разрушает.</p> <h3>Контроль — это не управление</h3> <p>Здесь стоит разобраться в одном различии, которое кажется очевидным, но на практике игнорируется постоянно. Контроль и управление — это разные вещи. Контроль — это проверка каждого шага: правильно ли выбран подход, в том ли порядке идёт работа, не отклонился ли человек от того, что вы имели в виду. Управление — это создание условий, при которых правильные решения принимаются без вашего ежеминутного участия. Контроль масштабируется линейно: чем больше задач, тем больше вашего времени он съедает. Управление масштабируется системно — вы строите конструкцию один раз, и она работает.</p> <p>Проблема в том, что большинство руководителей, особенно выросших из сильных специалистов, по умолчанию идут в контроль. Это привычная модель: ты лучше всех разбираешься в предмете, ты видишь ошибки быстрее, чем другие их совершают, и тебе кажется, что проще поправить самому, чем объяснять. Но с каждой такой поправкой вы укрепляете систему, в которой люди не принимают решений — они приносят вам полуфабрикаты и ждут вашего вердикта. Вы не руководитель в этот момент. Вы — самый дорогой контролёр качества в компании.</p> <p>Переход от контроля к управлению начинается с одной конкретной управленческой операции — делегирования. И здесь нужно разобраться, что это слово означает на самом деле, потому что используется оно повсюду и почти всегда неправильно. Руководитель поручил подготовить отчёт — «делегировал». Попросил коллегу провести встречу — «делегировал». Передал задачу в Jira — «делегировал». На деле ни в одном из этих случаев делегирования не произошло. Произошла постановка задачи — обычная, штатная, не требующая передачи никаких новых полномочий.</p> <p>Разница принципиальная. Постановка задачи — это когда вы поручаете человеку работу, которую он и так имеет право выполнять. Разработчик писал код и до вашего поручения, аналитик делал отчёты и до вашей просьбы. Вы определяете, что нужно сделать, человек выполняет, ответственность за правильность постановки — на вас. Делегирование начинается тогда, когда вы передаёте человеку права, которых у него раньше не было: право принимать решения, распоряжаться ресурсами, определять приоритеты в своей области. Если никаких новых полномочий не передано — делегирования не было, как бы вы это ни называли.</p> <p>Вот конкретный пример, чтобы разница стала осязаемой. Ситуация первая: вы говорите разработчику «реализуй функцию уведомлений к пятнице». Это постановка задачи — он и так пишет код, никаких новых прав не возникло. Ситуация вторая: вы говорите тому же разработчику «ты теперь отвечаешь за весь модуль уведомлений, принимаешь архитектурные решения, расставляешь приоритеты, согласовываешь требования с продактом». Вот это делегирование — человек получил полномочия, которых раньше у него не было, и вместе с ними взял на себя ответственность за результат, а не просто за исполнение.</p> <p><em>«Раньше я приказывал тебе от своего имени, а теперь ты сам приказывай себе, но от моего имени»</em><em>.</em></p> <p>Эта формула звучит грубовато, но она передаёт суть делегирования точнее, чем любое длинное объяснение. Сотрудник не получает свободу делать что угодно. Он берёт на себя функцию, которую раньше выполнял руководитель: сам ставит себе задачи, сам выбирает подход, сам расставляет приоритеты — но делает это не по собственному разумению, а по тем же принципам, по которым действовал бы руководитель. Делегирование — это не передача свободы, а передача управленческой логики.</p> <p>На практике это означает, что после делегирования у сотрудника должен работать один внутренний тест. Каждый раз, когда он сталкивается с неочевидным выбором, он спрашивает себя: «А как бы мой руководитель решил это?». Если он понимает логику, приоритеты и принципы руководителя, он способен действовать автономно и при этом оставаться управляемым. Если не понимает, начинается угадывание. А угадывание — это не автономность, это лотерея с предсказуемым финалом: либо человек дёргает вас по каждому поводу, либо принимает решение, которое вы потом называете «ну это же очевидно неправильно». Очевидно — для вас. Потому что принципы знаете вы, а ему их никто не передал.</p> <p>И вот здесь возникает неудобная правда. Делегирование требует от руководителя предварительной работы — нужно сделать свои принципы принятия решений явными. Пока они существуют только в вашей голове в виде интуиции и «ну это же понятно», передать их невозможно. А значит, каждый раз, когда вы злитесь на сотрудника за неправильное решение в делегированной области, стоит задать себе честный вопрос: а вы ему объяснили, как правильно? Не задачу объяснили — задачу-то он понял, — а именно логику, по которой нужно выбирать между вариантами?</p> <p>Делегирование состоялось не тогда, когда вы сказали «ты теперь отвечаешь», а тогда, когда человек понял, как принимать решения от вашего имени.</p> <h3>Рамка: как передать управление, не потеряв управляемость</h3> <p>Принципы — необходимая, но не достаточная часть. Чтобы делегирование реально работало, сотруднику нужна полная рамка — структурированная система договорённостей, которая закрывает все практические вопросы, возникающие в процессе автономной работы. Без этой рамки даже мотивированный и компетентный человек будет либо постоянно перестраховываться, либо заходить туда, куда заходить не должен. И оба варианта — следствие одной причины: ему не обозначили границы поля, на котором он играет.</p> <p>Рамка начинается с цели — не задачи, не функции, а конечного состояния, к которому нужно прийти. Например, стабильная работа модуля уведомлений без задержек и потерь. Именно цель становится компасом в ситуациях, когда ни одна инструкция не покрывает конкретный случай: сотрудник спрашивает себя, какое решение ведёт к этой цели, и действует. Это уже не слепое исполнение и не произвольная самодеятельность — это управляемая автономность.</p> <p>Дальше идут принципы принятия решений — те самые критерии, по которым сотрудник выбирает между вариантами. Стабильность важнее скорости. Обратная совместимость не нарушается без явного согласования. Решения, увеличивающие нагрузку на базу данных, сначала обсуждаются. Это не инструкции и не правила — это явная логика руководителя, переданная в формате, который можно применять самостоятельно.</p> <p>Третий элемент — границы решений. Что можно решать самостоятельно, что нельзя. Можно менять внутреннюю реализацию — нельзя менять публичный API. Можно привлекать других разработчиков для консультации — нельзя принимать обязательства, которые влияют на бюджет или сроки контрактов. Без этих границ человек либо боится шагнуть вправо-влево и тащит к вам каждую мелочь, либо принимает решения, выходящие далеко за пределы того, что вы имели в виду, когда говорили «ты отвечаешь».</p> <p>Четвёртый — ресурсы: что именно есть в распоряжении. Может ли сотрудник привлекать людей из других команд? Заказывать инфраструктуру? Договариваться с внешними контрагентами? Если человек отвечает за результат, но не понимает, какими инструментами вправе пользоваться, он либо действует слишком робко и не достигает цели, либо слишком широко и создаёт конфликты.</p> <p>Пятый — точки эскалации. Конкретные ситуации, в которых сотрудник прекращает действовать самостоятельно и возвращается к руководителю. Срок начинает срываться — сообщи. Нужно менять архитектуру — обсудим. Конфликт приоритетов с другой командой — это не твоё одностороннее решение. Точки эскалации — это не признак недоверия, а управленческий договор о том, где заканчивается автономность. Без них сотрудник либо тянет до последнего, скрывая нарастающую проблему, либо бегает к вам с каждым чихом.</p> <p>И наконец, элемент, который упускают чаще всего: об изменении полномочий должны знать окружающие. Если сотрудник получил право принимать решения, но коллеги и смежные команды об этом не в курсе — его будут воспринимать как самозванца. Каждое его решение будет оспариваться, каждое действие — вызывать вопрос «а кто тебе разрешил?». Информирование окружения — не бюрократия, а завершающий акт делегирования, без которого полномочия остаются декларацией.</p> <p>На практике передача рамки обычно происходит в разговоре с подчиненным. Важно проговорить все шесть элементов и убедиться, что человек понял их правильно. Например, сказать: «Смотри, давай сверимся. Как ты будешь действовать в следующий раз, когда встанет вот такой вопрос? Что учтёшь?» Если ответ совпадает с тем, что вы имели в виду, значит рамка передана. Если нет, лучше выяснить это сейчас до того как человек примет неверные решения.</p> <h3>Четыре способа сломать делегирование</h3> <p>Делегирование ломается не случайно — оно ломается в предсказуемых точках, и каждая из них связана с тем, что какой-то элемент рамки не был передан или был передан неправильно. Все четыре ошибки, которые я вижу регулярно, по-разному связаны с главным парадоксом этой статьи — с отношением руководителя к контролю.</p> <p><strong>● Первая и самая распространённая — псевдоделегирование. </strong>Руководитель произносит слова «ты отвечаешь за проект», но при этом продолжает согласовывать каждое решение, регулярно переопределяет подход, меняет приоритеты на ходу. Сотрудник формально назначен ответственным, но фактически не принимает ни одного самостоятельного решения: он по-прежнему исполнитель, только теперь ещё и с грузом ответственности за результат, на который реально не влияет. Это та ситуация, когда контроль полностью сохранён, а делегирование существует только на словах. Демотивирует мгновенно, плюс для бизнеса несет серьезный ущерб: два сотрудника выполняют одну и ту же работу.</p> <p><strong>● Вторая ошибка — ответственность без полномочий. </strong>Сотруднику поручили организовать мероприятие и сказали, что он за него отвечает. При этом каждого подрядчика нужно согласовать, каждый расход — получить одобрение, каждое решение о формате — провести через руководителя. Человек тратит большую часть энергии не на организацию мероприятия, а на получение разрешений. Результат зависит не от его компетентности, а от того, как быстро руководитель отвечает на запросы. Это не строгость и не осторожность. Это управленческая жестокость — потому что вы поставили человека в ситуацию, где он не может выполнить то, за что отвечает.</p> <p><strong>● Третья ошибка — бросание. </strong>Это зеркальная крайность: руководитель передал задачу, обозначил рамку и полностью исчез. Сотрудник не получает обратной связи, не понимает, в правильном ли направлении движется, а главное — не имеет реальной точки, куда можно прийти с нарастающей проблемой. Точки эскалации были упомянуты, но они работают только тогда, когда руководитель доступен и реагирует. Особенно опасна эта ошибка для менее опытных сотрудников: они тянут до последнего, не желая выглядеть некомпетентными, и обнаруживают катастрофу, когда исправлять её уже поздно.</p> <p><strong>● Четвёртая ошибка — переделегирование. </strong>Человеку дают уровень автономности, к которому он объективно не готов. Это часто случается при быстром карьерном росте: сильный специалист получает большую зону ответственности, но управленческая зрелость — умение работать с неопределённостью, принимать системные решения, управлять конфликтами приоритетов — не появляется одномоментно. Пока всё спокойно, он справляется. При первом серьёзном кризисе действует так, как умел раньше, а не так, как требует новая роль. Выход здесь в том, чтобы временно увеличить число точек эскалации: чаще сверяться и явно обозначить, в каких ситуациях нужно приходить, не дожидаясь катастрофы. Иногда нужно просто дать чуть меньше самостоятельности, пока человек не освоится.</p> <p>Все четыре ошибки — это разные формы одного и того же: несовпадения между объявленным уровнем автономии и реальной управленческой конструкцией вокруг неё. Делегирование было произнесено, но не было выстроено.</p> <h3>Управление — это не про то, чтобы быть самым большим растением в теплице</h3> <p>Вернёмся к парадоксу, с которого мы начали. Руководитель, который контролирует каждый шаг, не управляет — он раб системы, которую сам же и создал. Систему, в которой ничего не происходит без его ведома, ничего не решается без его участия, и каждый человек в команде постепенно привыкает не думать, а приносить полуфабрикаты на согласование. Чем дольше эта система работает, тем увереннее руководитель в том, что без него всё рухнет. И он прав — рухнет. Но не потому что люди слабые, а потому что он никогда не давал им возможности быть сильными.</p> <p>Делегирование — это выход из этого замкнутого круга. Не потому что вы «отпускаете контроль» и надеетесь на лучшее, а потому что вы заменяете ручное управление каждым решением на конструкцию, которая работает без вашего ежеминутного участия. Цель, принципы, границы, ресурсы, точки эскалации — это и есть система управления. Всё остальное — только контроль.</p> <p>Правильно выстроенное делегирование — это управленческий навык, а не врождённая черта и не следствие должности. Он требует осознанности, точности и готовности вложить время в начале, чтобы не терять его многократно потом. Но главное — он требует честного ответа на вопрос, который большинство контролирующих руководителей себе не задают: вы держите всё в своих руках потому, что так лучше для команды, — или потому, что так спокойнее лично вам?</p> <p>#IMAGE_234676#</p> В статье расскажу, почему постоянный контроль разрушает команду и как выстроить делегирование эффективно. Парадокс … article Алексей Кирсанов, руководитель отдела разработки ”1С-Битрикс” Indeed AM 9.4: усиленная защита, новые сценарии аутентификации и гибкое управление доступом https://www.itweek.ru/themes/detail.php?ID=234674 Wed, 15 Apr 2026 16:43:33 +0300 <p>Компания «Индид», российский разработчик решений в области защиты айдентити, представила новую версию системы управления доступом и многофакторной аутентификации — Indeed Access Manager 9.4 (Indeed AM). Ключевые обновления расширяют сценарии аутентификации, усиливают безопасность доступа и делают работу с системой удобнее как для администраторов, так и для пользователей.</p> <p>В новой версии Indeed Access Manager 9.4 стал доступен расширенный список поддерживаемых каталогов пользователей, включая ALD Pro, Samba DC, РЕД АДМ и FreeIPA. Это позволяет интегрировать решение в инфраструктуру заказчика без сложных доработок и при этом сохранять привычные процессы управления учетными записями, что особенно актуально для компаний в условиях импортозамещения. Настройка каталогов выполняется через мастер конфигурации, сокращая время развертывания решения. В результате администраторы получают централизованный контроль над пользователями и группами, а сотрудники — удобный и безопасный доступ к корпоративным ресурсам.</p> <p>Отдельное внимание в Indeed AM 9.4 компания «Индид» уделила развитию модулей интеграции. Обновления позволяют гибче управлять доступом и повышать устойчивость системы без изменения существующей архитектуры. Так, в модуле Identity Provider появилась возможность настраивать политики доступа на уровне отдельных бизнес-приложений. Это дает администраторам больше контроля и позволяет учитывать требования конкретных сервисов при управлении доступом. Также реализован сценарий смены доменного пароля при входе, что упрощает аутентификацию для пользователей, у которых нет прямого доступа к доменной рабочей станции.</p> <p>Развитие получили и модули входа в систему: Linux Logon теперь поддерживает многофакторную аутентификацию с использованием RFID-карт и считывателя IronLogic Z-2 USB, а также работу через балансировщик нагрузки. Это одновременно расширяет варианты подтверждения входа, повышая уровень защиты рабочих станций и позволяет распределять нагрузку при аутентификации, делая более отказоустойчивой систему. Кроме этого, в модуле Windows Logon реализовано кеширование учетных данных, благодаря чему пользователи могут входить в систему даже при отсутствии подключения к сети. Администраторы при этом могут гибко управлять сроками действия аутентификаторов и хранения сессий. Дополнительно поддержана аутентификация с использованием RFID-карт, что повышает безопасность доступа.</p> <p>Новая версия продукта также расширяет возможности мастера конфигурации Indeed Access Manager. С его помощью можно устанавливать компоненты системы сразу на несколько физических или виртуальных серверов, при этом для каждого хоста мастер формирует отдельный набор конфигурации. Такой подход позволяет разворачивать и обновлять программный комплекс сразу в продуктовой конфигурации, сокращая время его установки и объем ручных настроек.</p> <p>В Indeed AM 9.4 разработчик добавил возможность устанавливать Indeed Key Server прямо через мастер конфигурации. Это упрощает процесс внедрения и снижает вероятность ошибок при установке, поскольку настройка сервера вынесена на отдельную страницу мастера. Indeed Key Server позволяет пользователям проходить аутентификацию с помощью push-уведомлений и одноразовых паролей, а с выходом новой версии этот сценарий стал доступнее для внедрения и использования.</p> <p>Еще одним улучшением стали новые сценарии аутентификации, которые делают подтверждение входа одновременно удобнее и безопаснее. В частности, в системе появился новый провайдер — Indeed AM eXpress Provider, позволяющий входить в корпоративные приложения через мессенджер eXpress с помощью push-уведомлений. Такой подход снижает зависимость от одноразовых кодов и упрощает пользовательский опыт, сохраняя при этом высокий уровень защиты.</p> <p>«Развивая Indeed Access Manager, мы в первую очередь стремимся совершенствовать сам подход к защите айдентити, помогая компаниям повышать уровень безопасности без усложнения сценариев его использования и дополнительной нагрузки на инфраструктуру. В новой версии 9.4 мы сосредоточились на практических задачах заказчиков: упростили внедрение и развертывание продукта, обеспечили более быструю интеграцию Indeed AM в инфраструктуру компаний, работающих в разных средах, а также добавили новые возможности аутентификации, которые делают работу пользователей удобнее. Такой подход помогает организациям выстраивать устойчивую систему управления доступом в условиях растущих угроз, эффективно использовать уже внедренные решения и последовательно повышать зрелость процессов безопасности», — отметил Николай Ильин, руководитель продукта Indeed AM компании «Индид».</p> Компания «Индид», российский разработчик решений в области защиты айдентити, представила новую версию системы управления … message «Интерпроком» представила платформу «АКСИОМА-М» для быстрой разработки мобильных приложений https://www.itweek.ru/themes/detail.php?ID=234673 Wed, 15 Apr 2026 16:42:41 +0300 <p>Компания «Интерпроком» объявила о выходе платформы «АКСИОМА-М», которая предназначена для быстрой и эффективной разработки мобильных приложений, что позволяет предприятиям ускорить цифровую трансформацию в условиях дефицита ИТ-кадров.</p> <p>Создание платформы стало еще одним важным шагом в развитии экосистемы средств разработки ЕАМ-платформы «АКСИОМА». «АКСИОМА-М» обеспечивает единые стандарты разработки, гибкую кастомизацию интерфейсов и позволяет создавать качественные приложения с меньшими затратами, оперативно улучшая пользовательский опыт в соответствии с меняющимися ожиданиями клиентов.</p> <p>«Ускорение цифрового бизнеса становится серьёзным вызовом для ИТ-руководителей: необходимо резко увеличить скорость разработки при дефиците кадров и оптимизации затрат. „АКСИОМА-М“ решает эту задачу, позволяя создавать приложения с помощью инструментов с минимальным кодом, что снижает нагрузку на разработчиков и ускоряет вывод продуктов на рынок», — подчеркнул Леонид Винокуров, вице-президент по развитию бизнеса компании «Интерпроком».</p> <p>Возможность быстро модернизировать устаревшие приложения и внедрять новые современные цифровые решения создает условия для повышения внутренней эффективности предприятия, ускорения инноваций и трансформации рабочих процессов.</p> <p>Платформа позволяет создавать как прогрессивные веб-приложения (PWA), так и нативные мобильные приложения любого уровня сложности, используя единую кодовую базу. Создав прикладное ПО один раз, заказчик может развернуть его на различных мобильных платформах. </p> <p>«АКСИОМА-М» построена на основе трёхуровневой архитектуры, обеспечивающей разделение ответственности между отображением, логикой и данными. В ней реализованы два режима работы: мобильный онлайн-клиент для любой системы на базе «АКСИОМА» и автономная мобильная платформа для работы без доступа к сети. </p> <p>Интерфейсы приложений создаются с помощью быстрой визуальной сборки из готовых подключаемых компонентов и шаблонов. </p> <p>«АКСИОМА-М» поддерживает работу мобильных устройств под управлением отечественной операционной системы, обеспечивает многоуровневую безопасность, консолидацию платформ разработки, автоматизированное тестирование, мультиязычность, возможность использования NFC, QR-кодов и штрихкодов, предоставляет встроенный бэкенд-сервис для подключения к REST/SOAP API, базам данных и унаследованным системам и ряд других возможностей. </p> <p>Платформа обеспечивает весь жизненный цикл разработки, что позволяет предприятиям быстро внедрять мобильные решения, сокращать затраты и обеспечивать бесперебойную работу сотрудников даже при отсутствии сети.</p> <p>«АКСИОМУ-М» отличают универсальность, архитектурная прозрачность, адаптивность и простота разработки, что гарантирует получение целевого результата быстро, эффективно и качественно.</p> Компания «Интерпроком» объявила о выходе платформы «АКСИОМА-М», которая предназначена для быстрой и эффективной … message Rubytech представила новую Машину динамической инфраструктуры Скала^р https://www.itweek.ru/themes/detail.php?ID=234672 Wed, 15 Apr 2026 16:39:44 +0300 <p>Группа Rubytech объявила о выпуске новой Машины серверной виртуализации Скала^р МДИ.В, которая пополнила линейку программно‑аппаратных комплексов (ПАК) динамической инфраструктуры и пришла на смену Машине Скала^р МВ.С. Новинка воплощает следующее поколение Машин с обновленным стеком технологий: она более производительна, универсальна и современна по сравнению с предшественником.</p> <p>Скала^р МДИ.В — это ПАК виртуализации для высоконагруженных корпоративных и государственных информационных систем, который помогает заказчикам эффективно запускать десятки и сотни виртуальных серверов на одном оборудовании — без потери скорости и надежности. Интегрированное ИТ-решение включает в себя уже успешно апробированные разработки. Аппаратную часть ПАК составляют серверы" на производственных процессорах нового поколения. Программная платформа Basis Dynamix Standard отвечает за создание отказоустойчивой среды виртуализации. Все компоненты продукта протестированы на совместимость, а поддержка осуществляется по принципу «одного окна».</p> <p>Платформа позволяет наращивать мощности по мере роста бизнеса: добавлять новые серверы и хранилища без остановки работы. Это похоже на расширение офиса без прерывания рабочего дня — новые помещения подключаются незаметно для сотрудников и клиентов. Система надежно защищает данные: если один сервер выходит из строя, работа автоматически переносится на другой, и пользователи даже не замечают сбоя. Данные дублируются в разных местах, а в случае крупной аварии, например отключения электричества в дата‑центре, бизнес может быстро переключиться на резервные площадки в других регионах.</p> <p>ПАК серверной виртуализации Группы Rubytech подойдет для самых разных задач. Он эффективно работает с корпоративными системами — ERP, CRM, базами данных, — обеспечивая их стабильную работу даже при пиковых нагрузках. Кроме того, система отлично справляется с ресурсоемкими сервисами: например, с видеоаналитикой, онлайн‑трансляциями или обработкой больших данных. Она обрабатывает потоки информации в режиме реального времени, что критически важно для современных бизнес‑процессов.</p> <p>Гибкость новой Машины серверной виртуализации заключается в ее совместимости с разными типами хранилищ данных — как с классическими аппаратными СХД, так и с современными легко масштабируемыми гиперконвергентными программно-определяемыми хранилищами. Заказчик может начать с небольшого кластера, а затем постепенно модернизировать инфраструктуру без замены всего оборудования. Управлять всей этой сложной системой можно из единого центра через простой веб‑интерфейс или программные инструменты Скала^р Геном и Базис.vControl. Администраторы видят состояние всех серверов, хранилищ и виртуальных машин в одном окне и могут оперативно реагировать на любые изменения.</p> <p>Безопасность Машины Скала^р МДИ.В соответствует строгим государственным стандартам: встроенные инструменты защиты Базис.VirtualSecurity, Avanpost FAM и «Соболь» надежно ограждают данные от несанкционированного доступа. Платформа соответствует требованиям ФСТЭК России и обеспечивают возможность хранения и обработки информации в государственных информационных системах до 1 класса защищенности включительно, в информационных системах персональных данных при необходимости обеспечения 1 уровня защищенности персональных данных, значимых объектах критической информационной инфраструктуры <nobr>1-ой</nobr> категории значимости.</p> <p>Машина Скала^р МДИ.В работает в <nobr>5–6</nobr> раз быстрее аналогов при использовании современных технологий хранения данных (HCI‑режим). Это значит, что операции ввода-вывода, которые раньше занимали минуту, теперь выполняются за <nobr>10–12 секунд.</nobr> При тестировании на сверхбыстрых дисках (NVMe) система показала рекордную скорость обработки — 2 миллиона операций в секунду. Для бизнеса это выливается в мгновенные ответы для клиентов, формирование отчетов за секунды вместо минут и бесперебойную работу сервисов даже в периоды пиковых нагрузок.</p> <p>Простота внедрения в текущую ИТ-инфраструктуру заказчика тоже играет важную роль: все настраивается и запускается автоматически, без многонедельной ручной настройки. Высококвалифицированные специалисты сопровождают решение на всех этапах — от поставки до эксплуатации.</p> <p>Успешные практические внедрения подтверждают заявленные преимущества Скала^р МДИ.В. Платформа не только соответствует заявленным техническим характеристикам, но и уже доказала свою эффективность в реальных проектах. Например, ПАК стал основой Машины специализированных банковских систем Скала^р МСП.БС и успешно прошел испытания на отраслевом полигона ИЦК «Финансы» по направлениям процессинга и АБС. Это позволило подтвердить стабильность Машины серверной виртуализации в условиях высокой нагрузки и соответствие строгим требованиям банковского сектора. Кроме того, Скала^р МДИ.В выступила технологической основой для виртуального КБ — специализированного решения для конструкторских бюро, анонсированного Группой Rubytech в марте 2026 года.</p> <p>«Скала^р МДИ.В — это не просто замена старой модели, а настоящий шаг вперед в развитии ИТ‑решений виртуализации серверной инфраструктуры. Мы пошагово формируем технологическую основу следующего поколения технологий виртуализации, призванную стать краеугольным камнем будущей ИТ‑инфраструктуры, — отметил Сергей Маркевич, владелец продукта Скала^р МДИ.В (Группа Rubytech). — Созданный нами ПАК позволяет бизнесу и госорганам строить гибкую, быструю и безопасную инфраструктуру. Он растет вместе с задачами компании и не требует постоянных вложений в модернизацию: компании экономят на оборудовании, поскольку нет необходимости покупать избыточные мощности „про запас“. Наращивание происходит точечно, по мере необходимости».</p> Группа Rubytech объявила о выпуске новой Машины серверной виртуализации Скала^р МДИ.В, которая пополнила линейку … message Новый NLU Suite от BSS: как создать кастомную языковую модель с минимальными затратами https://www.itweek.ru/themes/detail.php?ID=234671 Wed, 15 Apr 2026 16:37:02 +0300 <p>BSS добавила поддержку LoRA (Low-Rank Adaptation) в инструмент для обучения моделей NLU Suite. Теперь можно обучать языковые модели под локальные задачи быстрее, дешевле и даже при сильно ограниченных мощностях.</p> <p>Вместо полного переобучения модели LoRA позволяет добавить к ней «блок» под нужды клиента. В итоге обучается не исходная модель, а небольшие матрицы, которые на нее накладываются. Это позволяет создать <nobr>LLM-эксперта</nobr> в заданной области гораздо быстрее, чем при традиционном тюнинге.</p> <p>Для запуска достаточно обеспечить сервер и данные для обучения. Обучающие корпуса можно подготовить с нуля в NLU Suite с помощью любой мощной модели — например, GPT-5. Параметры дообучения можно выставить по умолчанию или настроить в процессе работы. Так можно настраивать как полные модели, так и квантизированные (сжатые) модели.</p> <p>Качество ответов после дообучения в среднем растет на 15%. При этом обученные компактные модели с меньшей памятью (1 млрд параметров) обгоняют необученные большие <nobr>(27–30 млрд)</nobr> на целевых запросах. А разница в качестве обученных компактных (1 млрд) и обученных средних (9 млрд) моделей составляет лишь <nobr>5–10%.</nobr> Это значит, что даже при ограниченных ресурсах можно получить эффективную специализированную модель.</p> <p>Обновление затрагивает и пользовательский опыт: упростилась загрузка обучающих и тестовых датасетов, обновился интерфейс для сравнения результатов, появилось автоматическое восстановление задач при сбоях.</p> <p>Как новое решение может повлиять на бизнес, рассказал директор департамента голосовых цифровых технологий BSS Александр Крушинский: «Наше решение сокращает стоимость и сроки внедрения, а также снижает зависимость от специалистов по дообучению моделей — то есть, повышает доступность использования <nobr>LLM-технологий</nobr> в бизнесе».</p> BSS добавила поддержку LoRA (Low-Rank Adaptation) в инструмент для обучения моделей NLU Suite. Теперь можно обучать языковые … message Иллюзия безопасности мобильных приложений: почему root-детекцию обходят за минуты https://www.itweek.ru/themes/detail.php?ID=234669 Wed, 15 Apr 2026 10:08:37 +0300 <p>В мире мобильной безопасности существует устойчивое заблуждение: если приложение при запуске проверило, есть ли на устройстве root или джейлбрейк, значит, можно выдохнуть. Но это только видимость безопасности — создается иллюзия защиты, но профессионалы знают, что хакеры обходят примитивные проверки за минуты, используя инструменты, которые сегодня доступны буквально каждому.</p> <h3>Кто в группе риска</h3> <p>Взгляд со стороны злоумышленника всегда помогает понять, почему одни приложения атакуют постоянно, а другие обходят стороной. Хакеры идут за деньгами и вниманием государства. Основная масса атак приходится на финансовый сектор — банковские приложения остаются наиболее привлекательной целью. Следом идут приложения госорганов и «Госуслуги»: здесь цель — шпионаж и персональные данные. Замыкают список маркетплейсы и ритейл. Это обусловлено не только «ликвидностью» целей, но и темпом разработки: чем чаще обновляется приложение и чем больше в нем функций, тем выше вероятность человеческой ошибки в коде, которую и эксплуатируют хакеры.</p> <p>Однако было бы ошибкой считать, что приложения вне этих категорий никому неинтересны. Внутренние корпоративные приложения — обходчики, проводники, CRM-системы для сотрудников банков — сами по себе не слишком популярны, зато дают прямой доступ к критически важной части инфраструктуры. Такие цели для атакующих особенно интересны именно потому, что их защищают хуже.</p> <p>Чтобы понять, как именно используется root-доступ, важно посмотреть на ситуацию глазами злоумышленника. Root — это важный инструмент: он позволяет свободно анализировать приложение, перехватывать его работу и вносить изменения в код и поведение. С его помощью хакер ищет уязвимости, изучает взаимодействие с API, создает модифицированные версии приложения или вредоносные клоны.</p> <p>Почему через такие сценарии реализуются основные типы атак? Во-первых, финансовая выгода<strong>.</strong> Root-доступ позволяет модифицировать клиентское приложение (например, отключать проверки или менять параметры операций), проксировать трафик и работать с API от имени пользователя, а также создавать вредоносные клоны. Все это может приводить к хищению средств или злоупотреблению функциональностью сервиса. API часто защищают хуже, чем классические веб-приложения, и вероятность найти там серьезную уязвимость выше.</p> <p>Во-вторых, доступ к конфиденциальной информации<strong>.</strong> Внутренние приложения сотрудников — это точка входа в инфраструктуру компании. Если злоумышленник действует осторожно и только читает хранимые данные, шансы заметить такую утечку стремятся к нулю.</p> <p>В-третьих, манипуляция клиентской частью<strong>.</strong> В играх, ритейле и соцсетях злоумышленнику часто не нужен доступ к серверу, достаточно контролировать поведение приложения на устройстве. Это позволяет использовать ботов, накручивать показатели или обходить ограничения.</p> <p>В таких сценариях root-детекция играет важную роль — но не как универсальный барьер от взлома, а как один из сигналов о небезопасной среде исполнения.</p> <h3>Как хакеры «снимают замок»: типовой сценарий атаки</h3> <p>Есть несколько способов взлома. Например, разведка — при ней хакер запускает приложение и смотрит логи, трафик, подключает отладчик (Frida/Xposed). Он ищет момент, когда приложение «падает» или выдает сообщение о несовместимости. На этом этапе собирается информация о том, какие проверки сработали.</p> <p>Другой вариант — перехват управления<strong>.</strong> Самая популярная техника — хукинг (hooking). Хакер перехватывает вызов функции checkRoot(), заставляет ее всегда возвращать «все чисто» и идет дальше. Фреймворк Frida позволяет сделать это одной строкой JavaScript — без пересборки приложения.</p> <p>Еще один способ — имитация<strong>.</strong> Вместо перехвата хакер может просто скопировать приложение в изолированную среду (VirtualApp, Island) и подменить системные вызовы. Это позволяет эмулировать «чистое» устройство, пока приложение работает в виртуальном контейнере.</p> <p>Самый опасный сценарий — патч (изменение кода)<strong>.</strong> Если скрыть файлы или перехватить функцию не получается, хакер вскрывает код приложения, вшивает заплатку и пересобирает его заново. Приложение запускается, выглядит так же, работает так же — но слепой зоны, куда смотрела защита, уже нет.</p> <p>Заплатка при этом может быть крайне простой: например, подменять сервер, с которым должно взаимодействовать приложение, на прокси злоумышленника. Трафик перенаправляется через атакующего, который сохраняет логины и пароли, подменяет реквизиты и суммы в транзакциях. Заметить, что что-то идет не так, почти невозможно — в этом и состоит опасность качественных клонов: атакующему достаточно добавить минимальный вредоносный код, а не разрабатывать похожее приложение с нуля.</p> <h3>Самые популярные, но уже бесполезные методы защиты</h3> <p>Многие разработчики до сих пор используют подходы к root-детекции, которые кочуют из проекта в проект. Проблема в том, что они работали несколько лет назад, а сегодня хакеры обходят их автоматически.</p> <p>Например, разработчики могут писать детекты самостоятельно без достаточной экспертизы<strong>.</strong> Важно постоянно находиться в инфополе и знать про современный инструментарий атакующих. Человек вне контекста сделает слабую проверку, которую сломают публично доступные автоматические инструменты — те, которыми пользуются даже школьники.</p> <p>Использовать Open Source-решения сегодня — тоже не лучшая идея<strong>.</strong> Это может быть временной мерой для стартапа, но не путь серьезной организации с тысячами клиентов. В Open Source встречаются неплохие реализации, но все они на порядок проще обходятся, чем коммерческие решения.</p> <p>Если вы думаете, что экспертизу способен заменить ИИ и можно «навайбкодить защиту» — это большое заблуждение. ИИ обучен на небезопасном большинстве, поэтому и выдаст дырявую реализацию защиты. Например, пришьет к приложению давно устаревшую библиотеку RootBeer — формально защита есть, но она давно не является препятствием даже для простых инструментов анализа. Вайбкодинг будет полезен только в руках эксперта.</p> <p>Само понятие root-детекции при этом не устарело, но инструментарий хакеров настолько усовершенствовался, что полагаться только на один тип проверок бесполезно. В современных протекторах применяется совокупность десятков различных проверок, каждая из которых, например проверка root, реализована множеством способов.</p> <h3>Как построить лабиринт для хакера</h3> <p>Главный враг атакующего — время. Если код превращен в непроходимый лабиринт, злоумышленник, скорее всего, уйдет к более легкой цели. В действительности работают несколько направлений.</p> <p><strong>Применять одновременно защиту от статического и динамического анализа.</strong> Недостаточно просто накрыть код обфускатором или добавить всевозможные детекты во время запуска (RASP, runtime application self-protection). Хакер не будет выбирать только один путь атаки, поэтому и защищать нужно сразу с двух сторон.</p> <p><strong>Не делать ставку только на одну технику.</strong> Некоторые считают, что достаточно реализовать только хорошее шифрование кода или только детальный детект root-прав — и злоумышленник не преодолеет защиту. На практике атакующий будет пробовать множество обходных путей. Правильный подход — внедрять как можно больше различных техник, чтобы их совокупность давала синергетический эффект: разные техники не просто закрывают дыры, но и защищают друг друга по принципу 1+1>2.</p> <p><strong>Не экономить на старте.</strong> В безопасной разработке есть принцип shift left: чем раньше обнаружена уязвимость, тем дешевле ее исправление. Но на практике самые «ранние» практики — самые дорогие. Для начинающей команды разумнее двигаться «справа»: поставить WAF и протектор, а уже потом по мере зрелости идти влево, получая максимальный результат на всем пути.</p> <p><strong>Увеличивать стоимость ручного анализа.</strong> Самый дорогой и долгий этап для хакера — ручная работа: обход анти-реверса, изготовление клонов, поиск уязвимостей, разработка бота. Автоматизировать можно очень многое, особенно с помощью ИИ. Поэтому выгодно именно этот этап делать максимально дорогим: увеличивая стоимость реверс-инжиниринга, мы увеличиваем стоимость любой атаки — не только некоторых. Наличие даже базовой проверки увеличивает трудозатраты атакующего. Но коммерческий протектор может увеличить их буквально на порядки — в десятки и сотни раз — в то время как примитивная защита автоматически ломается инструментами, доступными каждому.</p> <p><strong>Внедрять защиту на стороне клиента.</strong> С точки зрения корпоративной инфраструктуры взлом через скомпрометированное приложение на устройстве сотрудника выглядит как обычное поведение — то же устройство, то же приложение, только аномальная активность может насторожить службу безопасности. Поэтому важно внедрять защиту непосредственно на устройство и в сами приложения.</p> <h3>Как понять, что ваше приложение атакуют</h3> <p>Рекомендация здесь стандартная: любые аномалии — повод что-то заподозрить. Приложение начало тормозить, открываться или закрываться самостоятельно, появились проблемы с соединением. Обнаружились подозрительные транзакции или новые сессии с незнакомых устройств — это можно проверить в настройках социальных сетей и мессенджеров. Также стоит обращать внимание на специальные ссылки в мессенджерах: приложения умеют их обрабатывать, и такая ссылка может быть способом атаковать приложение.</p> <p>За более чем десять лет в анализе защищенности мобильных приложений наши эксперты проверили вручную более 2000 приложений. За все это время только один раз встретилось по-настоящему хорошо защищенное приложение. Хотя оно не помешало найти критическую уязвимость, в полной мере преодолеть его защиту за время, отведенное на проект, не удалось. Все остальные приложения всегда поддавались анализу. Подавляющее большинство либо никак не были защищены, либо обход защиты происходил с использованием публично доступных автоматических инструментов. Лишь изредка возникала необходимость прибегать к ручному анализу.</p> <p>Вывод один — root-детекция работает только тогда, когда реализована правильно и в совокупности с другими техниками. Приложение, которое полагается на единственную проверку, только задержит хакера, но не сможет его остановить.</p> <p>#IMAGE_234670#</p> В мире мобильной безопасности существует устойчивое заблуждение: если приложение при запуске проверило, есть ли … article Николай Анисеня, руководитель разработки PT MAZE, Positive Technologies Cursor, Claude Code и Codex объединяются в один стек ИИ-инструментов, который никто не планировал https://www.itweek.ru/themes/detail.php?ID=234667 Wed, 15 Apr 2026 09:53:17 +0300 <p><em>Вместо того чтобы консолидироваться в один инструмент, Cursor, Claude Code и OpenAI Codex формируют композитный стек инструментов для ИИ-кодирования с уровнями оркестрации, выполнения и код-ревью, пишет на портале </em><em>The</em> <em>New</em> <em>Stack</em> <em>Джанакирам МСВ, главный аналитик компании Janakiram   Associates.</em></p> <p>Предполагалось, что рынок инструментов для ИИ-кодирования консолидируется. Появится один победитель, разработчики стандартизируют свои решения вокруг него, и отрасль будет двигаться вперед. Вместо этого произошло обратное. В начале апреля 2026 г. Cursor выпустила переработанный интерфейс для оркестрации параллельных агентов, OpenAI опубликовала официальный плагин, работающий внутри Claude Code от Anthropic, и первые пользователи начали использовать все три инструмента вместе. Не как конкурентов. А как слои в стеке, который никто не проектировал, но который все равно самоорганизуется.</p> <p>Этот паттерн отражает то, что разработчики уже знают из области инфраструктуры. Никто не использует единый инструмент наблюдаемости. Вы используете Prometheus для метрик, Grafana для панелей мониторинга и PagerDuty для оповещений. Каждый инструмент хорошо справляется с одной задачей, и ценность достигается благодаря их комбинации. Инструменты для ИИ-кодирования следуют тому же пути, разделяясь на специализированные уровни, а не объединяясь в единый продукт.</p> <h2>Три запуска, одна неделя, один шаблон</h2> <p>2 апреля Cursor выпустила версию 3 под кодовым названием Glass. В этом релизе панель Composer в Cursor была заменена выделенным окном Agents Window — автономным интерфейсом, созданным с нуля для одновременного управления несколькими агентами ИИ. Теперь разработчики могут запускать параллельные агенты на локальных машинах, в рабочих деревьях и облачных песочницах из одной боковой панели. Согласно журналу изменений Cursor, в релиз также были добавлены вкладки Agent Tabs для просмотра нескольких диалогов одновременно, команда <strong>/best-of-n</strong>, которая отправляет один и тот же промпт нескольким моделям в изолированных рабочих деревьях для сравнения, и режим Design Mode для аннотирования элементов пользовательского интерфейса во встроенном браузере. Сессии можно передавать с локального сервера в облако для продолжения работы в течение ночи, а затем возвращать обратно для локальной итерации утром.</p> <p>Тремя днями ранее OpenAI опубликовала на GitHub плагин <strong>codex-plugin-cc</strong>. Он устанавливается непосредственно в Claude Code, терминальный агент кодирования от Anthropic. Плагин предоставляет шесть команд с косой чертой. <strong>/codex:review</strong> запускает стандартную проверку кода; <strong>/codex:adversarial-review</strong> проверяет решения по реализации, касающиеся аутентификации, потери данных и состояний гонки, под нагрузкой; <strong>/codex:rescue</strong> полностью передает задачу Codex, запуская его в качестве субагента, который может исследовать ошибки или повторно проверить проблему. Дополнительная функция проверки позволяет Codex автоматически проверять вывод Claude перед его завершением, блокируя завершение, если обнаружены проблемы.</p> <p>Это официальный продукт OpenAI, интегрированный в продукт прямого конкурента. Плагин, распространяемый по лицензии Apache 2.0, делегирует проверку через локальный CLI Codex, поэтому он использует существующую аутентификацию и конфигурацию разработчика. Никакой новой среды выполнения. Никакой закрытой экосистемы. Просто Codex, вызываемый в Claude Code.</p> <p>Главное не в том, что эти инструменты были запущены на одной неделе. Дело в том, что они были запущены таким образом, что их можно комбинировать. Cursor оркестрирует агентов, которые могут использовать любую модель. Claude Code принимает плагины от конкурирующих поставщиков. Codex работает как субагент внутри терминала другой компании. Инструменты не конвергируют, а образуют слои.</p> <h2>Формируется стек</h2> <p>То, что собирают некоторые первые пользователи, больше похоже на цепочку инструментов, чем на выбор продукта. Формируются три слоя, каждый со своей задачей.</p> <p> #IMAGE_234668#</p> <h3>Слой оркестрации</h3> <p>Здесь находится Cursor 3. Его Agents Window — это не редактор с прикрученным ИИ. Это плоскость управления группами агентов кодирования. Интерфейс отображает всех активных агентов на боковой панели, независимо от того, были ли они запущены с настольного компьютера, мобильного устройства, Slack, GitHub или Linear. Agent Tabs позволяют разработчикам просматривать несколько бесед рядом в сетке. Design Mode позволяет им аннотировать элементы пользовательского интерфейса во встроенном браузере и указывать агентам на конкретные проблемы интерфейса.</p> <p>Отказ от VS Code преднамеренный. Cursor создала форк VS Code в 2023 г. для распространения. Теперь он строится отдельно от VS Code для дифференциации. Если слой оркестровки победит, текстовый редактор станет второстепенным. Cursor делает ставку на то, что управление агентами важнее, чем редактирование файлов.</p> <p>Google пришла к аналогичному выводу. Antigravity, анонсированная в ноябре 2025 г., выросла из лицензионной сделки Google с Windsurf на сумму 2,4 млрд. долл. Агентство Reuters сообщило, что Google заплатила лицензионные сборы и наняла ключевых сотрудников, а не приобрела компанию целиком. В результате интерфейс разделен на Editor View для непосредственного кодирования и Manager Surface для запуска и наблюдения за несколькими агентами в разных рабочих пространствах.</p> <p>Две компании, две архитектуры, один вывод. Разработчикам нужна платформа для управления агентами, а не только для написания кода.</p> <h3>Уровень выполнения</h3> <p>Здесь находятся Claude Code и OpenAI Codex. Это агенты, которые фактически пишут, проверяют и отлаживают код. Они работают в терминалах, облачных песочницах или и там, и там. Они читают целые кодовые базы, запускают тесты, фиксируют изменения и управляют запросами на изменения.</p> <p>Claude Code стал самым сильным претендентом на этом уровне, по крайней мере, с точки зрения энтузиазма разработчиков. <a href="https://newsletter.pragmaticengineer.com/p/ai-tooling-2026">Опрос</a> 906 инженеров-программистов, проведенный Pragmatic Engineer в феврале 2026 г., показал, что это наиболее используемый инструмент ИИ-кодирования, получивший у 46% респондентов оценку «самый любимый». <a href="https://newsletter.semianalysis.com/p/claude-code-is-the-inflection-point">Согласно</a> SemiAnalysis, на него приходится примерно 4% всех публичных коммитов GitHub (по состоянию на март 2026 г.), а к концу года прогнозируются 20%. Недавно число еженедельно активных пользователей Codex превысило 3 млн., увеличившись с 2 млн. всего месяцем ранее. Его облачная модель песочницы разработана для асинхронных, длительных задач, которые могут выполняться без участия разработчика.</p> <p>Именно на уровне выполнения различия между моделями имеют наибольшее значение. Практики, как правило, сообщают, что Claude лучше справляется с детальными рассуждениями в длинных контекстных окнах, в то время как Codex — с обеспечением пропускной способности для распараллеливаемых задач. Ни один нейтральный бенчмарк не подтвердил это разделение однозначно, но это мнение достаточно широко распространено, чтобы стимулировать использование нескольких инструментов. Ни один из них не доминирует во всех сценариях, именно поэтому разработчики стремятся использовать оба.</p> <h3>Уровень проверки</h3> <p>Это самый новый уровень, и именно его задействует плагин Codex. Когда Claude пишет код, а Codex его проверяет, ревьюер не является участником его написания. Он не разделяет одни и те же внутренние предположения. Он выявляет разные классы ошибок. Команда состязательной проверки идет дальше, проверяя на прочность аутентификацию, потерю данных, откаты и состояния гонки под нагрузкой.</p> <p>Кросс-проверка моделей от разных поставщиков решает проблемы, которые не могут быть решены с помощью рабочих процессов с одной моделью. Когда вы просите ту же модель, которая написала ваш код, проверить его, вы просите кого-то оценить свою собственную домашнюю работу. Структурная предвзятость неизбежна. Вторая модель от другого поставщика, обученная на других данных с другими целями оптимизации, может выполнить действительно независимую проверку.</p> <p>Функция итеративного уточнения деталей (review gate) делает это автоматическим. Включите ее, и Codex проверит каждый результат работы Claude перед его окончательным завершением. Если обнаружатся проблемы, Claude устранит их, прежде чем продолжить. В документации OpenAI содержится предупреждение, что это может создавать длительные циклы и быстро исчерпывать лимиты использования, что подчеркивает, насколько серьезно компания ожидает от разработчиков использования этой функции.</p> <h2>Почему совместимость, а не привязка к конкретному поставщику?</h2> <p>Самым показательным стратегическим сигналом здесь является то, что OpenAI разработала плагин для продукта Anthropic. Традиционная стратегия гласит: привязать пользователей. Создать закрытую экосистему. Сделать переход дорогостоящим. OpenAI делает прямо противоположное, и экономические факторы объясняют почему.</p> <p>Claude Code создал большую и заинтересованную базу пользователей среди профессиональных разработчиков. Вместо того чтобы ждать, пока эти разработчики перейдут к ней, OpenAI интегрировала Codex туда, где они уже работают. Каждое ревью, инициированный плагином, генерирует использование, которое учитывается в подписке ChatGPT или ключе API. Нулевая стоимость привлечения, поэтапная оплата.</p> <p>Открытая архитектура плагинов Anthropic сделала это возможным. Система плагинов Claude Code на основе MCP разработана для поддержки интеграции со сторонними сервисами, включая сервисы конкурентов. Подход «платформа против приложения», который обычно создает напряжение между компаниями, заменяется подходом композитности, где выигрывают обе стороны. Anthropic получает более богатую экосистему плагинов. OpenAI получает распространение внутри базы пользователей конкурента.</p> <p>Это не альтруизм. Это прагматизм. Обе компании признали, что разработчики будут использовать множество инструментов независимо от обстоятельств. Вопрос в том, входит ли ваш инструмент в стек или находится вне его.</p> <h2>Что это значит для разработчиков</h2> <p>Если эта композитная модель сохранится, это изменит три вещи в работе разработчиков.</p> <h3>Выбор модели становится инфраструктурным решением</h3> <p>Команда <strong>/best-of-n</strong> в Cursor 3 отправляет одну и ту же задачу нескольким моделям в изолированных рабочих деревьях и сравнивает результаты. В этом подходе выбор модели рассматривается так же, как разработчики уже рассматривают выбор базы данных или выбор облачного провайдера. Это инфраструктурное решение, определяемое характеристиками рабочей нагрузки, а не лояльностью к бренду. Claude — для точности при сложных рефакторингах. Codex — для пропускной способности при параллельно выполняемых задачах. Composer 2, собственная модель Cursor, построенная на основе открытого исходного кода Kimi K2.5, — для экономичной пакетной работы.</p> <h3>Редактор начинает сдавать позиции</h3> <p>В течение 40 лет редактор кода был центром тяжести в разработке ПО. От Emacs до VS Code концепция всегда оставалась неизменным: разработчик пишет код, а инструменты помогают. Cursor 3 Agents Window и Antigravity Manager Surface напрямую бросают ей вызов. Уровень оркестрации начинает конкурировать с редактором в качестве основного интерфейса. Редактор по-прежнему существует, по-прежнему полезен, но больше не гарантируется, что он будет отображаться по умолчанию.</p> <h3>Рецензирование смещается в сторону состязательности</h3> <p>Проверка одной модели всегда была структурно ограничена. Кросс-проверка моделей от разных поставщиков, когда одна модель пишет код, а другая оспаривает его, является наиболее перспективной стратегией смягчения проблемы «подхалимства» в разработке с использованием ИИ. По мере развития этого подхода он может стать стандартным этапом в конвейерах CI/CD, а не просто выбором рабочего процесса разработчика.</p> <h2>Что дальше?</h2> <p>Стек агентов кодирования формируется быстрее, чем многие ожидали. Cursor претендует на место на уровне оркестровки. Claude Code и Codex конкурируют и сотрудничают на уровне выполнения. Кросс-проверка открывает уровень верификации, которого не существовало еще полгода назад. Для разработчиков, следящих за развитием инструментария, остаются актуальными знакомые инфраструктурные шаблоны. Подобно тому, как вы научились комбинировать Terraform, Docker и Kubernetes, вместо того чтобы выбирать один инструмент для всего, в ИИ-кодировании набирает обороты тенденция к композиции вместо консолидации.</p> <p>Нерешенным остается вопрос, стабилизируется ли этот стек или продолжит дробиться. GitHub Copilot развивает свои собственные агентные возможности. AWS Kiro выпустила IDE, ориентированную на агенты. Каждый крупный облачный провайдер теперь занимает свою нишу на этом рынке. Следующий этап будет определяться тем, какие слои станут стандартными, а какие — новыми точками управления. Следите за обновлениями.</p> Вместо того чтобы консолидироваться в один инструмент, Cursor, Claude Code и OpenAI Codex формируют композитный стек … article YADRO представила СУПРИМ 5 для более эффективного управления инфраструктурой https://www.itweek.ru/themes/detail.php?ID=234665 Tue, 14 Apr 2026 17:05:26 +0300 <p>Технологическая компания YADRO (входит в ИКС Холдинг) представила СУПРИМ 5 — новую версию системы централизованного управления, инвентаризации и мониторинга ИТ-инфраструктуры. Обновление развивает ключевые пользовательские сценарии, упрощает работу с системой и помогает быстрее получать данные для управления оборудованием и принятия операционных решений.</p> <p>Новая версия создана на основе обратной связи от пользователей, полученной как в ходе пилотных проектов, так и в сценариях реальной эксплуатации. В фокусе релиза — эффективность управления инфраструктурой: обновленный интерфейс, упрощенные сценарии работы и улучшенная визуализация данных позволяют быстрее получать необходимую информацию и принимать решения.</p> <p>В свежей версии СУПРИМ получила новый пользовательский интерфейс, соответствующий единому пользовательскому стандарту программных продуктов YADRO. Также переработана панель управления расписанием и обновлено меню назначения заданий.</p> <p>Помимо этого, в системе появился механизм фильтрации, который позволяет отбирать устройства по заданным параметрам и быстрее работать с нужными группами оборудования. Дополнительно улучшено отображение данных в инвентаре, сенсорах и журнале, что делает контроль состояния инфраструктуры более наглядным.</p> <p>«YADRO СУПРИМ 5 развивает систему в ответ на реальные запросы пользователей. В новой версии мы сосредоточились на тех сценариях, которые напрямую влияют на скорость работы с инфраструктурой: упростили интерфейс, улучшили навигацию и сделали представление данных более наглядным. Это позволяет ИТ-командам быстрее получать необходимую информацию и увереннее работать с большим парком оборудования», — прокомментировал Михаил Захаров, ведущий менеджер продукта YADRO СУПРИМ.</p> <p>YADRO последовательно развивает программные инструменты для управления инфраструктурой: СУПРИМ позволяет централизованно управлять инфраструктурой центров обработки данных и оборудованием YADRO, включая серверы, системы хранения данных, сетевое и климатическое оборудование. Выход YADRO СУПРИМ 5 расширяет возможности заказчиков по централизованному управлению инфраструктурой.</p> Технологическая компания YADRO (входит в ИКС Холдинг) представила СУПРИМ 5 — новую версию системы централизованного … message DocTrix Platform 1.9.0: удобный поиск, создание рабочих пространств и внешний доступ https://www.itweek.ru/themes/detail.php?ID=234664 Tue, 14 Apr 2026 17:03:35 +0300 <p>Компания <nobr>I-SYS</nobr> объявила о выходе нового релиза своей low-code платформы DocTrix Platform, направленного на повышение эффективности работы пользователей и гибкости корпоративных цифровых сред. Обновление упрощает навигацию, ускоряет поиск бизнес-данных и даёт компаниям больше свободы в управлении контентом без привлечения разработчиков.</p> <p>Ключевое новшество релиза — Рабочие пространства. Это изолированные области внутри одного тенанта, которые настраиваются под конкретные команды, проекты или бизнес-функции. Новый функционал позволяет более структурированно подходить к организации порталов в больших компаниях, выделять отдельные информационные пространства для подразделений и юридических лиц, назначать внутри своих администраторов, кастомизировать внешний вид и управлять контентом, что еще больше приближает DocTriх к SharePoint и позволяет полностью создавать такие структуры порталов с сайтами и подсайтами.</p> <p>В платформе также появился многоуровневый полнотекстовый поиск по бизнес-данным: быстрый — для мгновенного поиска информации, расширенный — для параметризованного поиска контента и фильтрации результатов, и точный — для поиска по заданным фильтрам в рамках конкретного бизнес-индекса. Это сокращает время на работу с данными и ускоряет поиск информации.</p> <p>Теперь пользователям доступен новый тип страниц с markdown-разметкой внутри пространства, который позволяет делать структуру в формате Вики. Благодаря этому можно переносить и вести привычные Вики-порталы и базы знаний в DocTrix.</p> <p>До релиза 1.9.0 единственным способом допуска внешнего пользователя без необходимости его создания через интеграции LDAP или SSO было создание настройки гостевого доступа. Теперь в рамках пространств предлагается альтернативное решение — публичный доступ к пространству. Он характеризуется тем, что для просмотра публичной части пространства не требуется какой-либо учетной записи, и сама сборка интерфейсной части платформы для работы в публичном доступе максимально облегчена для ускорения отрисовки контента.</p> <p>Помимо этого, в обновленной версии платформы добавлены:</p> <ul> <li>новый компонент отображение файлов «Папка библиотеки» в редакторы страниц;</li> <li>возможность настройки кастомных иконок;</li> <li>компонент для проверки метаданных на заполненность.</li> </ul> <p>«В этом релизе мы сделали акцент на реализации важных функций для замены SharePoint, управлении контентом, организации информации. Рабочие пространства и новый поиск позволяют компаниям выстраивать цифровую среду под свои процессы. DocTrix Platform становится ещё более гибким инструментом для команд, которые хотят быстро получать результат без лишних затрат», — прокомментировал Аркадий Золотовицкий, исполнительный директор <nobr>I-SYS.</nobr></p> Компания I-SYS объявила о выходе нового релиза своей low-code платформы DocTrix Platform, направленного на повышение … message «Группа Астра» представила неизменяемый режим Astra Linux Server для растущего рынка контейнеризации https://www.itweek.ru/themes/detail.php?ID=234663 Tue, 14 Apr 2026 17:01:12 +0300 <p>«Группа Астра», российский разработчик инфраструктурного ПО, представила неизменяемый (immutable) режим работы Astra Linux Server. Новый режим предназначен для запуска прикладного ПО в контейнерах с использованием Docker, Podman или Kubernetes. Он позволяет организовать инфраструктуру как код, снизить затраты на развертывание и обновление ОС, а также повысить удобство администрирования.</p> <p>Контейнерные технологии становятся основой корпоративной ИТ-инфраструктуры. По данным ежегодного исследования Linux Foundation и CNCF (январь 2026 г.), доля организаций, использующих Kubernetes, выросла с 66% до 82% за последние два года, а количество контейнеризированных приложений в продуктивных средах увеличилось с 41% до 56%. Российский рынок следует тому же тренду: по данным TAdviser, рынок платформ контейнеризации в 2024 году вырос на 65%, при этом в сегменте on-premise рост составил 164%. Именно для этих заказчиков — организаций, развертывающих контейнерные среды на собственной инфраструктуре, — в первую очередь предназначен неизменяемый режим Astra Linux Server.</p> <p>Неизменяемый режим — современный подход к построению операционных систем, при котором базовая файловая система остается неизменной во время работы. Системные компоненты, исполняемые файлы и настройки ОС формируются из предварительно подготовленных образов и не могут быть изменены в процессе эксплуатации. Все прикладное ПО запускается исключительно в контейнерах.</p> <p>Подобный подход уже реализован в ряде зарубежных Linux-дистрибутивов — Fedora CoreOS, openSUSE MicroOS, Ubuntu Core и других. Astra Linux Server предлагает собственную реализацию, адаптированную под российские требования к защите информации, с сохранением всех встроенных средств защиты Astra Linux Special Edition 1.8, сертифицированных ФСТЭК России.</p> <p>Неизменяемый режим существенно снижает поверхность атаки: в состав образа входят только необходимые компоненты ядра, средства защиты и инструменты контейнеризации. Системные файлы защищены от вредоносного ПО, несанкционированных изменений и ошибок администратора. Действия администратора в рабочем режиме ограничены, что обеспечивает дополнительный контроль над состоянием ОС. Режим поддерживает работу в полностью закрытых контурах без постоянного доступа к внешним репозиториям.</p> <p>Режим поддерживает работу как отдельных узлов с Docker и Podman, так и полноценных Kubernetes-кластеров. По данным исследования State of DevOps Russia 2025, на stand-alone режимы Docker и Podman приходится 80,1% сценариев использования контейнеров, при этом доля респондентов, не использующих оркестраторы, сократилась с 24% до 14,6% — контейнеризация становится нормой для все большего числа команд.</p> <p>Развертывание возможно по сети через PXE на физические или виртуальные серверы, а также из подготовленных QCOW2-образов. Конфигурации образов можно хранить в git-репозитории, реализуя подход «инфраструктура как код» (Infrastructure as Code). Обновление базовой системы и контейнеризированного ПО выполняется независимо друг от друга, что позволяет разграничить зоны ответственности команд, отвечающих за инфраструктурный и прикладной слои.</p> <p>Неизменяемый режим Astra Linux Server ориентирован на enterprise-сегмент — организации с большим парком серверов, высокими нагрузками и потребностью в масштабировании: финансовый сектор, промышленность, здравоохранение, транспортную отрасль и государственный сектор. Согласно исследованию State of DevOps Russia 2025, Astra Linux занимает лидирующую позицию среди отечественных операционных систем в сценариях контейнеризации с долей 15,2%.</p> <p>Неизменяемый режим уже доступен действующим пользователям и входит в состав Astra Linux Server.</p> <p>«Неизменяемый режим Astra Linux Server — это ответ на запрос рынка: организациям нужна серверная ОС, которая сочетает предсказуемость и защищённость с современными подходами к управлению инфраструктурой. Мы предложили решение, в котором система собирается один раз и работает в контролируемом состоянии, сохраняя при этом все сертифицированные средства защиты Astra Linux. Это принципиально упрощает аудит, сопровождение и масштабирование контейнерных сред», — отметил Денис Кривошея, менеджер продукта Astra Linux Server «Группы Астра».</p> «Группа Астра», российский разработчик инфраструктурного ПО, представила неизменяемый (immutable) режим работы Astra Linux … message MWS AI выпустила «виртуального HR-специалиста» https://www.itweek.ru/themes/detail.php?ID=234662 Tue, 14 Apr 2026 16:59:27 +0300 <p>MWS AI объявила о выпуске корпоративной мультиагентной системы для HR-подразделений крупного бизнеса. Система действует как виртуальный сотрудник: самостоятельно обрабатывает отклики, ведёт переписку с кандидатами и отслеживает эффективность персонала на каждом этапе — от найма до адаптации. Это позволит HR-специалистам сосредоточиться на задачах, требующих человеческого суждения: оценке личностных компетенций, переговорах с финалистами и работе по удержанию сотрудников. Компания начала пилотные проекты по внедрению системы на базе платформы MWS AI Agents Platform в телекоммуникационной и энергетической отраслях.</p> <p>HR-функция находится под двойным давлением: в ситуации кадрового дефицита бизнес требует нанимать быстрее, а кандидаты ожидают персонального контакта на каждом этапе. Рекрутеры тратят до 60% времени (оценка MWS AI) на повторяемые операции — разбор откликов, уточнение базовых требований, согласование слотов для интервью. По данным SHRM, 69% HR-специалистов в мире уже используют ИИ в процессах найма, а доля ИИ в HR-задачах выросла до 43% в 2025 году с 26% годом ранее. По оценке Gartner, до 50% операционной работы HR-функции может быть передано ИИ-агентам.</p> <p>Решение поставляется с набором преднастроенных агентов, которые начинают работу после настройки интеграций с ИТ-сервисами заказчика — системами управления персоналом, электронной почтой и мессенджерами. Мультиагентный подход предполагает взаимодействие нескольких специализированных агентов, каждый из которых отвечает за отдельный этап процесса найма — это позволяет точнее обрабатывать сценарии подбора и гибко распределять задачи.</p> <p>В основе решения — механизм оркестрации: он отслеживает действия кандидата, фиксирует изменения в системе подбора, определяет нужный сценарий, распределяет задачи между агентами и передаёт контекст между этапами. Агент скрининга проводит первичный отбор в формате диалога, задаёт уточняющие вопросы и оценивает соответствие кандидата базовым критериям вакансии с учётом контекста его ответов. Агент коммуникации консультирует кандидатов по условиям работы, требованиям и льготам, обращаясь к базе знаний компании. Агент планирования подбирает доступные временные слоты и координирует перенос встреч.</p> <p>Система работает в локальном контуре заказчика, что обеспечивает контроль над персональными данными сотрудников. Она ведёт журнал действий каждого агента — какое решение принято, на основании каких критериев, какие данные использованы. Это позволяет HR-службе в любой момент восстановить логику отбора.</p> <p>«Мультиагентная архитектура — это не улучшенный чат-бот и не очередной слой автоматизации. Это принципиально другая модель: каждый агент специализирован под конкретную роль, но вместе они работают как единая команда — передают контекст, согласуют решения, распределяют нагрузку, так же как это делала бы команда под управлением руководителя, действуя по согласованным процессам. По сути, мы проектируем новый тип взаимодействия, где люди управляют стратегией, а агенты берут на себя часть операционных задач. Мы начали с HR-направления, потому что здесь всё это видно наиболее чётко: есть роли, есть процессы, есть метрики», — отметил директор по продуктам MWS AI Максим Волошин.</p> <p>MWS AI в рамках пилотного проекта с энергетической компанией развернула модуль адаптации новых сотрудников: система автоматически формирует краткие выжимки из корпоративных документов и генерирует тестовые задания для самопроверки. Второй пилот реализуется в сфере массового найма совместно с компанией из телеком-отрасли.</p> <p>В стадии разработки находятся модули сопровождения новых сотрудников в первые месяцы работы, оценки эффективности персонала, а также предиктивной кадровой аналитики. Последний модуль будет прогнозировать вероятность увольнений на уровне отдельных команд и анализировать тональность обратной связи сотрудников.</p> <p>Перечисленные направления соответствуют приоритетам, которые Gartner определяет как ключевые для директоров по персоналу на 2026 год: формирование ИИ-стратегии для HR, проектирование работы в формате «человек + машина» и переход от автоматизации отдельных задач к перестройке процессов целиком — включая кадровую аналитику и управление эффективностью персонала.</p> <p>«Одна из самых сложных задач в управлении персоналом — убедиться, что тысячи людей в разных подразделениях движутся в одном направлении. Смыслы теряются при каскадировании, цели трансформируются, часть команд выпадает из общего фокуса — и это незаметно тормозит развитие компании. Мы сейчас активно экспериментируем с тем, как агенты могут помочь с целеполаганием: следить за тем, насколько глубоко стратегия проникает в команды, сверять декларируемые цели с реальной фокусировкой и подсвечивать расхождения до того, как они становятся проблемой. Это один из приоритетов во внутренней разработке», — подчеркнула HR-директор MWS AI Анастасия Зальцман.</p> <p>Российский рынок генеративного ИИ в HR-сфере, по оценке MWS AI, составит около 1,3 млрд рублей в 2026 году и будет демонстрировать среднегодовой рост на уровне 28% до 2030 года.</p> <p>Общий объём российского рынка ИИ-ассистентов для корпоративных заказчиков в 2026 году составляет около 30 млрд рублей. Примерно треть этой суммы — около 10 млрд рублей — приходится на компании, уже использующие сторонние ИИ-решения, в том числе отечественные. Остальные две трети рынка пока занимают компании, не внедрившие генеративный ИИ или развивающие собственные разработки. Доступный целевой рынок MWS AI оценивается в 10 млрд рублей.</p> MWS AI объявила о выпуске корпоративной мультиагентной системы для HR-подразделений крупного бизнеса. Система действует … message Кто выиграет в новой медицинской реальности: платформы, данные и ИИ https://www.itweek.ru/themes/detail.php?ID=234660 Tue, 14 Apr 2026 10:16:05 +0300 <p>В медицинской сфере долгое время все было довольно понятно. Сильным игроком считался тот, у кого больше клиник, шире сеть, дороже оборудование, лучше локации. Это действительно работало. Но сейчас, похоже, уже не работает «как раньше».</p> <p>Правила игры меняются на глазах. Причем не где-то на уровне красивых презентаций про цифровую трансформацию, а в самой повседневной логике рынка. Конкурируют уже не только больницы, лаборатории или отдельные сервисы, а целые цифровые контуры, платформы, массивы данных, алгоритмы и способность все это собрать в одну работающую систему. И, пожалуй, именно здесь проходит главная черты новой медицинской реальности.</p> <h3>Данные больше не фон, а актив</h3> <p>То, что еще недавно считалось побочным следом медицинской деятельности, теперь превращается в один из главных ресурсов отрасли. Электронная история болезни, результаты исследований, назначения, маршруты пациента, отклики на терапию. Все это перестало быть просто архивом, а стало «ресурсом», причем очень дорогим.</p> <p>Масштаб хорошо виден по государственному цифровому контуру. В федеральном реестре электронных медицинских документов в 2025 году было собрано свыше <a href="https://habr.com/ru/news/967378/">3,3 млрд. записей</a>. Уже не «цифровизация ради отчетности», а скорее целая инфраструктура, на которой можно обучать ИИ-системы, строить аналитику, риск-менеджмент и точнее организовывать саму медицинскую помощь, не правда ли?! И вот здесь начинается самое интересное. Когда у игрока есть не просто доступ к данным, а компетенция по их обработке, он получает преимущество, которое сложно быстро скопировать. Можно купить оборудование, можно нанять команду, но нельзя за пару месяцев «донакопить» массив качественных медицинских данных, научиться с ним работать и встроить это в продуктовую логику без ошибок и потерь.</p> <p>Собственно, поэтому барьер входа в отрасль постепенно смещается. Раньше он был в «железе», лицензиях и доступе к врачебной экспертизе. А теперь еще и в цифровой зрелости. Кто умеет извлекать из потока медицинской информации практическую ценность, тот и начинает диктовать темп.</p> <h3>Платформа съедает разрозненный сервис</h3> <p>Отдельный телемедицинский продукт, приложение для записи к врачу или удобный личный кабинет пациента сами по себе уже не выглядят достаточным преимуществом. Сегодня этого мало. Рынок быстро движется туда, где выигрывает не функция, а связка функций. Пациенту, если честно, не так уж важно, насколько технологично выглядит один конкретный сервис. Ему важнее, чтобы путь был «бесшовным и простым». Чтобы после первичного обращения он не выпадал из системы, чтобы консультация, анализы, повторный прием, назначение, покупка препарата, наблюдение и напоминания о дальнейших шагах были соединены, а не жили в разных окнах, базах и кабинетах.</p> <p>На этом и строится платформенная логика. <a href="https://smartranking.ru/media/shopfile/MEDTECH_3Q24.pdf">По данным Smart Ranking</a>, суммарная выручка 75 российских medtech-компаний в третьем квартале 2025 года достигла 16,2 млрд. рублей. Это на 12,1% выше, чем кварталом ранее. А если смотреть три квартала 2025 года к аналогичному периоду предыдущего года, рынок вырос сразу на 80,1%. Самая крупная доля в структуре выручки пришлась при этом на телемедицинские сервисы — 34%. Цифры говорят сами за себя.</p> <p>Но важен даже не сам рост, а то, кто именно все это «собирает». Начинают выигрывать те, кто умеет держать пациента внутри длинного «цифрового сценария». Не «оказали одну услугу и разошлись», а ведут его по цепочке дальше. А это уже совсем другая экономика: выше частота контакта, больше данных, понятнее профиль пользователя, эффективнее повторные продажи, точнее персонализация. И да, у платформ есть старое доброе преимущество масштаба. Каждый новый пользователь приносит не только выручку, но и новые данные, а новые данные улучшают алгоритмы и клиентский опыт. Далее улучшенный сервис притягивает следующих пользователей. Такой вот круг. Довольно жесткий для конкурентов.</p> <h3>Офлайн никуда не делся. Он просто стал другим</h3> <p>Иногда разговор о цифровизации медицины уводит в крайности, будто бы онлайн вот-вот заменит клиники, а врач переедет в чат окончательно. Конечно же это не так. Офлайн-медицина никуда не исчезнет, а «переопределит роль».</p> <p><a href="https://normativ.kontur.ru/document?moduleId=1&documentId=494868">В 2025 году Минздрав обновил порядок организации</a> и оказания медицинской помощи с применением телемедицинских технологий, заменив прежнюю модель. Среди заметных новаций — возможность использовать системы поддержки принятия врачебных решений при отложенных консультациях и более четкое описание дистанционного наблюдения. Одновременно Минздрав сообщал, что за 2024 год в России было проведено <a href="https://minzdrav.gov.ru/en/news/2025/12/25/29392-mihail-murashko-vystupil-na-kruglom-stole-tsifrovaya-transformatsiya-zdravoohraneniya-v-gosudarstvah-chlenah-eaes-strategicheskie-prioritety">16 млн. телемедицинских консультаций</a>. Т. е. это уже стало не нишевой практикой и это не просто наследие пандемии COVID-19, а полноценный рабочий процесс системы здравоохранения.</p> <p>Что это может поменять на практике? Многое. Рутинные вопросы, повторные обращения, часть наблюдения хронических пациентов, первичная навигация, сопровождение после очного приема: все постепенно уходит в цифру. Очный же контур освобождается под то, ради чего он и нужен: диагностику, вмешательства, сложные консультации, реабилитацию, стационар. И это, как видится, не какая-то футурология, а вполне приземленная логика. Зачем держать врача, кабинет и инфраструктуру на потоке задач, которые можно решить дистанционно: быстрее, дешевле и удобнее для пациента? Зачем заставлять систему тратить дорогой очный ресурс там, где достаточно цифрового? Вопрос риторический. Так что офлайн сегодня становится не антиподом цифрового здравоохранения, а его второй половинкой.</p> <h3>ИИ вышел из режима презентации</h3> <p>С искусственным интеллектом в медицине долгое время была одна и та же история. Все о нем говорили «на каждом углу», пилоты множились, в презентациях мелькали громкие формулировки, но до реального рабочего контура доходило далеко не все. В 2025 году эта ситуация заметно изменилась.</p> <p>На текущий момент уже зарегистрировано более <a href="https://vz.ru/news/2026/3/16/1402437.html">50 медицинских изделий с ИИ</a>, и данная цифра активно растет. За период с 2019 по 2024 годы в создание и внедрение таких решений вложили 4,7 млрд. рублей, причем порядка 70% этого объема пришлось на государственное финансирование. То есть речь уже идет не о точечных пилотных проектах энтузиастов, а о сформировавшемся направлении с понятной институциональной поддержкой. Параллельно рос и сам рынок. <a href="https://russoft.org/news/opublikovan-atlas-medteh-2025-ot-russoft-i-analiticheskij-otchet-po-itogam-2024-goda/">По данным РУССОФТ</a>, совокупный объем российского MedTech достиг 68,7 млрд. рублей, показав рост на 16,4% по итогам 2024 года. В «Атлас МедТех 2025» вошли 205 компаний и 243 решения, а 62% продуктов, представленных в обзоре, либо относятся к решениям на базе ИИ, либо используют соответствующие технологии. Для отрасли это уже некий структурный сдвиг.</p> <p>И тут, пожалуй, важно не поддаться соблазну слишком громких формулировок. ИИ не «заменяет врача» — эта фраза уже успела всем надоесть. Но он вполне способен заменить рутину, которая съедает время, внимание и деньги. Первичный анализ, работа с изображениями, сортировка обращений, поддержка принятия решений, контроль загрузки специалистов, прогнозирование рисков, обработка больших массивов медицинской документации — эффект становится измеримым.</p> <h3>На чем теперь держится конкурентное преимущество</h3> <p>Если совсем упростить, новая медицинская реальность складывается вокруг трех вещей. Во-первых, вокруг данных. Не в абстрактном смысле, а как вокруг реального актива, который помогает понимать пациента, строить сервис и снижать издержки. Во-вторых, вокруг интеграции. Потому что отдельный цифровой продукт, даже хороший, проигрывает тому, кто умеет собрать целую цепочку (от первичного запроса до сопровождения после лечения). В-третьих, вокруг способности встроить ИИ в конкретные процессы. Не для галочки, не для крутой инвесторской презентации, не потому что «у всех уже есть», а потому что без него система начинает «захлебываться» в объеме данных, маршрутов, документов и решений.</p> <p>Собственно, именно поэтому могут выиграть не самые шумные и активные в инфополе. И даже не самые «нарядные» с точки зрения маркетинга. Выиграют те, кто научится сочетать все вместе: клиническую экспертизу, цифровую архитектуру и нормальную управленческую дисциплину.</p> <h3>Кто останется впереди</h3> <p>Врач в этой модели, конечно, никуда не исчезнет, впрочем, как и клиника. Исчезнет представление о том, что медицина может и дальше жить в логике разрозненных учреждений, локальных баз, ручной координации и медленного бумажного обмена. Эпоха уходит. Может не одномоментно, но уходит.</p> <p>На первый план выходят игроки, которые умеют работать на стыке медицины, ИТ, аналитики, регулирования и клиентского пути. А проиграют, вероятно, те, кто продолжит считать данные просто архивом, телемедицину — факультативным дополнением, а ИИ модной «фишкой».</p> <p>#IMAGE_234661#</p> В медицинской сфере долгое время все было довольно понятно. Сильным игроком считался тот, у кого больше клиник, шире … article Егор Кашка, операционный директор цифровой экосистемы регистрации медицинских изделий КРЕДО.ТЕХ Почему у разработчиков “ИИ-психоз”, а все остальные — на очереди https://www.itweek.ru/themes/detail.php?ID=234659 Tue, 14 Apr 2026 10:01:13 +0300 <p><em>Прорыв Anthropic в области кибербезопасности и негативная реакция поколения Z на потребительский искусственный интеллект — все это указывает на один и тот же сдвиг. Разработчики первыми ощущают влияние ИИ, но это ненадолго, сообщает портал </em><em>The</em> <em>New</em> <em>Stack</em><em>.</em></p> <p>Соучредитель OpenAI Андрей Карпатый недавно <a href="https://x.com/karpathy/status/2042334451611693415">опубликовал</a> эссе, описывающее реальный и растущий разрыв в восприятии ИИ. Он действительно существует. Но причина, по которой он наиболее широк в сфере ПО сейчас, заключается не только в обучении с подкреплением и проверяемых функциях вознаграждения (verifiable reward functions).</p> <p>Разработчики первыми ощутили влияние ИИ не потому, что программирование — единственная область, где работают эти инструменты, и не потому, что программисты особенно уязвимы. Они стали первыми, потому что ПО в настоящее время является той областью, где возможности передовых моделей, владение ИИ и глубокие знания предметной области наиболее четко пересекаются. Именно это пересечение делает ИИ трансформирующим. По мере улучшения моделей и применимости агентных инструментов в юриспруденции, медицине, финансах, СМИ и операционной деятельности, та же динамика будет распространяться дальше. Разработчики не являются исключением. Они — те, кто первыми попали в эту ситуацию.</p> <h3>Почему разработчики первыми испытали влияние ИИ</h3> <p>Аргументация Карпатого такова: одна группа людей попробовала бесплатный уровень ChatGPT в прошлом году, увидела галлюцинации, создала какую-то ерунду с ИИ и сформировала свое мнение. Вполне справедливо. Вторая группа платит за передовые модели — OpenAI Codex, Claude Code — и использует их профессионально в технических областях. Эта группа, по словам Карпатого, переживает «ИИ-психоз», потому что улучшения, достигнутые в этом году, «просто ошеломляют». Они видят, что эти модели «щелкают» задачи программирования, на решение которых обычно уходят дни или недели.</p> <p>Его объяснение разрыва носит технический характер: обучение с подкреплением лучше всего работает с <a name="OLE_LINK40">проверяемыми функциями вознаграждения</a>, что делает программирование и математику значительно более поддающимися обучению, чем написание текстов или поиск. А поскольку эти технические области приносят наибольший доход в сегменте B2B, именно на них сосредоточены самые большие команды.</p> <p>Сообщество разработчиков ощущает это первым, потому что возможности ИИ, экспертные знания в области ИИ и экспертные знания в предметной области сосредоточены у одних и тех же людей. Разработчики систем ИИ, как правило, являются ведущими разработчиками. Инструмент был создан ими и для них. Два месяца назад Карпатый впервые отказался от своего термина «вайб-кодинг» в пользу «агентной инженерии», незаметно сместив акцент с потребителей на разработчиков. И теперь эта узкая группа работников в полной мере первой ощущает влияние ИИ в своей отрасли.</p> <h3>Почему потом это почувствуют все остальные</h3> <p>Anthropic перевела Claude Cowork из стадии предварительной версии для исследовательских целей в стадию общедоступной версии с полным набором корпоративных функций — плагинами, управляемыми агентами, коннекторами для Google Drive, Gmail, DocuSign и десятками отраслевых инструментов. Основная идея продукта очевидна: Claude Code трансформировал программирование, и теперь Cowork выходит на остальную часть корпоративной сферы. Если вы работаете в HR, операциях, финансах или дизайне, то скоро получите агентные инструменты, которые вызвали у разработчиков «ИИ-психоз». Как известно, Claude Code был доступен почти 10 месяцев, прежде чем стал хитом в конце декабря 2025 г., и Cowork может последовать той же траектории внедрения.</p> <p>Только что опубликованное <a href="https://news.gallup.com/poll/708224/gen-adoption-steady-skepticism-climbs.aspx">исследование</a> Gallup показало, что 31% представителей поколения Z теперь говорят, что ИИ вызывает у них гнев — на 9 процентных пунктов больше, чем в прошлом году. Только 22% говорят, что он их вдохновляет, по сравнению с 36%. Уровень оптимизма упал на 9 пунктов до 18%. И 80% считают, что использование ИИ может помешать их будущей способности к обучению. Эксперты видят в этих результатах смену настроений среди целого поколения.</p> <p>Поколение Z в основном реагирует на низкое качество потребительского ИИ и институциональную путаницу вокруг этой технологии — чат-боты, которые галлюцинируют, сгенерированная ИИ ерунда в их лентах, инструменты, которые их школы одновременно запрещают и требуют. Это принципиально другой продукт, чем агентные модели, реструктурирующие кодовые базы и выявляющие уязвимости безопасности, передающиеся из поколения в поколение.</p> <p>Цифры по рабочим местам сложнее игнорировать. По <a href="https://fortune.com/2026/04/06/ai-tech-displacement-effect-gen-z-16000-jobs-per-month">оценкам</a> Goldman Sachs, ИИ ежемесячно сокращает примерно 16 000 рабочих мест в США — около 25 000 уничтожаются автоматизацией, а 9 000 восстанавливаются за счет расширения возможностей. Молодые работники поколения Z непропорционально сосредоточены на низкооплачиваемых ролях, которые ИИ автоматизирует в первую очередь: ввод данных, обслуживание клиентов, юридическая поддержка, выставление счетов. Согласно <a href="https://asia.nikkei.com/business/technology/artificial-intelligence/nearly-80-000-tech-jobs-cut-in-q1-but-ai-s-full-impact-may-be-yet-to-come">данным</a> Nikkei Asia, в первом квартале 2026 г. было уволено 78 557 технических специалистов, причем почти половина увольнений напрямую связана с ИИ. Директор Cognizant по ИИ заявил Nikkei, что реальное влияние ИИ еще даже не проявилось: «может пройти до года, прежде чем станет очевидным реальное воздействие этой технологии на рынок труда».</p> <p>Вы не потеряете работу из-за ИИ (хотя ИИ могут в этом обвинить). Но вы можете потерять ее из-за человека, который разбирается в ИИ лучше вас. Это всегда было рабочим тезисом, и новые данные сделали его еще более четким.</p> <h3>Доказательства того, что это уже распространяется</h3> <p>Anthropic только что опубликовала данные, демонстрирующие, что происходит, когда возможности ИИ сочетаются с глубокими знаниями в предметной области. Claude Mythos Preview — это новая модель, которая, по словам компании, «значительно опережает любую другую модель ИИ в области кибербезопасности». В ходе собственных испытаний компании, Mythos выявила и использовала уязвимости нулевого дня во всех основных ОС и всех основных веб-браузерах. Компания обнаружила <nobr>27-летнюю</nobr> уязвимость типа «отказ в обслуживании» в OpenBSD. Она обнаружила <nobr>16-летнюю</nobr> уязвимость в FFmpeg. Она разработала 181 рабочий эксплойт для уязвимостей движка JavaScript Firefox, по сравнению с двумя для предыдущей модели Opus 4.6. Последствия для безопасности беспрецедентны.</p> <p>Ключевая фраза из сообщения компании: «Мы не обучали Mythos Preview этим возможностям целенаправленно. Скорее, они возникли как следствие общих улучшений в коде, способности рассуждать и автономности». Anthropic не создавала модель кибербезопасности. Она создала более совершенную модель рассуждений, а возможности кибербезопасности вытекают из нее. Вот механизм распространения: улучшение модели на проверяемых технических задачах приводит к тому, что возможности распространяются в смежные области, такие как безопасность и инфраструктура, и в конечном итоге в юриспруденцию, медицину и финансы.</p> <p>Так что под угрозой не только разработчики. Они просто первые.</p> Прорыв Anthropic в области кибербезопасности и негативная реакция поколения Z на потребительский … article «Боцман» 3.2: больше контроля для ИБ и удобства для разработчиков https://www.itweek.ru/themes/detail.php?ID=234657 Mon, 13 Apr 2026 15:38:08 +0300 <p>Компания «Платформа Боцман» (входит в «Группу Астра») выпустила новую версию корпоративного решения для управления контейнерными средами — «Боцман» 3.2.</p> <p>Одним из ключевых нововведений стало расширение системы аудита. Механизмы журналирования и информирования о критических событиях безопасности дополнены событиями, происходящими в модуле единого входа (SSO). Это упрощает отслеживание инцидентов и позволяет сократить ресурсы на контроль множества компонентов платформы. </p> <p>Для инженеров-разработчиков значительно улучшен пользовательский опыт работы с терминалом. В веб-интерфейсе платформы теперь можно открывать сразу несколько окон для одного пода или контейнера. Это даёт возможность одновременно выполнять запросы внутри пода и отслеживать происходящее в соседнем окне, что заметно ускоряет диагностику и решение задач, связанных с отладкой приложений в контейнерной среде.</p> <p>Ещё одним важным усовершенствованием стала поддержка нескольких одновременных сессий SSO для одного пользователя. Это удобно в сценариях, когда инженеру необходимо заходить в платформу с нескольких устройств — например, с рабочей станции и планшета — без прерывания предыдущих сеансов и без необходимости постоянной повторной аутентификации.</p> <p>Кроме того, в версии 3.2 существенно повышена информативность и удобство процесса установки подчинённых кластеров через веб-интерфейс. Теперь администратор получает больше данных о ходе операций, интерфейс стал нагляднее, а понимание происходящего на каждом этапе — глубже. Это снижает вероятность ошибок при развёртывании и упрощает сопровождение сложных многокластерных инсталляций.</p> <p>«В „Боцман“ 3.2 мы сфокусировались на двух вещах: повышении прозрачности безопасности и улучшении пользовательского опыта для тех, кто ежедневно работает с платформой. Расширенный аудит событий SSO даёт службам ИБ полный контроль над доступом к кластерам, а множественные окна терминала и поддержка нескольких сессий единого входа — это прямые запросы от наших заказчиков, которые эксплуатируют „Боцман“ в крупных распределённых командах. Мы продолжаем делать платформу не только мощной, но и удобной в реальных сценариях использования», — прокомментировал Михаил Кобик, технический директор платформы «Боцман».</p> Компания «Платформа Боцман» (входит в «Группу Астра») выпустила новую версию корпоративного решения для управления … message Ideco представила обновление межсетевого экрана Ideco NGFW Novum https://www.itweek.ru/themes/detail.php?ID=234656 Mon, 13 Apr 2026 15:37:03 +0300 <p>Компания Ideco, российский разработчик решений сетевой безопасности, в рамках вебинара представила обновление межсетевого экрана нового поколения Ideco NGFW Novum. Релиз фиксирует переход продукта от высокопроизводительного NGFW к управляемой enterprise-платформе: в обновление вошли четыре крупных функциональных блока и ряд улучшений в области кластеризации и информационной безопасности.</p> <p>Платформа Ideco Center получила поддержку управления высокопроизводительными контекстами (VCE) и геораспределённого кластера из двух узлов в разных ЦОД. Узлы не требуют прямого соединения между собой; отказ одного не прерывает управление инфраструктурой. Добавлен централизованный сбор журналов IPS и WAF со всех узлов с возможностью выгрузки в SIEM. Ideco Center не участвует в обработке трафика: его отказ не останавливает работу NGFW.</p> <p>Появился журнал DNS запросов, в нем отображается информация об обмене DNS-сообщениями, обработанными Ideco NGFW Novum при включенных опциях логировать DNS-запросы и модуль DNS Security. Напомним, что модуль DNS Security выявляет и блокирует классы угроз, невидимые для стандартных механизмов межсетевого экрана: DGA-домены, DNS-туннелирование, обращения к C&C-инфраструктуре, фишинговые и недавно зарегистрированные домены, typosquatting, cryptojacking. Модуль дополняет, а не заменяет контент-фильтр.</p> <p>Добавлена возможность привязывать пользователя к конкретному устройству и использовать сертификат как дополнительный фактор авторизации в VPN. Можно выпустить сертификат автоматически через NGFW или использовать свой. В связке с логином, паролем и одноразовым кодом (OTP) формируется многофакторная схема доступа: компрометация только пароля или только устройства не даёт возможности подключения. ZTNA встроен в NGFW и входит в базовую поставку.</p> <p>Маршрутизация по SLA-профилям — группа next-hop с пороговыми значениями latency, jitter, packet loss. Трафик направляется только по каналам, соответствующим профилю. При нарушении SLA-профиля каждый узел NGFW переключает маршрут независимо. Журналирование фиксирует каждое переключение с указанием причины. Overlay-сети с динамической маршрутизацией поверх зашифрованных туннелей. Поддерживается маршрутизация по порту источника/назначения. SD-WAN входит в базовую поставку и не лицензируется отдельно.</p> <p>Добавлена интеграция с базой данных ФинЦЕРТ — центра мониторинга и реагирования на компьютерные атаки в кредитно-финансовой сфере. Теперь в правилах межсетевого экрана, контент-фильтра и модуля предотвращения вторжений можно выбрать соответствующие индикаторы компрометации.</p> <p>В области кластеризации добавлена синхронизация FIB-таблицы и состояния LACP-интерфейсов между узлами, поддержка Graceful Restart для BGP и OSPF, синхронизация базы отчётов между нодами и кратное ускорение переключение нод кластера.</p> <p>Блок информационной безопасности включает защиту защиту от ICMP-туннелинга, авторизацию по SSH-ключу для администраторов, 2FA для администраторов. </p> <p>Ideco NGFW Novum поставляется в форм-факторах ПАК (на российских аппаратных платформах из реестра Минпромторга) и программной инсталляции. Решения Ideco сертифицированы ФСТЭК России и включены в реестр отечественного ПО Минцифры.</p> Компания Ideco, российский разработчик решений сетевой безопасности, в рамках вебинара представила обновление межсетевого … message Платформа данных Селена класса Data Lakehouse получила коммерческое ядро StarRocks Enterprise https://www.itweek.ru/themes/detail.php?ID=234654 Mon, 13 Apr 2026 15:32:17 +0300 <p>Высокопроизводительная система хранения и обработки данных класса Data Lakehouse Селена теперь содержит в своем ядре коммерческие технологии StarRocks Enterprise. Этот важный шаг в развитии решения стал возможным благодаря подписанию соглашения о стратегическом сотрудничестве между компанией «Платформа данных Селена» и вендором StarRocks Enterprise из КНР. DIS Group получила статус основного дистрибьютора Селены на технологиях StarRocks Enterprise в России.</p> <p>Инфраструктура данных современных компаний и организаций может не справляться с возрастающими объемами данных и требованиями к их обработке в режиме, близком к реальному времени за счет нарастающего использования в аналитике ИИ-агентов, а также необходимости в онлайн-аналитике. На смену озерам данных приходят системы класса Data Lakehouse, которые позволяют в разы быстрее предоставлять данные и при этом экономить на инфраструктуре за счет оптимизированных механизмов хранения и обработки информации. Селена — одно из таких эффективных российских решений. Оно было первоначально создано на базе технологий StarRocks с открытым кодом в 2025 году.</p> <p>Переход на использование коммерческих технологий StarRocks Enterprise позволяет Селене максимально соответствовать самым высоким требованиям, предъявляемым крупнейшими организациями и компаниями страны к системам хранения и обработки данных класса Data Lakehouse. Эти технологии в большой степени избавляют от необходимости адаптации и доработки, связанных с использованием в платформах управления данными компонентов с открытым исходным кодом.</p> <p>Улучшения в Селене на базе технологий StarRocks Enterprise коснулись аспектов надежности, безопасности и масштабирования:</p> <ul> <li>более высокая надежность решения и автоматическое администрирование всего решения в части отказоустойчивости, управления дисковыми ресурсами;</li> <li>повышение безопасности работы с данными за счет разделения доступа на уровне строк, механизма аутентификации, встроенного маскирования данных;</li> <li>поддержка нескольких хранилищ, подключение к нескольким HDFS-кластерам, автоматическое управление материализованными представлениями.</li> </ul> <p>«Мы принесли в Россию лучшие коммерческие технологии StarRocks Enterprise, которые продемонстрировали существенный бизнес-эффект в крупнейших китайских компаниях и организациях. Сделав эти технологии ядром Селены, мы получили промышленное российское Data Lakehouse решение мирового уровня, которое способно удовлетворить самые высокие требования по скорости, функциональности, надежности, безопасности и масштабируемости при работе с данными», — сказал Павел Лихницкий, генеральный директор DIS Group.</p> <p>«Развитие Селены во многом определяет развитие интеллектуальной платформы управления данными AIDP от DIS Group. И, наоборот. Если Селена на StarRocks Enterprise заточена под требования крупнейших заказчиков, то в наших дальнейших планах есть и масштабирование AIDP в сторону компаний крупного и среднего бизнеса — с адаптированной Селеной «все в одном», — сказал Олег Гиацинтов, технический директор DIS Group.</p> <p>«Партнерство с разработчиками технологии StarRocks Enterprise даст возможность эффективно развивать как саму Селену, так и технологии StarRocks под растущие потребности российских заказчиков в Data Lakehouse системах», — сказал Дмитрий Замула, технический директор компании «Платформа данных Селена».</p> <p>DIS Group и «Платформа данных Селена» будут оказывать техническую поддержку Селена на технологиях StarRocks Enterprise с привлечением разработчиков из КНР по необходимости. </p> <p>StarRocks — это современная распределенная аналитическая СУБД (OLAP), построенная по принципу «shared-nothing» архитектуры, при котором каждый узел системы независим и не использует общую память или дисковое хранилище. Такая структура обеспечивает высокую масштабируемость, устойчивость к сбоям и параллельную обработку больших объемов данных.</p> <p>Селена — система хранения и обработки данных класса Data Lakehouse на базе производительного механизма StarRocks Enterprise. Она предназначена для высокоскоростной обработки и анализа больших объемов структурированных и неструктурированных данных.</p> Высокопроизводительная система хранения и обработки данных класса Data Lakehouse Селена теперь содержит в своем ядре … message GreenData представила корпоративную коммуникационную среду GreenData Диалог https://www.itweek.ru/themes/detail.php?ID=234653 Mon, 13 Apr 2026 15:30:54 +0300 <p>Российский разработчик low-code платформы GreenData представил «GreenData Диалог» — корпоративную среду для общения, обмена файлами и проведения онлайн-встреч. Новое решение позволит бизнесу организовать рабочие коммуникации в управляемом ИТ-контуре, сохранив привычный интерфейс корпоративного мессенджера, высокий уровень защиты данных, удобство администрирования, а также возможности для масштабирования.</p> <p>«GreenData Диалог» объединяет основные сценарии корпоративных коммуникаций в едином интерфейсе: личные и групповые чаты, аудио- и видеозвонки, онлайн-встречи, демонстрацию экрана, запись звонков, а также обмен файлами, изображениями и видео. Решение позволяет использовать единый инструмент как для внутренних коммуникаций сотрудников, так и для взаимодействия с клиентами, партнерами и подрядчиками.</p> <p>Новый продукт разработан как часть защищенного корпоративного ИТ-контура, где коммуникации остаются под контролем компании. «GreenData Диалог» поддерживает единую аутентификацию с другими системами на платформе GreenData, шифрование сообщений и звонков по стандарту ECDSA_WITH_AES_256, а также предоставляет инструменты для управления пользователями, ролями и правами доступа. Это позволяет бизнесу централизованно контролировать коммуникации, защищать данные и выстраивать единые правила взаимодействия внутри компании.</p> <p>Еще одна важная задача, которую решает новый мессенджер связана с внешними коммуникациями. Так, компании могут использовать «GreenData Диалог» не только для общения сотрудников, но и для видеовстреч с клиентами, подрядчиками и партнерами. Приглашенные участники могут подключаться к звонкам по ссылке без обязательной авторизации, что значительно упрощает процесс. При этом сохраняются возможности модерации и администрирования, что делает такой формат удобным для бизнеса и управляемым со стороны ИТ-подразделения.</p> <p>«Сегодня многим компаниям сложно перестроить корпоративные коммуникации: не хватает ресурсов и экспертизы, а любые сбои сразу влияют на бизнес-процессы и финансовые результаты. Компании ищут решения, которые позволяют сохранить привычный формат общения, обеспечить контроль над доступом и данными, а также развивать цифровую среду без замены базовых инструментов. „GreenData Диалог“ — это не только корпоративный мессенджер, но и полностью безопасная и управляемая среда для коммуникации, которая может расти вместе с бизнесом и становиться частью единой платформы внутренних процессов, благодаря расширенным возможностям», — отметила Ксения Золотарева, директор по продукту GreenData.</p> Российский разработчик low-code платформы GreenData представил «GreenData Диалог» — корпоративную среду для общения, обмена … message Gartner: рынок ИИ-помощников сократится в течение следующих двух лет https://www.itweek.ru/themes/detail.php?ID=234652 Mon, 13 Apr 2026 10:39:17 +0300 <p><em>Вероятно, их вытеснят платформы, интегрирующие возможности агентного искусственного интеллекта, что позволит предприятиям жестко контролировать цифровой труд, сообщает портал </em><em>No</em> <em>Jitter</em><em>.</em></p> <p>По данным Gartner, к 2028 г. более половины предприятий перестанут платить за вспомогательный интеллект (например, «вторых пилотов», ИИ-помощников, смарт-консультантов), который помогает людям выполнять ручные задачи и поддерживает их в принятии решений.</p> <p>В связи с новыми возможностями агентного ИИ, внедряемыми поставщиками больших языковых моделей (LLM) с целью помочь «предприятиям создавать, развертывать и управлять ИИ-агентами», как это делает OpenAI Frontier, само ПО превращается из инструмента, используемого людьми для выполнения работы, в инструмент, «контролирующий интеллектуальные системы, которые выполняют задачи от их имени», — отмечает Аластер Вулкок, вице-президент-аналитик Gartner.</p> <p>Он утверждает, что это изменение в первую очередь затронет «управление ИТ-услугами, юридические вопросы и обеспечение соответствия нормативным требованиям, закупки, CRM и операции по управлению доходами, а также отдельные области ERP, рынки, основанные на повторяющихся, основанных на правилах рабочих процессах, которые агенты могут все чаще выполнять автономно».</p> <p>Gartner также оценила поставщиков решений для поддержки клиентов и операционной деятельности как очень подверженных возможному вытеснению в течение следующих 18 месяцев, если они «не смогут внедрить делегированное исполнение» — то есть возможность для людей передавать работу агентам ИИ. В этой новой парадигме цифрового труда «роли людей изменятся, а не исчезнут», говорит Вулкок.</p> <p>Поставщики могут повысить свою конкурентоспособность, внедрив «оркестрацию агентов в системы учета, предоставив API для выполнения с учетом политик и обеспечив идентификацию, разрешения и аудит на уровне панели управления», — считает Вулкок. Оркестрация агентов означает, что один агент ИИ координирует деятельность подчиненных агентов для выполнения работы. В качестве примеров можно привести AI Control Tower от ServiceNow и мультиагентную оркестрацию от Salesforce и Talkdesk.</p> <p>Большинство платформ с возможностями агентного ИИ предлагают агент-оркестратор, хотя особенности его работы различаются. Model Context Protocol (MCP) стал основным способом доступа агентов ИИ к внутренним инструментам и данным, хранящимся на сторонних платформах. Сервер MCP находится на «границе» этих платформ; концептуально, единственный путь входа и выхода для агентов ИИ — через этот сервер.</p> <p>Вулкок предостерегает поставщиков SaaS от закрытия своих «систем учета для сохранения контроля». Вместо этого конкурентное преимущество будет получено за счет «контролируемой открытости» — например, прямой интеграции, MCP-доступа. «Те, кто полагается на ограничения, рискуют быть обойденными уровнями оркестрации, которым предприятия доверяют больше», — предостерегает Вулкок.</p> Вероятно, их вытеснят платформы, интегрирующие возможности агентного искусственного интеллекта, что позволит предприятиям … article “Вы не уточняли — мы не говорили”: пять вопросов провайдеру HaaS, которые спасут инфраструктуру и нервы https://www.itweek.ru/themes/detail.php?ID=234650 Mon, 13 Apr 2026 10:14:14 +0300 <p>Казалось бы, схема HaaS (Hardware as a Service, аппаратное обеспечение как сервис) давно отработана: платишь помесячно — и пользуешься. Но дьявол, как обычно, кроется в деталях: что будет, когда понадобится модернизация, кто настраивает сервер и в какой момент он считается работающим «до зеленых лампочек»?</p> <p>Заказчики часто уверены, что условия по умолчанию одинаковы для всех. Провайдеры же искренне считают, что клиент сам знает, о чем спрашивать. Итог — неловкие паузы и классическое «вы не спросили — мы не сказали». В статье расскажу, какие вопросы задавать провайдеру еще «на берегу», чтобы не услышать эту фразу через год.</p> <h3>Как работает апгрейд оборудования?</h3> <p>В модели HaaS клиент получает в аренду оборудование с конкретной спецификацией, которую обычно фиксируют еще до подписания договора. HaaS, по своей сути, менее гибкая схема, чем аренда выделенных серверов, Dedicated/Bare metal (выделенный сервер/"голое железо«), и в процессе работы может потребоваться замена компонентов на более мощные. Независимо от того, кто формировал исходную конфигурацию — специалисты провайдера или инженеры заказчика — вопрос апгрейда потребует решения.</p> <p>Ключевой момент, который стоит прояснить на этапе переговоров — возможность изменения конфигурации арендованного железа. Очевидно, что для некоторых типов устройств, например коммутаторов, такая опция может быть неактуальной, однако для серверов этот пункт заслуживает особого внимания.</p> <p>Обязательно нужно уточнить, предусмотрена ли такая возможность и как именно она прописана. Если модернизация критична для бизнес-задач, стоит внимательно изучить соответствующие разделы контракта и, при необходимости, инициировать согласование альтернативных формулировок, чтобы зафиксировать условия на понятном для обеих сторон языке.</p> <p>Параллельно имеет смысл прояснить процедуру: как именно будет проходить апгрейд в случае его реализации — предполагаются ли выезд инженера провайдера на площадку заказчика, доставка оборудования в сервисный центр или передача комплектующих для самостоятельной установки силами технических специалистов компании-арендатора.</p> <p>Важно обратить внимание на оформление изменений. У разных провайдеров по-разному: где-то хватает подписанной спецификации или дополнения к договору, а где-то могут предложить заключить отдельный контракт. Также необходимо уточнить, как изменения отразятся в финансовых документах: будет ли производиться перерасчет всей суммы аренды или новые компоненты проведут отдельной позицией в счетах. В первом случае возможно как простое обновление графика платежей, так и необходимость внесения правок в основную часть договора, а это дополнительная нагрузка на юристов с обеих сторон.</p> <p>Среди рекомендаций, которые могут показаться очевидными, но на практике нередко помогают избежать сложностей в ходе исполнения контракта, — требование точной информации. Фразы в духе «все решаемо, но потом» зачастую маскируют отсутствие у провайдера внятного регламента. А устные договоренности, не закрепленные в договоре, имеют свойство терять силу при смене менеджера. В результате заказчик может столкнуться с позицией: «мы так не работаем, вы не уточняли — мы не говорили».</p> <h3>На что обратить внимание при приемке оборудования и вводе в эксплуатацию?</h3> <p>При любой модели поставки — покупка, лизинг или аренда — ключевой этап один: ввод оборудования в эксплуатацию. Если в компании есть штат системных инженеров, которые умеют устанавливать и настраивать конкретные устройства, услуга пуско-наладочных работ может и не понадобиться. Но даже в таких ситуациях нередко предпочитают переложить эти задачи на инженеров провайдера, и на то есть веские причины.</p> <p>Во-первых, требования самого провайдера. Корректная пусконаладка позволяет избежать проблем как аппаратных, так и программных. Поэтому в условиях поставки прописывают пункт об обязательной или, как минимум, рекомендованной установке силами вендора или интегратора.</p> <p>Во-вторых, снижение рисков для заказчика. Особенно актуально, когда оборудование дорогостоящее, технически сложное, enterprise-уровня (enterprise — предназначенный для корпоративного сегмента). Передача пусконаладки провайдеру снимает с заказчика значительную долю ответственности: в случае сбоев или некорректной работы отвечает именно исполнитель. Профессионалы эту стадию называют емко: «до зеленых лампочек» — то есть до момента, когда оборудование не просто включено, а функционирует в штатном режиме и готово к эксплуатации.</p> <p>Но за этим, казалось бы, понятным критерием нередко скрывается разница в ожиданиях. Заказчик думает, что пусконаладка — это полная настройка с подключением и маркировкой сетевых кабелей, сборкой RAID-массивов (технология объединения нескольких физических дисков в одну логическую систему) и установкой ПО. Провайдер же иногда ограничивается физическим креплением оборудования в стойку и включением в розетку. Чтобы избежать недопонимания на столь критическом этапе, поставщик обязан заранее предоставить критерии завершения работ и согласовать их с заказчиком. Это позволит провести прозрачные границы ответственности.</p> <p>Прием оборудования же больше связан с формальной стороной сделки — подписанием актов приема-передачи и иных документов, предусмотренных договором и логистикой. На первый взгляд процедура выглядит тривиально: осмотрели, подписали — и дело сделано. Однако на практике, чтобы подпись имела законную силу, представителю заказчика необходима либо доверенность, либо печать организации. Это стандартное требование любой службы доставки, и пренебрежение им чревато срывом сроков и дополнительными расходами на повторный привоз.</p> <p>Особый случай — размещение оборудования в ЦОДе провайдера. Там приемку осуществляют инженеры дата-центра, они же потом и берут ответственность за все, что связано с вводом в эксплуатацию.</p> <h3>На что смотреть в технической поддержке?</h3> <p>При аренде оборудования по модели Hardware as a Service один из ключевых параметров, который стоит разобрать еще на этапе заключения договора, — это техническая поддержка. Провайдеры могут предлагать принципиально разные условия: от круглосуточного реагирования в течение 20 минут до поддержки в режиме 8/5 с реакцией до четырех часов. Внешне выбор очевиден, особенно если цены сопоставимы, но за внешней простотой скрывается ряд нюансов.</p> <p>У провайдера, как правило, есть несколько тарифных планов поддержки. Если у компании собственный штат квалифицированных специалистов, вариант 8/5 может стать разумным способом сэкономить на аренде без особого ущерба для бесперебойности сервисов. Иная ситуация, если на оборудовании планируют разворачивать критически важные бизнес-приложения, которые должны работать 24/7 без перебоев. В таком случае уже нужна поддержка с максимально быстрой реакцией и круглосуточным охватом.</p> <p>Лучший способ зафиксировать договоренности — прописать в контракте соглашение об уровне обслуживания (SLA). Там должны быть не только сроки реакции, но и конкретика: выезжает ли инженер на площадку, есть ли запасной комплект запчастей и где он лежит — на складе провайдера или прямо у заказчика. От этого напрямую зависит, как быстро починят, если что-то сломается, равно как и наличие системы мониторинга, позволяющей предотвратить сбой до его наступления.</p> <p>Географию поддержки тоже важно учесть, если оборудование за срок аренды может переехать. Например, компания планирует временно разместить серверы в коммерческом ЦОДе в Москве, а потом, когда достроит свою площадку в регионе, перенести их туда. Поскольку уровень сервиса в регионах отличается от столичного, необходимо заранее уточнить, сохранятся ли условия поддержки при переезде. Место эксплуатации обычно фиксируют в договоре, и самовольно переносить оборудование недопустимо — оно застраховано по конкретному адресу. При смене локации придется оформлять новый страховой полис, что влечет дополнительные расходы.</p> <p>Еще один момент, где часто возникает недопонимание и даже откровенные манипуляции, — это разница между технической и гарантийной поддержкой. Обычная гарантия, как правило, ограничивается тем, что оборудование отправляют в ближайший сервисный центр. Ни доставку, ни выезд специалистов для диагностики и ремонта она может не покрывать. В такой конфигурации HaaS превращается в инструмент финансового планирования, позволяющий распределить платежи во времени, но не в полноценный арендный сервис.</p> <p>И третье, что напрямую связано с управлением рисками при аренде, — страхование. Основные вопросы — кто выгодоприобретатель и что реально дает страховка заказчику. В одном случае это может быть надежная защита инвестиций, в другом — формальность с большим количеством «но» и «если» при наступлении страхового случая.</p> <h3>Чем все заканчивается?</h3> <p>В HaaS, как правило, длительные контракты, действующие до пяти лет, но вопросы выхода из них, целесообразно прорабатывать еще на стадии подписания договора. Обычно доступно несколько опций: выкуп, возврат или замена на другое оборудование.</p> <p>Самая привлекательная из них — выкуп. Его право или обязанность должны быть прописаны в договоре аренды, чтобы по окончании срока его действия у сторон не возникало разночтений. Важно, чтобы в формулировке фигурировала конкретная сумма, за которую оборудование можно выкупить. Стандартная процедура выглядит так: составляется отдельный договор купли-продажи, где прописывают ссылки на исходную аренду. Такие документы, в отличие от сложных арендных соглашений, простые и, как правило, быстро согласовываются, когда приходит время выкупа. Но есть нюанс: чаще всего срок гарантии и технической поддержки ограничен периодом действия арендного договора. И после приобретения заказчик остается с оборудованием один на один.</p> <p>Альтернативой выкупу выступает возврат оборудования. В некоторых договорах встречаются общие формулировки, которые дают арендатору право выбрать — выкупить или вернуть, причем опции равнозначные. Это удобно: спустя несколько лет можно гибко подойти к вопросу и не ставить актив на баланс, если он вдруг стал не нужен. Особенно это актуально для проектных контрактов, после завершения которых актив может оказаться невостребованным.</p> <p>Замена на новое оборудование — еще один теоретически возможный вариант. Однако на практике он встречается редко. Тут и клиенту, и провайдеру непросто: заказчику новое железо может и не пригодиться, а поставщику сложно просчитать, насколько это вообще рентабельно. Поэтому обычно провайдеры предлагают обсуждать замену отдельно, ближе к финалу текущего контракта.</p> <p>Досрочный выкуп — еще один способ выхода из контракта HaaS. Сразу стоит сделать оговорку: такая возможность есть не всегда. При краткосрочных контрактах (скажем, на 13 месяцев) право досрочного выкупа у заказчика чаще всего отсутствует, поскольку это невыгодно провайдеру или финансирующей организации. На длительных же сроках такая практика вполне распространена, и ключевым здесь становится экономический смысл. Если у компании-арендатора появляется возможность выкупить оборудование раньше, можно сэкономить на процентах за будущие периоды и снизить общую стоимость контракта. Но готовность провайдера к такому сценарию не гарантирована. Поэтому просчитывать варианты завершения договора лучше заранее, «на берегу».</p> <h3>Что еще полезного можно взять у провайдера?</h3> <p>На первый взгляд обсуждение дополнительных услуг может показаться лишь инструментом провайдера для увеличения чека. Но если подойти к вопросу с умом, можно грамотно использовать сильные стороны арендодателя и собрать инфраструктуру ровно под свои задачи. Набор полезных опций напрямую зависит от того, где стоит оборудование — в ЦОДе провайдера или на собственной площадке, — и эту разницу важно учитывать и заранее уточнять возможности партнера.</p> <p>Если оборудование размещено в дата-центре провайдера, многие сопутствующие услуги уже включены в ежемесячный платеж по умолчанию: аренда стойко-мест, каналы связи, базовое электропитание и климат-контроль. Однако на этом база не заканчивается. Арендодатель способен предложить значительно более широкий спектр опций — от расширенного мониторинга и администрирования прикладных систем до резервного копирования или построения гибридной инфраструктуры с облачной частью. Узнать о таких возможностях лучше на старте проекта: это позволит не только более грамотно спроектировать решение под задачи заказчика, но и своевременно заложить в бюджет приобретение сервисов, которые существенно дополнят основной контракт.</p> <p>Отдельное направление — программное обеспечение, включая системы виртуализации. Интеграция ПО в договор аренды оборудования дает заказчику ряд преимуществ. Во-первых, появляется возможность получить готовый программно-аппаратный комплекс (ПАК), который уже заточен под конкретные задачи и избавлен от проблем совместимости. Во-вторых, такой подход не зависит от места эксплуатации: оборудование с предустановленным и лицензированным ПО можно разместить как в ЦОДе провайдера, так и на площадке клиента. Наконец, это удобно: заказчик получает комплексное решение задачи, экономит время сотрудников, избегая лишних согласований, бюрократических процедур и необходимости заключать отдельные договоры с разными поставщиками.</p> <h3>Вывод</h3> <p>HaaS по своей сути — это просто поставка нового оборудования, только с платежами, растянутыми во времени. И именно поэтому почти все спорные моменты возникают не в самом железе, а в том, как оно живет по договору: как его принимать и на каких условиях, что считать вводом в эксплуатацию, как в реальности работает поддержка, можно ли что-то менять по ходу срока и какие варианты завершения контракта действительно доступны.</p> <p>Если свести все к одной практической рекомендации, она звучит просто: просите у провайдера не общие обещания, а четкие и понятные правила. Апгрейда и оформления изменений. Приемки — с критериями, чтобы фраза «до зеленых лампочек» не превратилась потом в спор о терминах. Поддержки — не просто «24/7», а где лежит ЗИП, выезжает ли инженер и сколько реально времени уйдет на восстановление. Выхода, включая выкуп, возврат или досрочный выкуп — с конкретными сроками, документами и цифрами. И отдельно — правила по дополнительным сервисам, которые сегодня кажутся необязательными, а через год становятся критичными, но уже не входят в договор.</p> <p>Важно требовать конкретику. Если она есть, то и через год вы не услышите: «Ну вы как-то не спросили, мы думали, вы знаете».</p> <p>#IMAGE_234651#</p> Казалось бы, схема HaaS (Hardware as a Service, аппаратное обеспечение как сервис) давно отработана: платишь … article Роман Зацепин, менеджер продукта Softline Облако (“Софтлайн Решения”, входит в ГК Softline) Конфиденциальные вычисления вновь становятся приоритетом CIO в области безопасности https://www.itweek.ru/themes/detail.php?ID=234649 Mon, 13 Apr 2026 10:01:37 +0300 <p><em>Конфиденциальные вычисления (</em><em>confidential</em> <em>computing</em><em>) закрывают давний пробел в безопасности: защиту данных во время их обработки. Для </em><em>CIO</em> <em>вопрос заключается в том, как, когда и где их использовать, считают опрошенные порталом </em><em>InformationWeek</em> <em>эксперты.</em></p> <p>Шифрование, брандмауэры и архитектуры нулевого доверия — это проверенные временем методы защиты конфиденциальных данных. Но есть загвоздка: в эпоху облачных вычислений и глубоко взаимосвязанных цифровых сетей становится все сложнее узнать, где в любой момент времени находятся данные — и кто может их просмотреть.</p> <p>Это побуждает CIO обращаться к конфиденциальным вычислениям. Эта технология устраняет распространенный, но часто упускаемый из виду пробел в безопасности: организации обычно используют шифрование для данных в состоянии покоя и при передаче, но в момент расшифровки они потенциально становятся видимыми. Это делает их уязвимыми для атак любого, кто имеет доступ к системной памяти, включая вредоносный процесс, скомпрометированный гипервизор или злоумышленника.</p> <p>Конфиденциальные вычисления защищают данные в процессе использования, обрабатывая их внутри доверенной среды выполнения (TEE) с аппаратным шифрованием — защищенной области внутри чипа, которая изолирует данные от окружающей инфраструктуры, приложений, облачных провайдеров и даже привилегированных пользователей. Представьте себе TEE как почтовое отделение без дверей и окон: никто не может войти, но письма могут проходить через защищенный слот.</p> <p>«Когда мы описываем конфиденциальные вычисления, и люди действительно понимают их, реакция почти всегда одна и та же: почему бы нам это не использовать?», — расказывает Марк Боуэр, главный стратег Anjuna Security и сопредседатель рабочей группы Cloud Security Alliance по конфиденциальным вычислениям.</p> <p>По мере усиления угроз и роста рисков, включая геополитическую нестабильность, конфиденциальные вычисления все больше оказываются в центре внимания. Недавний опрос, проведенный IDC Research, <a href="https://www.prnewswire.com/news-releases/new-study-finds-confidential-computing-emerging-as-a-strategic-imperative-for-secure-ai-and-data-collaboration-302631213.html">показал</a>, что 75% из 600 респондентов внедряют конфиденциальные вычисления в той или иной форме — 18% уже используют их в производственной среде, а 57% тестируют. Не менее важно, что 88% руководителей предприятий говорят, что это повышает целостность данных, а 77% считают, что это усиливает ключевые технические гарантии.</p> <p>«По мере роста внедрения ИИ, усиления регуляторного давления и развития многосторонней аналитики организации стремятся устранить пробелы в безопасности и обеспечить устойчивость в будущем, — говорит Филип Бьюз, старший менеджер IDC по исследованиям. — Это становится императивом на уровне совета директоров».</p> <h3>Установление доверия к коду, защита данных в процессе обработки</h3> <p>Что делает конфиденциальные вычисления такими привлекательными, так это то, что они обеспечивают проверяемое доверие посредством аппаратной аттестации. Рабочие нагрузки содержат уникальную криптографическую идентичность, которая доказывает, что код выполняется в конфиденциальной среде. «Вы избегаете инъекции секретов в конвейер CI/CD, именно там они и подвергаются компрометации», — поясняет Боуэр.</p> <p>Обычно организации запускают ПО и сервисы без гарантии того, что пароли, ключи или секреты по своей сути безопасны. «Существует „проблема первого секрета“. Как мне узнать, действительно ли система заслуживает доверия, когда я устанавливаю контроль доступа? — говорит Боуэр. — Конфиденциальные вычисления решают эту проблему. Они устанавливают доверие еще до того, как коснутся данных».</p> <p>Эта технология уже широко используется для чиповых карт и платежных платформ, включая Apple Pay и Google Pay. Она также встроена в аппаратные модули безопасности, которые хранят и защищают криптографические ключи. Теперь, когда организации стремятся защитить интеллектуальную собственность, регулируемые аналитические рабочие нагрузки, личные и конфиденциальные данные, а также информацию, которая может обрабатываться моделями генеративного ИИ, конфиденциальные вычисления расширяются на облачные, гибридные и периферийные среды.</p> <p>Конфиденциальные вычисления отлично подходят для «чувствительных рабочих нагрузок и там, где суверенитет данных и операционный суверенитет занимают важное место в списке проблем», — отмечает Барт Виллемсен, аналитик Gartner. Это включает в себя финансы и банковское дело, здравоохранение, AdTech и MarTech. Также растет интерес к конфиденциальному ИИ и запуску небольших, подходящих для конкретных целей моделей ИИ с открытым исходным кодом в рамках TEE. Фактически, Gartner включила конфиденциальные вычисления в тройку ведущих технологий, за которыми следует следить в 2026 г.</p> <p>«Конфиденциальные вычисления обеспечивают аппаратную защиту, которую одни только программные средства контроля не могут обеспечить», — отмечает Боуэр.</p> <h3>Как CIO могут внедрить конфиденциальные вычисления</h3> <p>До недавнего времени многие CIO рассматривали конфиденциальные вычисления как экспериментальную технологию. Ранние версии требовали технических знаний для развертывания, управления и использования систем, а инструменты часто плохо интегрировались с существующими рабочими процессами. В результате разработчики и команды DevOps были недовольны, и внедрение отставало.</p> <p>Изменилось то, что современные программные стеки поддерживают конфиденциальные вычисления в существующих средах выполнения, включая виртуальные машины и контейнеры. В результате нет необходимости перепроектировать приложения и заново изобретать протоколы безопасности. Кроме того, TEE включают в себя средства контроля, которые работают совместно с существующими инструментами шифрования, а не заменяют их, отмечает Виллемсен.</p> <p>Также формируется нормативная база. В декабре NIST <a href="м">опубликовал</a> первоначальный публичный проект, в котором прямо рекомендовал конфиденциальные вычисления в качестве средства контроля для чувствительных рабочих нагрузок. NSA, чьи рекомендации оказывают существенное влияние на планирование безопасности американских государственных и корпоративных структур, добавило TEE в свои последние рекомендации по концепции нулевого доверия. Другие инициативы по всему миру, включая Закон ЕС о цифровой операционной устойчивости и Monetary Authority of Singapore, также продвигают этот подход.</p> <p>IDC рекомендует начинать с наиболее чувствительных рабочих нагрузок, запуская целевые пилотные проекты, используя сторонние решения для аттестации и Open Source-инструменты для проверки целостности среды, а также взаимодействуя с поставщиками, поддерживающими открытые стандарты и совместимость. Важно участвовать в отраслевых инициативах, сотрудничать с ключевыми заинтересованными сторонами и инвестировать в обучение и развитие навыков, считает Бьюз.</p> <h3>Роль конфиденциальных вычислений в безопасном предприятии</h3> <p>Конфиденциальные вычисления — не единственный вариант. Другие методы, такие как гомоморфное шифрование, безопасные многосторонние вычисления и федеративное обучение с сохранением конфиденциальности, также набирают популярность. Однако каждый из них приводит к снижению производительности или сложен в реализации. Привлекательность конфиденциальных вычислений заключается в том, что они уже работают в масштабе инфраструктурных организаций.</p> <p>Боуэр отмечает, что, когда CIO обращаются к конфиденциальным вычислениям, важно сосредоточиться на одном важном факте: рентабельность инвестиций не выражается в конкретных цифрах. TEE снижают риски и улучшают соответствие требованиям. Они помогают организациям избежать потенциально разрушительных — и дорогостоящих — сбоев в безопасности и соблюдении нормативных требований. Боуэр предлагает обратиться к отраслевым источникам, таким как Консорциум конфиденциальных вычислений (Confidential Computing Consortium), чтобы получить представление об обучении, Open Source-инструментах и других ресурсах, которые могут облегчить переход к конфиденциальным рабочим нагрузкам.</p> <p>По словам Бьюза, конфиденциальные вычисления, вероятно, будут конвергировать с платформами управления состоянием безопасности ИИ (AI Security Posture Management, AI-SPM) и управления состоянием безопасности данных (Data Security Posture Management, DSPM). Это позволит устранить критический пробел: TEE обеспечивают безопасность данных в процессе обработки, в то время как DSPM и AI-SPM управляют рисками и обеспечивают управление на остальных этапах жизненного цикла. Бьюз ожидает, что в течение нескольких лет может появиться новый стандарт для того, как предприятия управляют и защищают конфиденциальные рабочие нагрузки. Результатом станет структура, которая еще больше интегрирует безопасность и управление.</p> <p>«Вопрос больше не в том, должны ли конфиденциальные вычисления быть частью предприятия, — говорит Бьюэр. — Вопрос в том, как быстро CIO смогут сделать их частью архитектуры».</p> Конфиденциальные вычисления (confidential computing) закрывают давний пробел в безопасности: защиту данных во время … article BI.ZONE представила платформу для управления поверхностью атаки BI.ZONE EASM https://www.itweek.ru/themes/detail.php?ID=234648 Fri, 10 Apr 2026 12:32:05 +0300 <p>BI.ZONE представила платформу для управления поверхностью атаки BI.ZONE EASM. Новая платформа вобрала в себя ключевую функциональность BI.ZONE CPT по оценке уровня защищенности инфраструктуры, борьбе с теневыми IT и отслеживанию новых сервисов на периметре.</p> <p>В рамках BI.ZONE EASM эти возможности расширены и дополнены за счет глубокой интеграции с порталом киберразведки BI.ZONE Threat Intelligence.</p> <p>Павел Загуменнов, руководитель BI.ZONE EASM, отметил: «Помимо списка обнаруженных уязвимостей, пользователи платформы также будут получать дополнительный контекст для их приоритизации. В частности, он будет включать информацию об эксплуатации уязвимости в реальных атаках и обсуждении таких планов злоумышленниками на теневых ресурсах, данные о доступности эксплоитов, а также о наиболее важных экспозициях внешнего периметра».</p> <p>На новой платформе также улучшена видимость результатов проверок внешнего периметра. Чтобы пользователи могли в кратчайшие сроки узнавать о появлении на периметре потенциально небезопасных сервисов, добавлена возможность работы с черными списками. Во многих компаниях корпоративная политика безопасности запрещает публикацию на внешнем периметре ряда сервисов — например, сервисов управления (RDP, Telnet), СУБД или высокорисковых системных сервисов, таких как SMB или LDAP. Пользователи BI.ZONE EASM теперь могут внести запрещенные к публикации сервисы в особый список. При обнаружении такого сервиса на периметре пользователь немедленно будет об этом оповещен и сможет принять необходимые меры для устранения рисков.</p> <p>На дашбордах пользователю постоянно доступна информация об общем уровне риска для его организации, а также о важнейших находках — наиболее критичных уязвимостях с учетом данных BI.ZONE Threat Intelligence. Кроме того, пользователю доступна расширенная аналитика по дополнительным зонам экспозиции — DNS, почтовым сервисам и TLS-контуру.</p> <p>Ранее BI.ZONE сообщала о добавлении в BI.ZONE CPT метрики EPSS (Exploit Prediction Scoring System) для приоритизации уязвимостей. Эта возможность сохранена в рамках новой платформы BI.ZONE EASM. EPSS дополняет классическую метрику CVSS (Common Vulnerability Scoring System) и показывает, насколько высока вероятность того, что атакующие будут эксплуатировать уязвимость в течение ближайших 30 дней.</p> BI.ZONE представила платформу для управления поверхностью атаки BI.ZONE EASM. Новая платформа вобрала в себя ключевую … message DатаРу: объем рынка ИТ-оборудования в России не превышает 3,5 млрд рублей https://www.itweek.ru/themes/detail.php?ID=234647 Fri, 10 Apr 2026 12:30:17 +0300 <p>Рынок ИТ-оборудования в России по итогам 2025 года продемонстрировал стагнацию и смещение интереса заказчиков к базовым инфраструктурным решениям. По оценке экспертов группы компаний DатаРу, высокая ставка и мировой дефицит компонентов затормозили проекты цифровизации, а в перспективе это приведет к пересмотру ИТ-бюджетов заказчиков — сервисная поддержка станет ключевым сегментом рынка ИТ в 2026 году.</p> <p>Объем российского рынок ИТ-оборудования в 2025 году фактически не вырос и остался на уровне около 3,5 трлн рублей, подсчитали в DатаРу. На протяжении большей части года развитие отрасли сдерживала высокая ключевая ставка, которая ограничивала инвестиции в инфраструктуру. При этом год ознаменовался сменой мотивации заказчиков: фактор импортозамещения больше не оказывает значительного влияния на спрос, поскольку сегмент компаний и организаций, где переход на локальные решения является обязательным, уже завершил необходимые проекты. </p> <p>Основным драйвером остается практическая потребность в цифровизации и поддержание устойчивости ИТ-ландшафта. Однако с осени 2025 года рынок столкнулся с новым вызовом — влиянием глобального сокращения доступности компонентов. Нехватка связана со стремительным ростом числа проектов в области искусственного интеллекта и переориентацией производственных линий крупнейших вендоров на высокопроизводительные решения для ИИ и гипермасштабируемых дата-центров. В результате оборудование для базовой инфраструктуры — серверы, СХД и компоненты, наиболее востребованные на отечественном рынке — оказалось в дефиците.</p> <p>Особенно заметным стал рост стоимости оперативной памяти (ОЗУ): цены увеличились кратно на фоне нехватки чипов. Подобные скачки уже наблюдались как последствия природных катастроф, однако текущая ситуация рассматривается участниками рынка как долгосрочная и требующая структурной перестройки. Вслед за памятью дорожают и ключевые элементы инфраструктуры — серверные платформы, системы хранения данных, сетевые компоненты. Динамика цен может варьироваться от 50 до 400%. </p> <p>На этом фоне требования заказчиков к оборудованию также пережили значительную трансформацию. По ряду популярных позиций — ОЗУ, жестким дискам, адаптерам — сроки поставок перестали фиксироваться, а стоимость выросла в два-три раза. Производители и интеграторы столкнулись с невозможностью удерживать цены даже на краткосрочном горизонте. В условиях зависимости от зарубежной компонентной базы заказчикам приходится принимать решения о закупках максимально оперативно и быстро обеспечивать финансирование.</p> <p>«Кратный рост стоимости ОЗУ, вызванный дефицитом чипов, сначала казался очередным скачком на рынке. Рынок уже сталкивался с подобными реакциями производителей после землетрясения в Японии в 2011 года или крупных наводнений. Но сейчас мы должны признать, что текущая ситуация дефицита — это новая реальность. В 2026 году компаниям и заказчикам потребуется полное переосмысление организации всего ИТ, причем как в B2B, так и в B2C сегменте. Вырастет не только цена ноутбуков и телефонов, но и стоимость базовой ИТ-инфраструктуры — серверов и СХД», — прокомментировал генеральный директор ГК DатаРу Роман Гоц.</p> <p>В 2026 году, по прогнозам DатаРу, ключевой стратегией компаний станет адаптация к новой конфигурации поставок и бюджетов. Приоритет получат проекты с четко сформулированными инфраструктурными задачами и партнерство с поставщиками, способными гарантировать логистику и сервисную поддержку. В начале года также возможен рост спроса на облачные сервисы как альтернативы закупке «железа», поскольку значительная часть облачной инфраструктуры выстроена в докризисный период. Однако во второй половине года фактор роста цен окажет влияние и на этот ИТ-сегмент, что потребует новой оценки экономической эффективности по каждому конкретному проекту.</p> <p>Одновременно в фокусе участников рынка будет оставаться сервисное обслуживание. Ограниченные возможности по обновлению ИТ-ландшафта будут стимулировать бизнес продлевать жизненный цикл существующих систем, оптимизировать использование ресурсов и повышать требования к технической поддержке. Критическое значение приобретает эффективное управление емкостью хранилищ, оперативной памятью и состоянием инфраструктуры.</p> <p>«Ожидать бурного роста цифровизации в 2026 году точно не приходится. После сложного начала года и адаптации к новым реалиям заказчики будут пересматривать свои инвестиционные бюджеты в части ИТ-оборудования. Это повлечет переоценку требований и возможностей под расширение ПО и других систем. Доверие и прозрачное взаимодействие по цепочке „заказчик — интегратор — вендор“ станет определяющим для успеха любого проекта», — добавил Роман Гоц.</p> Рынок ИТ-оборудования в России по итогам 2025 года продемонстрировал стагнацию и смещение интереса заказчиков … message Напряжённый вопрос: конкуренция на рынке электроэнергии для ЦОДов https://www.itweek.ru/themes/detail.php?ID=234644 Fri, 10 Apr 2026 10:49:31 +0300 <p><em>Аналитический центр при Правительстве РФ и Минцифры в ноябре 2025 года прогнозировали рост энергопотребления дата-центров в нашей стране с 1 ГВт на указанный период до минимум 2,5 ГВт к 2030 году. Главной причиной этого, безусловно, является усиление роли ЦОДов в развитии экономики России. Одновременно с этим растут запросы ЦОДов на электроэнергию, за которую им приходится конкурировать с девелоперами и промышленностью.</em></p> <p>В 2026 году порядка <nobr>60-90%</nobr> расходов на ЦОД составляет оплата электроэнергии, которая в свою очередь может поставляться по тарифу высокого напряжения и по тарифу среднего напряжения. Учитывать это крайне важно для планирования дальнейшей эксплуатации объекта.</p> <p>Попробуем разобраться, чем отличаются друг от друга вышеупомянутые тарифы, а также можно ли и нужно ли их менять.</p> <h3>Тарифы в различных регионах не коррелируются</h3> <p>Тарификация в электроэнергетике зависит от класса напряжения, согласно которому потребитель получает электричество. Так, высокое напряжение будет предоставляться дешевле, чем среднее. Однако подключить его будет дороже из-за различий в требованиях к системам электроснабжения и затрат на оборудование.</p> <p>Если говорить о распределении по тарифам, то к высокому напряжению относятся 110 кВ и выше (крупные промышленные предприятия, металлургия, нефтепереработка), к среднему — ниже 110 кВ (заводы, крупные цеха, промпарки, малые производства, торговые центры).</p> <p>По нашим подсчетам, от региона к региону соотношение между тарифами «высокое напряжение» и «среднее напряжение» будет разным. Мы не можем говорить, что, допустим, в Москве и в Свердловской области соотношение между высоким напряжением и средним напряжением будет одним и тем же. Сравнивать такие тарифы один к одному не представляется возможным. В разных регионах за этими терминами скрываются разные показатели. Отметим, что высокое напряжение выгоднее для ЦОДов, и большинство инвесторов в дата-центры (как частные, так и государственные) стремится к нему.</p> <p>Для того чтобы претендовать на высокое напряжение, в 90% случаев необходимо расположение дата-центра в непосредственной близости от источника питания (питающей подстанции/питающего центра) высокого напряжения. Только так возможно подключиться к данному тарифу без посредников в лице сетевых организаций. Как только появляется посредник, стоимость сразу же чуть ли не кратно возрастает. Цепочка энергоснабжения состоит из тех, кто производит электричество, транспортирует его и непосредственно поставщиков для потребителей. Выпадение какого-либо из звеньев цепочки автоматически уменьшает стоимость энергии. Так, если ЦОД подключается к подстанции напрямую, из конечной цены будет исключена стоимость транспортировки. Иметь высокое напряжение есть смысл, только если мы подключаемся напрямую к генерирующей инстанции или подстанции с высоким напряжением. А если ЦОД и подстанцию разделяет большое расстояние, необходимо будет самостоятельно проложить линию.</p> <p>По нашим наблюдениям, высокое напряжение на сегодняшний день есть либо у крупных игроков рынка, либо у тех, кому повезло купить землю с уже подключённым тарифом. Но таких участков довольно мало. Поэтому в среднем по рынку используется среднее напряжение.</p> <p>По сути, выбор между средним и высоким напряжением осуществляется практически раз и навсегда. Так, если вы приобрели участок, где изначально было лишь среднее напряжение, нет никаких гарантий, что получится в перспективе сменить этот тариф. Независимо от подведённой мощности. У энергетиков нет стимула давать ЦОДам высокое напряжение, если уже было выделено среднее. Они ведь и так получают деньги, тариф хороший. Делать льготные условия им должно быть выгодно для чего-то. Высокое напряжение подразумевает строительство новых сетей, другие мощности, трансформаторы, оборудование и кабели. То есть замена среднего напряжения на высокое потребует больших финансовых затрат.</p> <p>Как мы уже упоминали, тариф планируется еще на этапе создания бизнес-проекта и далее закладывается в бизнес-модель. Если он подобран под высокое напряжение, а к участку подведено лишь среднее, бизнес-модель автоматически неверна. Любые инвесторы выделяют финансирование только после тщательных подсчётов. С их позиции невыгодно давать деньги на подобные проекты. Сначала бизнес должен получить высокое напряжение, а потом, не под обещание, а под реальность, могут выделить финансы.</p> <p>К слову, о мощности. Согласно плану на <nobr>2022-2032 годы,</nobr> одобренному правительственной комиссией в конце декабря 2024 года, осуществляется развитие московской энергосистемы. Так, реализуются проекты строительства в столице новых энергоблоков на ТЭЦ-25 и ТЭЦ-26 общей установленной мощностью 950 МВт. Минэнерго ожидается, что запуск объектов произойдёт в конце 2027 года и в конце 2029 года соответственно.</p> <p>В связи с крупными реконструкциями в Москве и Подмосковье, завершением строительства энергоблоков на станциях и прочим создаётся энергодефицит. В этом регионе энергия есть, и её довольно много, но делиться с другими нет возможности: очень много критических и важных производств. Энергетики стараются удовлетворить потребности рынка. При этом ЦОДы — это менее 10% от общего потребления. Есть гораздо более крупные потребители (девелоперы, крупные производства).</p> <h3>Выгоднее приобретать электричество у частных поставщиков</h3> <p>Рынок электроэнергии для розничных потребителей закрытый: нет ни аукционов, ни квот для выбора ЦОДами поставщика электроэнергии. Большую его часть занимают государственные компании (гарантирующие поставщики), которые при желании или необходимости могут увеличить стоимость ресурса. При этом стоимость не регламентирована, нет постоянного тарифа. Цена непрестанно меняется на фоне общей ситуации с энергопотреблением в стране.</p> <p>Однако существуют и частники. Они стараются держать на одном уровне планку коэффициента надбавки за транспортировку для конечных потребителей. К примеру, гарантирующий поставщик начисляет по 35 копеек сверх того, что он покупает на рынке, а частный — 16. В итоге эта разница в размере 5-8-10 МВт приносит <nobr>1,2-1,3 млн.</nobr> рублей в год экономии. Пропорционально она будет расти от объема потребления. Именно поэтому многие ЦОДы переходят от гарантирующих поставщиков к частным сбытовым компаниям.</p> <p>При этом независимо от того, какого поставщика выбрал конкретный дата-центр, ЦОДы вынуждены заранее учитывать потенциальное удорожание энергии. Предугадать, каким оно будет, практически невозможно. Клиенты ЦОДов в итоге получают плавающие ставки в договоре, аргументированные законодательством РФ.</p> <h3>Строительство — в приоритете</h3> <p>Сегмент ЦОДов фактически конкурирует в борьбе за электроэнергию с другими объектами. При этом в приоритете оказываются не дата-центры, а застройка жилья. Это вполне логично, поскольку жильё подразумевает новые единицы, инфраструктуру и рабочие места. А в сфере ИТ количество рабочих мест сильно ограничено, так как максимально применяется автоматизация процессов.</p> <p>Помимо этого, важно учитывать, что точное определение ЦОДы получат лишь в марте текущего года. Благодаря внесению соответствующих изменений в закон «О связи». А что такое строительство жилья, известно и определено давно.</p> <p>Конечно, ЦОДы как конкретные объекты всё чаще появляются в информационном поле. Как раз в 2026 году должно завершиться множество проектов в рамках центров обработки данных, которые начали строиться в <nobr>2024-м.</nobr> Наблюдается также яркая тенденция заинтересованности государства в построении гиперскейлеров (крупномасштабных провайдеров облачных услуг, которые предлагают масштабируемую и гибкую инфраструктуру для облачных вычислений и обработки данных). Анонсируется строительство очень крупных и мощных ЦОДов в таких регионах как Ямал, Дальний Восток, Сибирь.</p> <p>По словам губернатора ЯНАО Дмитрия Артюхова, произнесённым на Международном арктическом форуме, «центры обработки данных любят прохладу». И в вышеупомянутых регионах как раз подходящий температурный режим.</p> <p>Однако там довольно слабо развита сеть Интернет, а покупка спутника стоит дорого. То есть для запуска крупных проектов придётся выстраивать новую инфраструктуру, заниматься усилением соседних городов и т. д. Это невозможно без помощи государства. При этом строить ЦОД, скажем так, на пустыре намного эффективнее, чем возводить очередной там, где их и так много. К примеру, в Москве.</p> <p>Эксперты отмечают новую любопытную тенденцию: некоторые компании, планирующие устанавливать генерирующие подстанции, принимают решения о самостоятельном строительстве дата-центра (либо для коммерческой реализации, либо для собственных нужд). В этом случае энергетики могут сами выбрать тариф, поскольку фактически продают электричество сами себе. Это интересная концепция идеальной диверсификации бизнеса.</p> <p>Причем реализация обратного сценария, где ЦОДы становятся поставщиками энергии, вряд ли возможна. Чтобы стать энергогенерирующей компанией, потребуется получить очень много разрешений и вложиться материально на гораздо большую сумму, чем при строительстве дата-центра. Немаловажный фактор формирования конечной стоимости проекта — это его географическое расположение. Так, в Москве земля дороже электроэнергии. И именно она, помимо инженерной системы в рамках здания, будет существенно влиять на финальную сумму как при строительстве ЦОДа, так и при реализации любого другого проекта.</p> <p> #IMAGE_234645#</p> <p> #IMAGE_234646#</p> Аналитический центр при Правительстве РФ и Минцифры в ноябре 2025 года прогнозировали рост энергопотребления … article Антон Турсунов, директор по эксплуатации центров обработки данных облачного провайдера Nubes; Олег Царёв, главный энергетик облачного провайдера Nubes Как CIO управляют бизнесом и одновременно перестраивают его в эпоху ИИ https://www.itweek.ru/themes/detail.php?ID=234643 Fri, 10 Apr 2026 10:24:04 +0300 <p><em>Для этого необходимы прочные партнерские отношения с HR-отделом, четкие указания для корпоративных архитекторов и ясность в отношении навыков, необходимых сотрудникам для сохранения своей актуальности, пишет на портале </em><em>InformationWeek</em> <em>независимый </em><em>CIO</em><em>-аналитик Майлз Суэр.</em></p> <p>В своей книге 1993 года «Управление с помощью двойных стратегий» («Managing with Dual Strategies») Дерек Абелл выдвинул смелый для своего времени аргумент: управление бизнесом и его изменение — это не последовательные действия, а процессы, которые должны происходить параллельно. Он писал, что изменение бизнеса требует четкого видения будущего и стратегии развития организации для соответствия этому будущему.</p> <p>Это сложно в эпоху искусственного интеллекта, когда нет готовых дорожных карт. И это особенно сложно для CIO, от которых теперь ожидается одновременное управление бизнесом и его изменение, но которые во многих случаях по-прежнему испытывают недостаток в глубоких деловых партнерских отношениях, необходимых для успешного выполнения обеих задач.</p> <p>Часто этот пробел начинается с HR-отдела. «ИТ — это, по сути, бизнес, основанный на людях, и без прочного партнерства с отделом кадров CIO рискуют потерпеть неудачу», — говорит Джонатан Фельдман, CIO округа Уэйк в Северной Каролине.</p> <p>В эпоху ИИ это партнерство имеет решающее значение, а не является опциональным. В качестве партнеров CIO и HR-руководители могут определять и формировать будущее работы своих компаний в тесном сотрудничестве с генеральными директорами. Риск бездействия значителен.</p> <p>Организации, которые не смогут адаптироваться, столкнутся с более высокими затратами, чем конкуренты, будут испытывать трудности с формированием необходимого кадрового резерва и им будет не хватать скорости, необходимой для конкуренции в мире, все больше управляемом ИИ.</p> <p>Ниже рассматриваются три вопроса, которые CIO должны решать параллельно, чтобы оставаться конкурентоспособными:</p> <ul> <li> Как меняется работа в разных ролях и функциях.</li> <li> Как должны развиваться системы для поддержки работы, дополненной ИИ.</li> <li> Какие навыки понадобятся работникам, чтобы оставаться востребованными.</li> </ul> <h3>Изменения на рынке труда и сдвиги в структуре рабочей силы</h3> <p><a href="https://digitaleconomy.stanford.edu/app/uploads/2025/11/CanariesintheCoalMine_Nov25.pdf">Исследование</a> Стэнфордского университета, проведенное в ноябре прошлого года доктором Эриком Бринйольфссоном на основе данных миллионов ADP-записей о заработной плате, показало, что ИИ уже вызывает сдвиги на рынке труда. Среди начинающих работников в профессиях, подверженных влиянию ИИ, наблюдается снижение занятости на 16%, в то время как занятость опытных работников пока остается стабильной. Следует отметить, что изменения в занятости сосредоточены в профессиях, где ИИ автоматизирует, а не дополняет труд.</p> <p>Безусловно, ИИ будет по-разному влиять на задачи, профессии и отрасли, заменяя работу в одних, дополняя другие и трансформируя третьи. К профессиям, уже затронутым на уровне найма, относятся разработчики ПО и представители служб поддержки клиентов. Более опытные работники не испытывают таких же изменений, несмотря на то, что они менее склонны использовать ИИ для дополнения своей работы. Инструменты генеративного ИИ, такие как модели Claude и Open AI, уже демонстрируют рост личной продуктивности.</p> <p>Вопрос, на который должны ответить CIO и их HR-партнеры, звучит так: какие бизнес-процессы и задачи внутри предприятия будут автоматизированы, дополнены или изменены? И — со временем — как будет выглядеть работа, если ее выполнение будет осуществляться агентами? В долгосрочной перспективе в мире, где все выполняют агенты, люди будут отвечать за проектирование работы, объединение схем управления (руководящих принципов, ограничений и стандартов) и управление тем, как агенты выполняют свою работу. На этом этапе, по словам основателя и главного футуролога Signal and Cipher Иэна Бикрафта, мы переходим к агентным организациям.</p> <h3>Какая работа будет автоматизирована, дополнена, перестроена?</h3> <p>Чтобы справиться с изменением структуры рабочей силы, CIO должны поручить своим корпоративным архитекторам взять их карты бизнес-возможностей и бизнес-процессов и определить, какие из них будут автоматизированы, дополнены или изменены. На практике это делает корпоративную архитектуру механизмом для перепроектирования работы. Во многих случаях это следует делать с использованием карт будущего состояния, отражающих то, как ИИ может трансформировать операционные модели и создавать новые ценностные предложения.</p> <p>Имея эти данные, CIO, совместно со своими HR-партнерами и архитекторами, обладающими навыками работы с ИИ, должны оценить профессиональные навыки, определить, какие из них можно автоматизировать или дополнить с помощью ИИ, и привести их в соответствие с должностными обязанностями.</p> <h3>Роль корпоративных архитекторов</h3> <p>Корпоративные архитекторы могут помочь, сопоставив карты бизнес-возможностей, навыков и должностных обязанностей. Следует уточнить, что корпоративные архитекторы выполняют вспомогательную роль; они не должны напрямую отвечать за персонал или перепроектирование рабочих мест.</p> <p>Вместо этого корпоративные архитекторы должны связывать воедино бизнес-возможности, процессы, системы, данные, операционную модель и управление, помогая совместно с HR и бизнесом вносить изменения в роли и навыки.</p> <p>Эти совместные усилия должны привести к двум результатам: во-первых, к выявлению высокоавтоматизированных рабочих мест; во-вторых, к определению новых классификаций должностей, которые будут объединять задачи частично автоматизированных рабочих мест или роли, которые будут управлять работой и производительностью, управляемыми агентами. Возможно, это самая важная работа, которую когда-либо выполняли корпоративные архитекторы — перестройка всего предприятия.</p> <h3>Системы должны поддерживать работу, дополненную ИИ</h3> <p>После этого следующий логичный вопрос, который следует рассмотреть, — как следует проектировать системы для лучшей поддержки дополненных ИИ рабочих мест?</p> <p>CIO, HR-директорам, корпоративным архитекторам и генеральным директорам следует рассмотреть вопрос о том, какими функциями должны обладать системы для поддержки расширенной работы — и в чем их сегодняшние недостатки.</p> <p>Это важные вопросы, на которые необходимо отвечать совместно. И снова: корпоративные архитекторы должны занять здесь центральное место.</p> <h3>Двенадцать навыков, которые, по мнению CIO, необходимы работникам для сохранения актуальности</h3> <p>Наконец, я спросил CIO о навыках, которые работники должны развивать, чтобы оставаться востребованными в будущем, управляемом ИИ. Их ответы были обобщены в 12 рекомендаций по навыкам:</p> <ol> <li><strong> Владение ИИ.</strong> Понимание того, как работают модели ИИ — как они получают, обрабатывают и проверяют данные — и в чем заключаются их ограничения.</li> <li><strong> Человеческое суждение.</strong> Применение критического мышления для оценки результатов работы ИИ, особенно когда что-то кажется неправильным или неполным.</li> <li><strong> Умение решать проблемы.</strong> Способность формулировать правильные вопросы и использовать ИИ для ускорения принятия более качественных и обоснованных решений.</li> <li><strong> Этическая ответственность и осведомленность об опасностях ИИ. </strong>Понимание ответственного использования ИИ с учетом предвзятости, рисков, подотчетности и управления.</li> <li><strong> Адаптивность.</strong> Способность постоянно адаптироваться к быстро развивающимся инструментам, рабочим процессам и ожиданиям бизнеса.</li> <li><strong> Ориентация на непрерывное обучение.</strong> Приверженность постоянному развитию навыков по мере того, как ИИ меняет роли и требуемые возможности.</li> <li><strong> Деловая хватка.</strong> Понимание основных бизнес-целей, процессов и факторов, определяющих ценность, для обеспечения того, чтобы ИИ приносил значимые результаты.</li> <li><strong> Процессное и системное мышление.</strong> Способность переосмысливать рабочие процессы от начала до конца — переходя от разрозненных задач к интегрированным результатам на основе ИИ.</li> <li><strong> Креативность и инновации.</strong> Выявление новых наборов данных, сценариев использования и способов, которыми ИИ может раскрыть ценность, а не просто оптимизировать существующую работу.</li> <li><strong> Коммуникативные навыки и навыки перевода.</strong> Соединение технического и делового миров путем объяснения концепций ИИ в ясных, практически применимых терминах.</li> <li><strong> Межфункциональное сотрудничество.</strong> Эффективная работа с ИТ-, HR- и бизнес-подразделениями по мере внедрения ИИ во все функции.</li> <li><strong> Ориентация на результат.</strong> Сосредоточение на создании систем, которые обеспечивают предиктивные инсайты и измеримое влияние на бизнес.</li> </ol> <p>Это внушительный список. Очевидно, что степень владения навыками и системного мышления будет разной для ИТ-специалистов и бизнес-работников. Но все работники должны в той или иной степени разбираться в ИИ.</p> <h3>Что CIO не могут позволить себе делать неправильно</h3> <p>В этой статье утверждается, что сейчас CIO должны активизироваться и тесно сотрудничать со всеми подразделениями организации. В ней также подчеркивается важная возможность для корпоративных архитекторов помочь определить дальнейший путь. Для реализации этой возможности потребуются дисциплина и тесное сотрудничество. Успех будет зависеть от формирования правильного сочетания навыков. Победители в эпоху ИИ будут определяться не только глубиной технических навыков, но и их способностью сочетать человеческие возможности — рассудительность, креативность, этику — с ИИ как партнером для достижения бизнес-результатов.</p> Для этого необходимы прочные партнерские отношения с HR-отделом, четкие указания для корпоративных архитекторов … article Web3 Tech: агентная экономика меняет логику финтеха — интерфейс уступает место ИИ-взаимодействию https://www.itweek.ru/themes/detail.php?ID=234641 Thu, 09 Apr 2026 16:11:22 +0300 <p>На фоне экспериментов международных финтех-компаний с допуском ИИ-агентов к финансовым сервисам, на рынке начинает формироваться новая модель взаимодействия пользователя с цифровыми продуктами. В числе показательных кейсов — развитие подобных решений у Paypal и Revolut, тестирующих сценарии прямого взаимодействия агентов с торговыми и платежными инструментами без прямого управления пользователем через традиционный интерфейс.</p> <p>Как отметил директор по маркетингу Web3 Tech Матвей Войтов, такие подходы отражают системный сдвиг в пользовательском опыте: часть задач, ранее требовавших ручной работы с интерфейсом, может передаваться ИИ-агенту, которому пользователь формулирует цель на естественном языке.</p> <p>«Фактически появляется новый уровень взаимодействия: клиент ставит задачу агенту — например, по доходности или стратегии, а дальше агент взаимодействует с биржей, исполняет операции и управляет процессом в рамках заданных условий. Это снижает порог входа и сокращает время на выполнение операций», — прокомментировал эксперт.</p> <p>В рамках собственных тестов разработчик корпоративных блокчейн-решений и провайдер web3-сервисов Web3 Tech пришел к выводам, что появление агентной прослойки меняет саму роль интерфейса как основного канала взаимодействия. Пользователь возвращается в систему скорее для контроля, чем для непосредственного управления процессами. При этом ключевые параметры задаются человеком, а уровень автономности ограничивается требованиями безопасности и допустимым уровнем риска. Отдельное внимание уделяется корректности интерпретации задач, контролю действий ИИ и разграничению прав в зависимости от подготовки пользователя.</p> <p>Параллельно развивается инфраструктурный слой. В 2025 году усилился тренд на создание специализированных L1-блокчейнов, ориентированных на платежные сценарии и работу со стейблкоинами. Крупные участники рынка, включая таких эмитентов стейблкоинов, как Circle и Tether, начали развивать собственные сети, оптимизированные под скорость, стоимость транзакций и прикладные сценарии расчетов. И вместе с этим стандартизируются агентные платежные протоколы — такие стандарты как Google AP2 и X402 позволяют ИИ-агентам совершать мгновенные микроплатежи и оплачивать цифровые услуги напрямую, без участия человека и традиционных платежных форм.</p> <p>Эти технологии, вышедшие на уровень рыночной зрелости буквально за последний год, связаны с огромным потенциалом агентной экономики. В рамках данной концепции значительная часть экономических транзакций может выполняться автоматически, без прямого участия пользователей. В такой среде критически важны не только новые пользовательские способы взаимодействия с финансовыми платформами, но и инфраструктура, способная обеспечивать мгновенные и безопасные транзакции. </p> <p>«Мы видим, как стремительно формируется технологическая база для перехода к агентной экономике. Это касается не только трейдинга, но и платежей, merchant-сервисов и работы с цифровыми активами. Но говорить о сроках и масштабах полноценного внедрения подобных моделей пока преждевременно: их развитие будет зависеть от регуляторной среды, безопасности и отказоустойчивости инфраструктуры и готовности пользователей к делегированию операций ИИ-системам», — отметил Матвей Войтов.</p> На фоне экспериментов международных финтех-компаний с допуском ИИ-агентов к финансовым сервисам, на рынке … message Axenix вывела на рынок платформу для создания ИИ-агентов Numira 2.0 https://www.itweek.ru/themes/detail.php?ID=234640 Thu, 09 Apr 2026 16:09:45 +0300 <p>Компания Axenix представила усовершенствованную платформу для создания и эксплуатации интеллектуальных ассистентов на базе технологий генеративного ИИ — Numira 2.0. Комплексное решение позволяет предприятиям разрабатывать ИИ-агентов из готовых компонентов и запускать их в промышленную эксплуатацию, повышая эффективность бизнеса.</p> <p>Numira 2.0 представляет собой обновленную платформу для работы с ГенИИ, первая версия которой была представлена Axenix в 2025 году. Она позволяла компаниям легко создавать ИИ-ассистентов для автоматизации прикладных задач: например, протоколирования встреч, анализа клиентских отзывов, обработки регламентов и др.</p> <p>Усовершенствованная версия решения, представленная 9 апреля 2026 года на конференции Data Fusion, содержит большое количество доработок в части архитектуры, инструментария, интеграционных возможностей и интерфейса. В ней значительно расширены функциональность и сценарии применения инструментов на основе ИИ. </p> <p>Отдельный акцент — на доступности: любой бизнес сможет легко создавать и внедрять ИИ-агентов (автономные системы анализа данных и принятия решений) без сложных настроек и глубоких технических знаний.</p> <p>Numira 2.0 является частью более широкой практики Axenix по внедрению решений на базе искусственного интеллекта. Axenix сочетает технологическую экспертизу с опытом цифровой трансформации, отраслевыми знаниями и пониманием бизнес-функций, что позволяет не только запускать ИИ-сценарии, но и адаптировать их к реальным процессам заказчика.</p> <p>Платформа обеспечивает быстрый старт прикладных сценариев и их последующее масштабирование, а открытая архитектура позволяет использовать ее как самостоятельно, так и в сочетании с решениями других вендоров. Такой подход дает заказчикам возможность рационально формировать целевой ИИ-ландшафт, снижать риски внедрения и выбирать оптимальную комбинацию технологий под конкретные бизнес-задачи.</p> <p>Numira 2.0 позволяет создавать ИИ-агентов для разнообразных бизнес-сценариев, реализовывать их интеграции, формировать единую базу знаний, а также переиспользовать наработки для решения новых задач автоматизации. Взаимодействие конечных пользователей с ИИ происходит через окно чата. Достаточно сформулировать в нем запрос, а помощник предоставит нужные пользователю данные или выполнит требуемые от него действия. </p> <p>Например, ИИ-агент может самостоятельно подготовить коммерческое предложение. Для этого он ознакомится с техническим заданием и необходимой внутренней документацией компании, а затем сопоставит эти данные с рыночной информацией, которая есть во внешних источниках. На основе всех собранных данных он сгенерирует оформленное нужным образом коммерческое предложение. А затем, при необходимости, составит к нему сопроводительные письма для контрагентов и проведет рассылку. </p> <p>Платформа позволяет сформировать многослойную структуру ИИ-агента с акцентом на его поведенческой парадигме (подход behaviour-first). Ядро такого агента — это ИИ-модель, отвечающая за рассуждения и генерацию. Поведение агента определяет набор инструкций, которые прописывают, как он должен действовать для достижения результата. Слой подключений расширяет его навыки и инструментарий. Еще один важный слой — правила этики и безопасности, которые определяют границы допустимого поведения агента и защищают бизнес от рисков. </p> <p>Ключевые компоненты, которые реализованы в новой версии платформы: среда для создания ИИ-агентов; API для программной работы с агентами их внешних систем и сценариев; средства подключения собственных <nobr>LLM-моделей,</nobr> а также приложений и интеграций через протокол MCP; библиотека агентов, баз знаний, приложений, промптов и моделей; оркестратор для выполнения комплексных инструкций и работы с несколькими инструментами. </p> <p>Numira 2.0 можно развернуть по модели on-premise в изолированном контуре заказчика. При этом остается возможность интегрировать платформу с различными внешними ИИ-сервисами и источниками данных. Для этого предусмотрены контроль доступа и настройка ограничений.</p> <p>«Один из наиболее заметных мировых трендов в области ИИ — это использование ИИ-агентов, способных самостоятельно выполнять сложные цепочки действий. С помощью Numira 2.0 компания может легко создать своего агента для той или иной цели или выбрать в библиотеке нужное решение и донастроить его под свои бизнес-процессы. Мы идем дальше: развиваем интеграционные возможности ИИ-агентов для работы с учетными системами, такими как 1С и SAP», — прокомментировал Александр Стрельников, руководитель направления GenAI Axenix.</p> <p>«Numira 2.0 — ответ на растущую потребность бизнеса в прикладном использовании ИИ. Платформа помогает компаниям повысить эффективность: вместе с ней заказчики получают доступ к экспертизе Axenix в области цифровой трансформации — от медицины до металлургии. Наша команда не просто предлагает решение, а помогает внедрить его и адаптировать под реальные процессы бизнеса», — рассказал Алексей Сергеев, руководитель практики «Машинное обучение и искусственный интеллект» Axenix.</p> <p>«Мы не ограничиваем заказчиков рамками одной платформы. Numira 2.0 используется как часть более широкого подхода: под каждую задачу выстраиваем решение, сочетая собственные технологии, существующие системы и лучшие решения рынка. Это позволяет внедрять ИИ в реальные процессы компании и развивать его дальше без привязки к одному продукту или поставщику», — добавил он.</p> <p>Благодаря широкой функциональности и низкому порогу входа, платформа Numira 2.0 будет востребована как среди заказчиков сегмента Enterprise, так и у компаний Middle+ и выше. Axenix уже реализует ряд внедрений платформы: в частности, запущен совместный проект с одним из крупнейших агрохолдингов страны. </p> Компания Axenix представила усовершенствованную платформу для создания и эксплуатации интеллектуальных ассистентов … message M1Cloud: забытые ресурсы в облаке https://www.itweek.ru/themes/detail.php?ID=234639 Thu, 09 Apr 2026 16:07:29 +0300 <p>Забытые виртуальные машины, диски, балансировщики, статичные IP-адреса и вспомогательные сервисы, которые давно утратили свою функциональную нагрузку, однако продолжают потреблять вычислительные мощности и расходовать бюджет. Они появляются стихийно, например, после завершения пилотных проектов, при ротации кадров, миграциях между регионами или из-за отсутствия четких процедур. Владимир Лебедев, директор по развитию бизнеса сервис-провайдера M1Cloud, рассказал, что для ИТ-специалистов это не просто технический долг, а скрытая угроза, так как неиспользуемые инстансы часто содержат устаревшие учетные данные, не получают критических патчей безопасности и искажают метрики мониторинга, создавая иллюзию нормальной нагрузки там, где ее объективно нет.</p> <p>Финансовые потери от облачной «пустоты» редко фиксируются в явном виде в отчетах, однако их совокупный эффект критичен для маржинальности и скорости инноваций. По данным Flexera State of the Cloud Report 2025, с ростом затрат все острее ощущается проблема перерасхода — в среднем он составляет 17%, а до 27% трат признаются неэффективными. Такой бюджет мог бы быть направлен на развитие продуктов или оптимизацию бизнес-процессов. Проблема усугубляется архитектурной сложностью: без единого плана учета в мультиоблачных средах ресурсы дублируются, генерируя скрытые издержки на хранение и передачу данных.</p> <p>Эффективный поиск забытых виртуальных машин начинается не с массового удаления, а с системной инвентаризации. Ручные проверки в средах на сотни инстансов довольно сложны. Рекомендуется проводить автоматизированный сбор метрик через инструменты провайдеров. Критерии выявления должны быть формализованы: средняя загрузка CPU менее 5% за 30 дней, нулевой входящий/исходящий трафик, отсутствие подключенных томов, отключенные планировщики задач и другие.</p> <p>Также важно на начальном этапе настройки виртуальных машин использовать тегирование. Теги превращают анонимную инфраструктуру в управляемый портфель.</p> <p>Обнаружение ресурса не дает права на мгновенное удаление. Профессиональная практика предполагает поэтапный цикл нейтрализации. Первый этап — уведомление владельца. Второй — снижение конфигурации или перевод в режим остановки с обязательным сохранением снапшотов. Третий — перенос в изолированный сегмент внутри облачной платформы или отдельную подписку с полностью отключенным публичным доступом и сетевыми правилами, блокирующими входящие соединения. Финальный шаг — полное удаление после истечения гарантийного периода. Сквозной аудит каждого действия и исключает случайное удаление критичных, но плохо промаркированных систем.</p> <p>По данным Flexera, 59% мировых компаний уже создали FinOps-команды для управления затратами в облаке, и лишь 14% не планируют их внедрение. По данным M1Cloud, организации с зрелой культурой управления затратами сокращают потери на неиспользуемые ресурсы в среднем на треть. Помимо прямой экономии бюджета, по мнению ИБ-экспертов, значительная доля инцидентов утечки данных в облаке может быть связана с заброшенными ресурсами, не попадающими под политики централизованного мониторинга. Гигиена облака должна стать частью ИТ-менталитета: задача считается выполненной только после описания стратегии масштабирования, назначения владельца и планирования даты утилизации тестовых сред.</p> <p>Забытые ресурсы — это не технический сбой, а индикатор зрелости ИТ-процессов. В эпоху жесткой оптимизации ИТ-бюджетов и растущих требований к кибербезопасности, чистое облако перестает быть конкурентным преимуществом — оно становится базовым стандартом операционной устойчивости. Компании, которые систематизируют управление жизненным циклом облачных активов, превращают инфраструктуру в предсказуемый драйвер эффективности.</p> Забытые виртуальные машины, диски, балансировщики, статичные IP-адреса и вспомогательные сервисы, которые давно утратили … message Cloud.ru запустил ИИ-инструмент для автоматизации бизнес‑процессов AI Workflows https://www.itweek.ru/themes/detail.php?ID=234638 Thu, 09 Apr 2026 16:06:30 +0300 <p>Cloud.ru на конференции GoCloud 2026 объявил о запуске нового сервиса AI Workflows, который позволяет создавать и автоматизировать рабочие процессы бизнеса через графический интерфейс. Low‑code инструмент с ИИ помогает оптимизировать ресурсы, экономить средства, а также повышает доступность применения инструмента для сотрудников без навыков программирования.</p> <p>AI Workflows имеет аналогичный n8n функционал и работает по принципу конструктора, позволяя создавать цепочку связанных шагов, которые система будет выполнять по порядку. Например, она может извлечь данные из 1С, затем обработать их с помощью ИИ, а после передать их в Jira или чат в мессенджере. Сейчас AI Workflows находится на стадии публичного тестирования.</p> <p>AI Workflows — часть цифровой среды AI Factory, которая объединяет инструменты Cloud.ru для создания собственных ИИ-решений и их внедрения в бизнес-процессы и продукты. В данный момент инструмент AI Workflows интегрирован с сервисами Evolution Foundation Models и Evolution ML Inference для работы с большими языковыми моделями, сервисом для создания и запуска работающих автономно ИИ-агентов Evolution AI Agents, а также сервисом для обогащения языковой модели собственными данными — Evolution Managed RAG. </p> <p>Помимо сервисов Cloud.ru, на каждом из шагов пользователь может подключать к AI Workflows десятки популярных корпоративных систем: Jira, 1С, Confluence, PostgreSQL, почтовые клиенты, мессенджеры, а также внутренние сервисы с API. С помощью AI Workflows можно автоматизировать десятки разных бизнес-сценариев. Например, торговые сети могут использовать AI Workflows для организации процесса покупки — от проверки наличия товаров на складе до обработки платежей и доставки товара.</p> <p>«Мы видим, каким популярным стал инструмент n8n. Для автоматизации не всегда нужны ИИ-агенты с сложными механизмами рассуждений, зачастую требуется только взять данные и попросить LLM выполнить детерминированные шаги. Наша задача — демократизировать использование ИИ-сервисов. AI Workflows позволяет проектировать сложные бизнес-процессы без необходимости писать код: настроить мониторинг серверов, выстроить алгоритмы реагирования на инциденты, ускорить процессы обработки данных», — сказал руководитель продукта AI Factory Артемий Мазаев.</p> Cloud.ru на конференции GoCloud 2026 объявил о запуске нового сервиса AI Workflows, который позволяет создавать … message Автоматизация в MAX за 1 неделю: как BSS помогает госсектору и бизнесу улучшить сервис https://www.itweek.ru/themes/detail.php?ID=234637 Thu, 09 Apr 2026 16:02:24 +0300 <p>Решение BSS позволяет быстро автоматизировать обслуживание граждан в MAX с помощью единого окна для оператора, чат-бота с готовыми сценариями, речевой аналитики, AI-портала, и инструмента проактивного информирования. Технология уже готова к развертыванию в контуре заказчика без необходимости интеграции разрозненных систем.</p> <p>Мессенджеры стали важнейшим каналом общения между гражданами и организациями, и эту роль все чаще берет на себя MAX. BSS — аккредитованный партнер платформы — помогает быстро запустить обслуживание в этом канале. </p> <p>Для этого BSS предлагает готовую экосистему: чат с оператором, чат-бот, речевую аналитику, AI-портал и инструменты для исходящих коммуникаций.</p> <p>Благодаря опыту работы с ведомствами в более 50 регионах РФ — Социальный фонд России, МФЦ, Министерство здравоохранения, Федеральное казначейство — BSS знает специфику задач госсектора и повышенные требования к надежности. Решение поддерживает авторизацию через ЕСИА и разворачивается в контуре заказчика с соблюдением высоких стандартов ИБ.</p> <p>Чат с оператором работает как окно общения через MAX, которое соединяется с другими каналами: сайтом, мобильным приложением и т.д. Так оператор видит полную историю взаимодействия с клиентом и может точнее решить запрос. Заявки автоматически распределяются между специалистами с учетом их загрузки и темы.</p> <p>Интеллектуальный чат-бот уже включает готовые сценарии — запись к врачу, получение справок, консультации МФЦ — и его можно легко адаптировать под задачи учреждения, оставив нужные и добавив новые сценарии. Он помогает гражданам получать услуги без ожидания оператора, но при необходимости быстро переводит диалог на специалиста.</p> <p>Речевая аналитика поможет проанализировать 100% коммуникаций и с помощью AI-модуля быстро выявить частые причины обращений, проблемные места, ошибки операторов и любую другую информацию для улучшения качества обслуживания. </p> <p>AI-портал — это умная база знаний, которая поможет операторам мгновенно найти любые инструкции и регламенты, а также будет давать подсказки по ходу диалога с клиентом.</p> <p>Модуль исходящих коммуникаций — инструмент проактивного информирования граждан: он автоматически отправляет напоминания и уведомления о записи на прием, оплате услуг, изменениях в законодательстве и других важных событиях.</p> <p>Таким образом, экосистема BSS закрывает весь цикл взаимодействия с гражданами: пользователи могут быстро решать свои вопросы в удобном канале, а ведомства — эффективно управлять нагрузкой на контакт-центры. Решение готово к развертыванию и не требует интеграции разрозненных модулей, поэтому запуск пилота и базовых сценариев займет от 1 недели. Технология уже успешно работает в ряде регионов РФ. </p> <p>О том, почему эта технология не только удобна прямо сейчас, но еще и обладает большим заделом на будущее рассказал директор департамента голосовых цифровых технологий компании BSS Александр Крушинский: «В платформу встроен конструктор для создания агентов на больших языковых моделях. Вы можете выйти за рамки простого скриптового бота и внедрить интеллектуального ассистента. Кроме того, платформа поддерживает и текстовые, и голосовые сценарии. Начав с мессенджера, вы сможете легко масштабировать автоматизацию на голосового робота в единой среде. Таким образом, решение поможет заложить фундамент для цифровой трансформации на годы вперед».</p> Решение BSS позволяет быстро автоматизировать обслуживание граждан в MAX с помощью единого окна для оператора, чат-бота … message Как бизнес выбирает сервис-провайдера в 2026 году https://www.itweek.ru/themes/detail.php?ID=234635 Thu, 09 Apr 2026 10:28:59 +0300 <p>Облачные сервисы прочно вошли в жизнь бизнеса более 10 лет назад. Однако долгое время компании оценивали перспективы использования услуг cloud-провайдеров исключительно через призму экономии. Сегодня характер взаимоотношений между ними претерпел серьезные изменения. Теперь сервис-провайдер — это не просто поставщик недорогих ресурсов для снижения затрат на ИТ-инфраструктуру, а партнер, с которым можно разделить ответственность за безопасность данных, соблюдение требований законодательства и устойчивость бизнеса. В таких условиях кардинально меняются критерии выбора, а концепция универсального партнера уходит в прошлое. Как именно трансформируются запросы и кого ищет бизнес — разбираемся в этой статье.</p> <h3>Эволюция критериев</h3> <p>Еще <nobr>5-7</nobr> лет назад компании рассматривали облака как некие коммунальные услуги, а провайдеров — просто как их источник. Чтобы понять, как именно поставщики позиционировали свои решения, достаточно взглянуть на маркетинговые материалы того времени. Как правило, на первый план выходили такие факторы, как стоимость самих ресурсов, гарантия аптайма и «девятки» в SLA, наличие ЦОДов в Москве и Санкт-Петербурге. Кроме того, нередко облачные сервисы позиционировались для клиентов как возможность сэкономить на владении инфраструктурой через замену капитальных расходов операционными.</p> <p>Сегодня критерии выбора сервис-провайдера кардинальным образом трансформировались — ниже рассмотрим наиболее яркие изменения.</p> <p>Крайне высокий приоритет получили вопросы безопасности данных и соответствия требованиям регуляторов, в частности, ФСТЭК, ФСБ и Роскомнадзора. Если ранее заказчик воспринимал облако как возможность быстро получить нужный объем ресурсов, то теперь это еще и непосредственный инструмент управления рисками компании, в том числе регуляторными.</p> <p>В этом ключе еще одним важным критерием стало наличие у провайдера продвинутых сервисов кибербезопасности и профильной экспертизы в защите ИТ-инфраструктуры от киберугроз. Интенсивность кибератак на российские предприятия остается на довольно высоком уровне, а сами атаки <a href="https://iz.ru/2005200/dmitrii-bulgakov/itogi-koda-kak-izmenilis-kiberataki-v-rossii-za-2025-god?ysclid=mlqpy019xa648546140">приобретают</a> все более деструктивный характер. Очевидно, что в таких условиях предприятия будут все чаще обращаться за защитой к провайдеру — из-за наличия специализированных сервисов и ИБ-компетенций. Теперь для заказчика он не только поставщик облачных мощностей, но и партнер, с которым можно разделить ответственность за обеспечение непрерывности бизнеса. Даже если компания не планирует на старте подключать необходимые сервисы кибербезопасности, сама возможность оперативно их внедрить становится весомым аргументом при выборе поставщика услуг.</p> <p>Кроме того, клиенты сервис-провайдеров стали обращать более пристальное внимание на доступность отечественных технологий. В этом ключе довольно показательны рейтинги от аналитиков рынка. Как правило, подобные материалы отражают не столько внутренние амбиции провайдеров, сколько критерии, по которым их оценивает бизнес. Если пять лет назад аналитики смотрели на общее количество доступных гипервизоров, то в рейтингах последних лет в число важных критериев вошло <a href="https://www.cnews.ru/reviews/rejting_provajderov_iaas_enterprise_2025/review_table/2ea0bce54bdc5e36f7ba959308088831be7fb73a">наличие реестровых ОС и гипервизоров</a>. При этом внедрение отечественных решений все реже носит формальный характер и все чаще становится ответом на реальные запросы со стороны клиентов. Это подтверждает и наш опыт — как правило, провайдеру нужно не просто решение задачи импортозамещения, а внедрение реально работающей экосистемы, которая станет фундаментом развития их портфеля услуг.</p> <p>Параллельно с этим, по данным аналитиков, в России <a href="https://www.comnews.ru/content/243677/2026-02-06/2026-w06/1008/spros-biznesa-gpu-cherez-oblako-mozhet-vyrasti-do-50-2026-g?ysclid=mlqti4qjh5764236608">растет</a> спрос на специализированные вычислительные ресурсы и сервисы GPU-as-a-Service — в первую очередь, для обработки задач генеративного ИИ, машинного обучения и работы с большими данными. Именно поэтому для ряда заказчиков важным критерием становится не просто наличие высокопроизводительных ресурсов, а доступ к специфическим сервисам. Несмотря на то, что этот вопрос сегодня актуален не для всех, все чаще провайдеры оцениваются потенциальными клиентами не по широте портфеля услуг, а по возможности закрыть конкретные технологические потребности.</p> <h3>Сегментация запросов</h3> <p>Безусловно, эти критерии довольно редко используются бизнесом «в чистом виде». На практике чек-лист выбора сервис-провайдера будет определяться спецификой отрасли конкретной компании — предприятие из сферы финансов, ритейлер, digital-стартап или частная медицинская организация расставят приоритеты по-разному. Универсального поставщика услуг, которой смог бы одинаково хорошо удовлетворить запросы компаний, отличающихся по области деятельности и масштабу, не существует.</p> <p>Финансовый и государственный сектор, запросы к инфраструктуре которых обусловлены ужесточающимися с каждым годом рамками регуляторов, формируют спрос на сервисы с высоким уровнем безопасности данных, например, частные облака с возможностью аттестации. В то же время технологический стартап, с высокой долей вероятности, будет выбирать провайдера, исходя из возможностей оптимизировать расходы, оперативно масштабировать ресурсы и наличия у того специализированных сервисов — например, GPUaaS. Ритейл и промышленность, часто вынужденные строить гибридные инфраструктуры, при выборе провайдера обратят внимание на его компетенции в ключе ИТ-аутсорсинга и консалтинга.</p> <p>Проще говоря, несмотря на существенную трансформацию требований к сервис-провайдеру в целом, критерии выбора со стороны конкретного бизнеса будут определяться спецификой его деятельности, профилем риска и вектором развития. Банк будет стараться минимизировать регуляторные издержки, ритейл — повысить уровень гибкости и снизить простои, небольшой стартап — оптимизировать расходы при сохранении возможности быстрого масштабирования и доступа к специализированным ресурсам.</p> <p>Наблюдаемая нами сегодня трансформация подхода к выбору сервис-провайдера — маркер растущей зрелости рынка. На первый план выходят не финансовые условия и экономическая составляющая, а возможность найти ИТ-партнера по управлению рисками и решить с его помощью конкретные бизнес-задачи. А рынок, в свою очередь, отвечает на эти структурные изменения не унификацией, а специализацией — провайдеры не только формируют предложения под специфические запросы отраслей, но и активно наращивают технологические компетенции.</p> <p>Выбор провайдера становится стратегическим решением, которое будет определять уровень устойчивости ИТ-инфраструктуры компании и возможность безболезненно пережить грядущие изменения — будь то новые требования регуляторов, технологический сдвиг или рыночная турбулентность.</p> <p> #IMAGE_234636#</p> Облачные сервисы прочно вошли в жизнь бизнеса более 10 лет назад. Однако долгое время компании оценивали перспективы … article Павел Гуральник, генеральный директор ISPsystem Плато продуктивности: почему повышение эффективности больше не является конкурентным преимуществом https://www.itweek.ru/themes/detail.php?ID=234634 Thu, 09 Apr 2026 10:11:25 +0300 <p>Как пишут в корпоративном блоге аналитики IDC, искусственный интеллект уже обеспечил измеримые операционные улучшения в различных отраслях. Рабочие процессы автоматизированы. Процессы ускорены. Команды повысили эффективность и снизили затраты. </p> <p>Раннее внедрение ИИ было ориентировано на производительность, поскольку руководителям требовались четкие, измеримые результаты. Эти ранние результаты были важны. Контакт-центры сократили время обработки звонков. В операциях бэк-офиса были автоматизировали рутинные задачи. Команды продаж и маркетинга повысили пропускную способность. ИИ доказал, что может повысить производительность в различных бизнес-функциях.</p> <p>Однако преимущества в производительности быстро рассеиваются.</p> <p>То, что создает конкурентное преимущество в одном квартале, часто становится стандартной возможностью в следующем. Улучшения производительности, накладываемые на существующие операционные модели, в конечном итоге достигают насыщения. Организации обнаруживают, что оптимизируют процессы, которые конкуренты могут легко скопировать.</p> <p>В результате многие руководители начинают понимать, что наступает плато продуктивности.</p> <h3>Почему продуктивность достигает плато</h3> <p>Стратегии, ориентированные на производительность, сдерживают развитие организаций тремя способами:</p> <ul> <li><strong>Они укрепляют межфункциональные барьеры.</strong> Когда ИИ внедряется в функции одну за другой, каждая команда сосредотачивается на оптимизации своих собственных целей. Маркетинг автоматизирует кампании, финансы улучшают циклы отчетности, а сервисные команды сокращают время реагирования. Достижения достигаются изолированно, что не способствует созданию ценности в масштабах всего предприятия.</li> <li><strong>Они закрепляют существующие предположения. </strong>Оптимизация укрепляет существующие рабочие процессы и показатели. По мере развития рынков организации, которые вкладывают значительные средства в совершенствование устаревших моделей, часто оказываются ограниченными теми самыми системами, которые они улучшали.</li> <li><strong>Они обеспечивают линейный рост. </strong>Повышение эффективности неизбежно достигает плато. ИИ становится слоем улучшений, а не двигателем роста.</li> </ul> <p>Ограничение заключается не в самой технологии. Возможности ИИ продолжают быстро развиваться. Ограничение заключается в операционной структуре.</p> <p>Когда ИИ накладывается на устаревшие структуры без переосмысления способов создания ценности, результаты остаются постепенными.</p> <h3>Пределы эффективности как стратегии</h3> <p>На ранних этапах внедрения ИИ, естественно, основное внимание уделялось наиболее немедленным и измеримым результатам. Автоматизация снижала затраты и ускоряла выполнение. Эти результаты помогли организациям оправдать инвестиции и укрепить уверенность в технологии.</p> <p>Однако со временем эффективность становится обязательным условием.</p> <p>Конкуренты внедряют аналогичную автоматизацию. Поставщики интегрируют сопоставимые возможности в стандартные платформы. То, что когда-то обеспечивало дифференциацию, становится базовым ожиданием.</p> <p>Тогда организации сталкиваются со стратегическим выбором.</p> <p>Они могут продолжать оптимизировать существующие модели — получая меньшие, постепенные выгоды — или начать перепроектировать системы, определяющие, как создается ценность.</p> <p>Этот переход знаменует собой сдвиг от производительности к инновациям.</p> <h3>Инновации как структурная выгода от агентного ИИ</h3> <p>Инновации происходят, когда ИИ перестраивает структуру предприятия, а не просто ускоряет выполнение задач.</p> <p>Агентные системы обеспечивают скоординированное принятие решений в рамках маркетинга, цепочки поставок, финансов, обслуживания и партнерских экосистем. Системы переходят от изолированной автоматизации к оркестрации, встроенной в операционные модели предприятия.</p> <p>Этот сдвиг меняет то, как организации получают ценность.</p> <p>Когда агенты работают автономно в масштабе, предположения о ресурсах, стоимости и результатах меняются. Бизнес-кейсы, разработанные для линейного улучшения, не учитывают накопительную ценность, создаваемую при координации систем в рамках портфелей и экосистем.</p> <p>Инновации, выходящие за рамки повышения производительности, требуют от организаций переосмысления экономической логики, моделей управления и даже отраслевых границ.</p> <h3>Преодоление плато продуктивности</h3> <p>Организации, которые по-прежнему сосредоточены исключительно на эффективности, рискуют превратиться в высокооптимизированные версии вчерашней операционной модели.</p> <p>Те, кто выходит за рамки повышения производительности, начинают перестраивать корпоративные системы, ориентируясь на координацию, адаптивность и рост.</p> <p>Переход от производительности к инновациям не отменяет важности эффективности. Он уточняет ее пределы.</p> <p>Эффективность повышает производительность.</p> <p>Инновации меняют конкурентные преимущества.</p> <p>В агентную эпоху руководители лидеры, понимающие эту разницу, смогут подготовить свои организации к освоению следующей волны ценности, создаваемой ИИ.</p> Как пишут в корпоративном блоге аналитики IDC, искусственный интеллект уже обеспечил измеримые операционные улучшения … article UserGate и Nubes запустили облачный сервис для защиты веб‑приложений https://www.itweek.ru/themes/detail.php?ID=234631 Wed, 08 Apr 2026 13:22:25 +0300 <p>UserGate, российский разработчик решений в области информационной безопасности и архитектор сетевого доверия, и компания Nubes, провайдер безопасных облачных сервисов для бизнеса, объявили о начале предоставления услуги Nubes Cloud WAF на базе межсетевого экрана для защиты веб‑приложений UserGate WAF (uWAF).</p> <p>Услуга Nubes Cloud WAF нацелена на представителей малого и среднего бизнеса, которые стремятся обеспечить защиту своих веб‑ресурсов и при этом избежать инвестиций в приобретение ПО и оборудования, а также сократить совокупную стоимость владения решением. Новая услуга будет актуальна и для крупных компаний, которые стремятся развернуть дополнительные сервисы безопасности. Таким клиентам Nubes и UserGate предлагают комплексный облачный сервис на базе импортонезависимого сертифицированного решения uWAF, который позволит избежать капитальных затрат, связанных с приобретением ПО, выделением необходимых серверов и администрированием. При этом срок внедрения решения сократится с нескольких недель до нескольких часов. В свое распоряжение клиенты получат всегда актуальную версию uWAF, обеспеченную вычислительными мощностями с быстрым масштабированием и поддержкой облачного провайдера.</p> <p>«Для многих клиентов серьезным препятствием становится высокая стоимость владения WAF. Это проблема не только заказчиков, но и наша проблема как вендора. Поэтому мы стремились предложить рынку uWAF не только в виртуальной версии или в составе аппаратной платформы, но и как облачное SaaS‑решение. Первым провайдером, который будет предлагать услуги „WAF как сервис“ на базе uWAF, станет компания Nubes. Мы активно взаимодействовали с партнерами в течение последних месяцев, специалисты провайдера тестировали uWAF, сформировали целый пакет предложений, который касался и функциональности продукта, и особенностей его использования в качестве услуги. Сотрудничество с Nubes позволит нам не только обеспечить потребности клиентов, которые стремятся защитить свои веб‑приложения, но и послужит драйвером новой модели потребления uWAF», — отметил менеджер по развитию UserGate WAF Виталий Абрамович.</p> <p>По данным компании Nubes, веб‑сайт условного интернет‑магазина сканируется ботами на наличие уязвимостей каждые <nobr>3–5 минут.</nobr> Специалисты провайдера выяснили, что за последний год число атак на ресурсы заказчиков возросло на 65%. И если компания не использует для защиты своих веб‑приложений современные решения, утечка данных неизбежна. При этом, помимо компрометации данных, заказчик столкнется с такими последствиями, как штрафы со стороны регуляторов и репутационный ущерб. В этой связи компании-заказчику необходимы инвестиций в WAF‑решение, а также найм как минимум двух специалистов для его обслуживания. Использование WAF в качестве услуги в данном случае становится простым, действенным и экономичным способом обеспечения защиты своих веб‑приложений.</p> <p>«Нашим клиентам стала доступна услуга, в основе которой лежит решение ведущего российского вендора средств сетевой безопасности. Она доступна всем заинтересованным заказчикам уже сегодня — всего через несколько часов они смогут начать использование эффективного инструмента защиты веб‑приложений, оплачивая его по модели OPEX (операционные расходы). Nubes Cloud WAF легко масштабируется в соответствии с текущими потребностями компании, услуга обеспечена поддержкой наших специалистов и экспертизой UserGate, а его присутствие в реестре российского ПО гарантирует, что безопасность веб‑приложений не будет зависеть от односторонних решений иностранных вендоров», — подчеркнул руководитель команды киберзащиты в облачном провайдере Nubes Дмитрий Шкуропат.</p> UserGate, российский разработчик решений в области информационной безопасности и архитектор сетевого доверия … message Новая корпоративная машина баз данных от «Тантор Лабс» устраняет архитектурные ограничения PostgreSQL https://www.itweek.ru/themes/detail.php?ID=234630 Wed, 08 Apr 2026 13:18:24 +0300 <p>Компания «Тантор Лабс» (входит в «Группу Астра») представила третье поколение машин баз данных Tantor XData. Событие состоялось в рамках пресс-конференции, прошедшей 7 апреля в Москве. Новое решение реализует полноценную одновременную обработку транзакционных и аналитических запросов (HTAP) и предназначено для крупных корпоративных заказчиков, которые до сих пор не имели возможности полностью заместить зарубежные СУБД ввиду архитектурных ограничений классического PostgreSQL.</p> <p>Машина баз данных (МБД) Tantor XData Gen3 предназначена для крупных корпоративных заказчиков и решает ключевую задачу импортозамещения для информационных систем, в которых продолжают эксплуатироваться решения зарубежных компаний Oracle, SAP и IBM.</p> <p>Малый и средний бизнес в России уже активно использует решения на базе PostgreSQL. Крупный же бизнес работает с гораздо более объемной и разнообразной нагрузкой, поэтому иностранные решения остаются по-прежнему широко распространены. При переходе на решения на базе PostgreSQL корпоративные заказчики сталкиваются с архитектурными ограничениями открытой СУБД: отсутствием нативного горизонтального масштабирования, деградацией производительности при большом количестве соединений и сложностями при работе со смешанными транзакционными и аналитическими нагрузками. Эти ограничения долгое время сдерживали использование PostgreSQL в критически важных системах enterprise-уровня и, соответственно, динамику импортозамещения в крупнейших компаниях.</p> <p>В МБД Tantor XData Gen3 реализован комплекс технологий, устраняющих эти барьеры, что позволяет бизнесу перейти на отечественную платформу без компромиссов по производительности и масштабируемости, при этом сохраняя полную совместимость с PostgreSQL и использующими ее бизнес-приложениями и расширениями. Так, устранено ключевое ограничение PostgreSQL — привязка к одному серверу. БД могут расти без архитектурного потолка, при этом система не усложняется, а масштабируется линейно, то есть подсистемы вычислений и хранения можно масштабировать независимо друг от друга сообразно обрабатываемой нагрузке. Реализовано общее хранилище с высоким показателем IOPS, которое работает с той же скоростью, как локальный диск, но для всего кластера. Приложение обращается к одной базе, при этом система сама балансирует нагрузку и отрабатывает сбои. Проприетарная распределённая файловая система Tantor PFS работает поверх высокоскоростной сети RDMA (InfiniBand или RoCEv2) и протокола NVMe-oF, предоставляя всем узлам кластера единое блочное устройство с задержками, сопоставимыми с использованием локального SSD-диска.</p> <p>Среди других технологий enterprise-уровня — конвейерная запись WAL и возможность параллельной обработки запросов на всех узлах кластера. Технология для отказоустойчивости и балансировки Tantor RAC (Real Application Clusters) реализует активно-пассивную схему с одним пишущим и несколькими читающими узлами с автопереключением на реплику с минимальным временем простоя, умным прокси и согласованностью на уровне сессий, при этом добавление читающих узлов увеличивает пропускную способность запросов. Реализованы механизм CSN (commit sequence number) для повышения производительности и устранения узких мест при высокой конкуренции транзакций, инструменты балансировки нагрузки и управления соединениями. В итоге новая МБД Tantor XData Gen3 открывает для бизнеса возможность полноценной одновременной обработки транзакционных и аналитических запросов (hybrid transactional/analytical processing, HTAP).</p> <p>Аппаратной основой Tantor XData Gen3 стали процессоры AMD EPYC, которые благодаря большому количеству ядер в одном сокете, поддержке десятков линий PCIe 4.0/5.0 и пропускной способности до 12 каналов памяти на процессор обеспечивают максимальную мощность для обработки смешанных нагрузок.</p> <p>Новое решение «Тантор Лабс» позиционируется как полноценная альтернатива таким продуктам, как Oracle Exadata, SAP HANA и IBM Netezza, и ориентировано на информационные системы с критическими требованиями к масштабируемости, обработке смешанных нагрузок и непрерывности бизнес-процессов.</p> <p>«До сих пор крупные компании не могли полностью уйти с Oracle, SAP и IBM на решения на базе PostgreSQL, поскольку на практике сталкивались с архитектурными ограничениями этой СУБД: отсутствием горизонтального масштабирования, деградацией при 5 тыс. соединений и выше, невозможностью обрабатывать смешанную нагрузку. С выходом МБД Tantor XData Gen3 эти опасения сняты — российский рынок впервые получает PostgreSQL-совместимую машину баз данных, которая обеспечивает горизонтальное масштабирование и стабильную работу при десятках тысяч подключений, и позволяет enterprise-сегменту заместить иностранные СУБД, оставаясь в апробированной экосистеме Postgres. Реализованные технологии — это не очередной „ускоренный PostgreSQL“, а долгожданный прорыв в импортозамещении СУБД для самого требовательного сегмента корпоративных заказчиков», — заявил в ходе пресс-конференции генеральный директор «Тантор Лабс» Вадим Яценко.</p> Компания «Тантор Лабс» (входит в «Группу Астра») представила третье поколение машин баз данных Tantor XData. Событие … message «Сигналтек» запустила в производство высокопроизводительную ИИ-платформу для работы с большими данными https://www.itweek.ru/themes/detail.php?ID=234629 Wed, 08 Apr 2026 13:16:38 +0300 <p>Компания «Сигналтек» запустила в производство флагманскую серверную платформу серии СИГНАЛ СТЭК с поддержкой новейших процессоров Intel Xeon Scalable <nobr>6-го</nobr> поколения для задач искусственного интеллекта, высокопроизводительных вычислений и обработки больших объёмов данных. Решение ориентировано на корпоративный рынок и предназначено для построения современной локальной ИИ-инфраструктуры.</p> <p>В зависимости от конфигурации системной платы новая 6U-платформа поддерживает до 8 GPU-ускорителей и два процессора Intel Xeon Scalable <nobr>5-го</nobr> или <nobr>6-го</nobr> поколения. Платформа рассчитана на широкий круг ресурсоёмких сценариев: <nobr>LLM-инференс,</nobr> обработку и генерацию видео, компьютерное зрение, научные расчёты, HPC и запуск корпоративных ИИ-сервисов в локальном контуре.</p> <p>Среди ключевых преимуществ решения — поддержка GPU с энергопотреблением до 600 Вт на один ускоритель, до 8 ТБ памяти DDR5, удалённое управление через IPMI и Redfish, поддержка TPM/TCM, а также резервирование питания по схеме N+N. Платформа поддерживает активное и пассивное охлаждение GPU и позволяет гибко адаптировать конфигурацию под конкретные задачи заказчика.</p> <p>«Мы видим быстро растущий спрос на локальные вычислительные платформы для ИИ со стороны бизнеса и разработчиков программного обеспечения. Заказчикам нужны высокая плотность вычислений, гибкость конфигурирования и возможность развертывания собственных мощностей под конкретные прикладные сценарии. Запуск платформы серии СИГНАЛ СТЭК в производство позволяет нам предложить рынку современное и масштабируемое решение для ИИ и больших данных», — отметил Алексей Волков, Менеджер по продукту.</p> <p>Платформа серии СИГНАЛ СТЭК предназначена для использования в корпоративных дата-центрах, инженерных и исследовательских задачах, ИИ-проектах и специализированных программно-аппаратных комплексах, где критичны производительность, масштабируемость и управляемость.</p> Компания «Сигналтек» запустила в производство флагманскую серверную платформу серии СИГНАЛ СТЭК с поддержкой новейших … message ИСИЭЗ НИУ ВШЭ: россияне все чаще сталкиваются с угрозами кибербезопасности https://www.itweek.ru/themes/detail.php?ID=234628 Wed, 08 Apr 2026 13:15:22 +0300 <p>Институт статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ на основе последних данных Росстата проанализировал, с какими угрозами информационной безопасности россияне чаще всего сталкиваются в Сети.</p> <p>С теми или иными киберугрозами сталкивался каждый второй интернет-пользователь в России (52% в 2025 г.); за пять лет их доля увеличилась на 17,5 п. п. (в 2021 г. — 34,5%). Минимальное значение показателя (31,9%) отмечалось в 2022 г., после чего масштабы различных видов кибератак устойчиво росли.</p> <p>Наиболее распространенной проблемой остается спам: в 2025 г. несанкционированные рассылки через различные каналы связи получали 44,7% пользователей (26,8% в 2021 г.). Каждый восьмой становился адресатом мошеннических писем с просьбой предоставить паспортные данные, реквизиты банковских карт и т. п. (12,1% против 3,2% в 2021 г.). Все чаще актуализируются и такие угрозы, как заражение цифровых устройств вирусами (8,7% в 2025 г., +2,2 п. п. за пять лет) или переход на поддельные сайты (4,9%, +2,8 п. п.).</p> <p>Подобные тенденции вынуждают россиян перестраивать тактики защиты информационной безопасности и использовать для этого как старые, так и новые инструменты. Так, почти не меняются масштабы использования антивирусного ПО (в течение пяти лет показатель удерживается на уровне примерно 70%). За тот же период более чем в 1,7 раза (с 18,2% до 32%) выросла доля пользователей, установивших на свои цифровые устройства антиспамовые фильтры.</p> <p>С учетом роста числа кибератак и усиления их возможных эффектов, в зоне риска находятся пользователи, которые не прибегают к средствам защиты информационной безопасности, а это — каждый пятый выходящий в Сеть (20,2% в 2025 г.).</p> Институт статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ на основе последних данных Росстата … message Роль больших данных и ИИ в развитии персонифицированной медицины https://www.itweek.ru/themes/detail.php?ID=234626 Wed, 08 Apr 2026 12:12:16 +0300 <p>Персонализированная медицина давно вышла из рамок теоретических дискуссий и превратилась в рабочий инструмент, просто мы редко замечаем механику, пока процессы идут «в фоне». Так, раньше подбор терапии во многом строился методом проб и ошибок, а сегодня система предлагает варианты ещё до первого визита в кабинет.</p> <p>Разница кроется в объёме информации и скорости её обработки. Именно здесь пересекаются большие данные, алгоритмы и автоматизация. Чтобы понять, как это работает на практике, сначала стоит посмотреть на сам фундамент персонализированного подхода. Речь идет о данных.</p> <h3>Цифровой след и роль больших данных</h3> <p>В основе персонализированной медицины лежит простая идея: чтобы подобрать лечение под конкретного человека, нужно понимать, как болезнь ведёт себя у тысяч похожих пациентов. Именно поэтому всё начинается с цифрового следа. Ещё десять лет назад такие сведения лежали в разных поликлиниках на бумажных носителях, архивах и в разрозненных файлах, собрать их воедино было почти невозможно.</p> <p>Именно фрагментарность данных долгое время оставалась одним из главных барьеров для развития персонализированного подхода. Сейчас ситуация кардинально изменилась. К единой информационной системе здравоохранения подключены практически все медицинские организации страны. В одном контуре аккумулированы сотни миллионов электронных записей. И это не архив, а «живая база» для ретроспективного анализа, доступная в официальном паспорте федерального <a href="https://static-0.minzdrav.gov.ru/system/attachments/attaches/000/046/712/original/FP_Cifrovoj_kontur_zdravooxraneniya.pdf?1565344851">проекта</a> «Создание единого цифрового контура в здравоохранении».</p> <p>Когда такие массивы данных становятся доступны для анализа, у исследователей появляется возможность видеть закономерности, которые раньше просто терялись в объёме информации. Например, как определённый генотип реагирует на стандартную дозировку или какие сопутствующие факторы ускоряют развитие хронического процесса. Большие данные превращают медицинскую практику «из искусства в точную науку», где каждое решение опирается на статистику.</p> <p>Для медицины это важно не только с точки зрения хранения информации. Система позволяет формировать репрезентативные когорты даже для редких заболеваний. Когда мы видим тысячи случаев вместо десятка, паттерны начинают говорить сами за себя, это фундамент для любых вычислительных моделей, без которого алгоритмы оставались бы слепыми экспериментаторами.</p> <h3>Как алгоритмы помогают видеть то, что легко упустить</h3> <p>Однако одних данных недостаточно. Сами по себе массивы ничего не решают, их нужно уметь читать. Именно здесь в процесс входит алгоритмический анализ. Наиболее наглядно это видно в лучевой диагностике. Человек устаёт, рентгенолог может просмотреть за смену десятки снимков и неизбежно пропустить микроскопическое затемнение на границе доли лёгкого. Машина же не устаёт, она сравнивает новый снимок с миллионами прошлых, ищет отклонения от нормы и сразу подсвечивает зоны внимания. Речь идёт уже не о пилотных каких-то экспериментах, а о реально работающей практике. Уже в 2025 году в Москве системы на базе искусственного интеллекта помогли обработать более <a href="https://www.mos.ru/mayor/themes/12699050/">14,4 млн.</a> лучевых исследований, а к началу 2026 года — свыше 17 млн. Сегодня такие сервисы используются по 43 клиническим направлениям и помогают выявлять признаки широкого спектра патологий, включая ранние стадии онкологических заболеваний и остеопороз.</p> <p>Стоит подчеркнуть, что алгоритм не ставит диагноз, он работает как второй взгляд, который никогда не отвлечётся на усталость или срочный звонок. Врач же получает уже размеченный материал и тратит время на клиническую оценку, а не на рутинный перебор пикселей. Это снижает процент диагностических ошибок и позволяет ловить болезнь на этапе, когда её ещё можно остановить малой кровью.</p> <p>Причём потенциал ИИ не ограничивается только анализом изображений. Алгоритмы учатся на исторических данных и начинают подсказывать риски до появления явных симптомов. Они выявляют скрытые связи между показателями крови, возрастом, генетикой и образом жизни, которые человеческий мозг просто не способен удержать в оперативной памяти одновременно. Это меняет саму логику профилактики, смещая фокус с лечения последствий на управление вероятностями.</p> <h3>Автоматизация и скорость принятия решений</h3> <p>Но влияние ИИ и автоматизации заметно не только на этапе диагностики. Ускорение касается не только распознавания образов, автоматизация меняет сам процесс принятия решений. Если посмотреть на это глазами практикующего врача или пациента, проблема становится особенно наглядной. Классический маршрут пациента: анализы в одной лаборатории, снимки в другом архиве, выписка из стационара где-то в третьем месте, врачу приходится собирать пазл вручную. Сейчас системы подтягивают все результаты в одно окно, формируют предварительные заключения и выделяют критические отклонения маркерами.</p> <p>Эффект такой автоматизации подтверждается и в прикладных исследованиях. Предварительная разметка компьютерной томографии сокращает среднее время интерпретации почти на 30%, медианный показатель падает ещё сильнее. Данные подтверждены в <a href="https://www.researchgate.net/publication/358153513_Effect_of_artificial_intelligence_technologies_on_the_CT_scan_interpreting_time_in_COVID-19_patients_in_inpatient_setting">публикации</a> об эффективности ИИ при анализе КТ. На первый взгляд это выглядит как чисто технический показатель. Но в реальной системе здравоохранения за ним стоит вполне осязаемый результат. Когда кабинет пропускает больше пациентов без потери качества, очереди двигаются быстрее, назначения выписываются точнее, система перестаёт работать в режиме пожарной команды и переходит на плановое сопровождение.</p> <p>Автоматизация снимает когнитивную нагрузку, врач не тратит силы на поиск информации, он направляет энергию на анализ. Структурированные данные исключают ситуацию, когда важное исследование теряется в почте или бумажной папке, всё под рукой, всё отсортировано по приоритету.</p> <p>Это напрямую влияет на скорость назначения терапии и снижает риск врачебной усталости, которая часто становится причиной ошибок в конце рабочей смены, когда рутинные операции делегированы софту, специалист получает возможность сосредоточиться на дифференциальной диагностике, где опыт и интуиция всё ещё незаменимы.</p> <h3>Геномика и доступность персонализированного подхода</h3> <p>Если большие данные и автоматизация помогают быстрее принимать решения, то геномика делает эти решения по-настоящему индивидуальными. Всё это имеет смысл только тогда, когда персонализированный подход выходит за рамки частных клиник и становится доступным.</p> <p>При этом ещё недавно такие возможности оставались эксклюзивной услугой: полное чтение генома стоило как хороший автомобиль и требовало месяцев на расшифровку. Сегодня ситуация уже иная. Если в 2024 году <a href="https://pcr.news/stati/polnye-genomy-100-tysyach-rossiyan-budut-prochitany-k-kontsu-2025-goda/">речь шла</a> о планах масштабировать полногеномное секвенирование в рамках национальной инициативы, то к октябрю 2025 года в России уже сообщалось о формировании базы из 100 тысяч секвенированных геномов. Параллельно коммерческий рынок тоже становится более доступным: в зависимости от лаборатории и параметров исследования стоимость полногеномного анализа сегодня обычно составляет порядка <nobr>80-100 тыс.</nobr> рублей, хотя отдельные предложения могут быть и выше.</p> <p>Главное изменение здесь — не только технологическое, но и экономическое. Цена падает, а качество растёт, когда у врача есть доступ к генетическому паспорту пациента, он видит не просто набор симптомов, а биологическую карту. Он понимает, почему один препарат даёт побочные эффекты, а другой работает тихо и точно, он знает, к каким наследственным рискам стоит подготовиться заранее. Именно за счёт этого персонализация постепенно перестаёт быть привилегией отдельных центров. Технологии превращают индивидуальный подбор лечения из штучного продукта в отлаженный процесс, где каждый блок подгоняется под уникальные параметры организма. Центры данных объединяют результаты генетических тестов с клиническими исходами, это позволяет быстро находить мишени для терапии и избегать долгих подборов схем.</p> <p>Масштабирование происходит именно за счёт стандартизации протоколов, когда система знает, как реагирует определённая мутация на конкретный ингибитор, она рекомендует это решение любому врачу в стране, независимо от региона, персонализация перестаёт зависеть от географии, превращаясь в универсальный стандарт оказания помощи.</p> <h3>Заменит ли машина врача</h3> <p>Однако по мере развития таких систем всё чаще возникает и другой, уже не технологический, а профессиональный вопрос. Главный вопрос всегда один: не заменит ли машина врача? Ответ простой: она «разгрузит его руки».</p> <p>И практика показывает, что сами врачи всё чаще воспринимают такие решения как поддержку. Опросы показывают, что почти 60% медиков положительно оценивают внедрение цифровых инструментов, они говорят о снижении административной нагрузки и возможности сосредоточиться на сложных случаях, полная аналитика опубликована в <a href="https://itentika.ru/news/iskusstvennyj-intellekt-v-medicine">материале</a> об оценке врачами внедрения медицинских ИИ-инструментов.</p> <p>В этом и состоит, пожалуй, главный парадокс цифровизации медицины<strong>.</strong> Когда рутину забирает алгоритм, у врача появляется ресурс на диалог, он может объяснить схему лечения, обсудить образ жизни, учесть психологическое состояние пациента, это то, что алгоритм никогда не заменит. Ведь эффективность системы здравоохранения измеряется не количеством установленных серверов, а качеством контакта между специалистом и человеком, автоматизация убирает барьеры, большие данные дают контекст, искусственный интеллект подсказывает вектор, а врач остаётся тем, кто принимает окончательное решение.</p> <p>Снижение нагрузки напрямую влияет на текучесть кадров и выгорание, когда специалист видит перед собой не экран с бесконечными формами, а живого человека, он работает иначе. Технологии возвращают медицину к её первоначальной цели, помогать конкретному пациенту, а не просто закрывать отчёты.</p> <h3>Технологии и эмпатия как единая модель помощи</h3> <p>В итоге всё более очевидным становится то, что персонализированная медицина перестаёт быть утопией, она становится стандартом работы. Просто мы уже начинаем привыкать называть это цифровизацией. Данные накапливаются, алгоритмы учатся, процессы ускоряются, всё это не отменяет человеческий фактор, а возвращает его в центр внимания.</p> <p>Когда система берёт на себя вычисления, у специалиста остаётся самое важное — понимание пациента. Именно в этом сочетании технологий и эмпатии рождается устойчивая модель оказания помощи, она уже начинает работать. Просто нужно дать ей пространство для развития, сохраняя баланс между технологическими возможностями и клинической экспертизой.</p> <p>#IMAGE_234627#</p> Персонализированная медицина давно вышла из рамок теоретических дискуссий и превратилась в рабочий инструмент … article Егор Кашка, операционный директор цифровой экосистемы регистрации медицинских изделий КРЕДО.ТЕХ Чрезмерная переоценка ИИ — и как ей противостоять https://www.itweek.ru/themes/detail.php?ID=234625 Wed, 08 Apr 2026 10:26:17 +0300 <p><em>Простое внедрение искусственного интеллекта в операции не приносит положительных результатов без значительной работы за кулисами. Новое исследование показывает, что для технологических команд, работающих непосредственно над интеграцией и внедрением ИИ в свои технологические стеки, эта задача оказалась сложной, сообщает портал </em><em>ZDNet</em><em>.</em></p> <p>Сегодня ведутся многочисленные дискуссии об уровне успеха ИИ, и вызывает беспокойство то, что растущие инвестиции в инструменты и инфраструктуру ИИ не оправдывают ожиданий, которые часто обещают поставщики и консультанты.</p> <p>Новое исследование BlueOptima «AI Refactoring Evaluation (BARE)» показывает, что даже лучшие кодирующие модели ИИ оказываются успешными менее чем в 23% случаев при работе с реальным производственным кодом. Более того, результаты бенчмарков не отражают реальную производительность. Большинство моделей набрали более 85% баллов в популярных бенчмарках, но в среднем показали лишь 17% успеха в задачах по обеспечению поддерживаемости в производственной среде.</p> <p>В исследовании были протестированы 57 больших языковых моделей (LLM) на задачах рефакторинга, ориентированных на обеспечение поддерживаемости, на основе 4276 реальных файлов исходного кода, охватывающих девять языков программирования (Cи, C++, C#, Go, Java, JavaScript, PHP, Python, TypeScript), что дало 243 732 пары «модель-файл».</p> <p>ROI от использования ИИ в программировании значительно варьируется в зависимости от языка и задачи. Как показывает исследование, уровень успеха варьируется от 32% в JavaScript до всего 4% в Cи и падает до 1,5% при решении сложных архитектурных задач.</p> <p>Так что же, ИИ не реализует свой потенциал в полной мере, или его просто переоценивают? Опять же, исследование служит проверкой реальности: внедрение ИИ в работу не принесет результатов без работы за кулисами, включая работу над обеспечением поддерживаемости.</p> <p>«Чтобы считаться успешным, сгенерированный ИИ код должен соответствовать строгим критериям, — поясняют авторы отчета. — Код должен компилироваться и работать корректно; сохранять поведение без регрессий; и улучшать обеспечение поддерживаемости, которое измеряется, а не предполагается».</p> <p>Большая часть восторженных отзывов об ИИ от поставщиков, консультантов и других лиц удобно замалчивает сложную работу, которая происходит на бэкэнде ИИ. Короче говоря, в маркетинге ИИ часто применима классическая максима: «Если это звучит слишком хорошо, чтобы быть правдой, то, вероятно, это неправда».</p> <p>В результате ИИ сильно переоценивают, говорит Дэвид Линтикум, ведущий голос здравого смысла в сфере технологий на протяжении многих лет. Недавно он <a href="https://www.youtube.com/watch?v=y5y7MCX3tvQ">призвал</a> менеджеров остерегаться тех, кто «стремится нажиться на привлекательности технологии. Только с трезвым, основанным на фактах взглядом мы можем преодолеть ажиотаж и гарантировать, что технология послужит бизнесу, а не наоборот».</p> <p>Самый большой риск с инструментами и платформами ИИ заключается в том, что они могут «стоить в <nobr>10-20</nobr> раз дороже традиционных систем, — говорит Линтикум. — Слишком много сегодняшних рекламных кампаний ИИ подкреплены мощными PR-кампаниями, которые опережают глубину реального понимания». Риск возрастает по мере того, как ИИ становится приоритетом для советов директоров.</p> <p>«Решения об организационной стратегии, инвестициях и инновациях могут зависеть от советов тех, чьи технические знания не простираются за поверхностный уровень. Некомпетентные рекомендации могут привести к дорогостоящим перерасходам и стратегическим ошибкам», — предупреждает Линтикум.</p> <p>Как показывают данные, к этому можно добавить и неправильное использование модных терминов в сфере ИИ. «Хотя большинству аудиторий не хватает технических знаний, чтобы подвергнуть сомнению смелые заявления, самопровозглашенные эксперты используют сложный язык, чтобы скрыть свои ограниченные знания», — предостерегает Линтикум.</p> <p>По его словам, социальные сети и более широкое цифровое обсуждение усугубляют проблему, вознаграждая тех, кто рассказывает захватывающие истории и проявляет необоснованный оптимизм, а не тех, кто признает компромиссы и выступает за более тонкий прогресс. Компании часто ценят увлекательных рассказчиков больше, чем тех, кто действительно понимает суть дела.</p> <p>Ставки высоки, отмечает Линтикум: «Современные системы ИИ сложны и дороги, они намного превосходят большинство традиционных решений. Слепое внедрение, подпитываемое безудержным оптимизмом, ставит под угрозу как ресурсы, так и будущее организации».</p> <p>Профессионалам следует учиться отличать «истинную экспертизу», призывает он: «Выделение квалифицированных специалистов на фоне толпы — тех, кто понимает как ограничения ИИ, так и его потенциал, — имеет жизненно важное значение для любого бизнеса, работающего в этой сложной сфере. Руководители должны искать тех, кто понимает обе стороны уравнения ИИ: перспективы и подводные камни, возможности и присущие ему риски».</p> <p>Ключевым элементом успешной формулы является «убедиться, что люди, определяющие вашу стратегию в области ИИ, будут принимать правильные решения, — говорит Линтикум. — Нам нужно понимать, что они знают, а чего не знают. И нам нужно понимать, как они должны принимать решения, включая привлечение людей, которые знают преимущества и недостатки использования этой технологии, знают, как создавать подобные вещи, чтобы они не совершали ошибок».</p> <p>Он отметил важность сбалансированного подхода, поскольку людям необходимо узнать и о недостатках использования технологий: «Реальность такова, что если вы не рассмотрите преимущества и недостатки в совокупности, у вас не будет жизнеспособного решения для бизнеса, и в конечном итоге вы просто подтолкнете бизнес к краю пропасти».</p> Простое внедрение искусственного интеллекта в операции не приносит положительных результатов без значительной работы … article Спринт за один день: как ИИ-агенты изменили повседневную работу разработчика https://www.itweek.ru/themes/detail.php?ID=234623 Wed, 08 Apr 2026 10:12:35 +0300 <p>Роль разработчика за последние два года сильно изменилась. Если раньше такой специалист тратил большую часть дня на написание кода, отладку и чтение документации, то сегодня его главная задача — грамотно сформулировать задачу и проконтролировать результат. ИИ-агенты берут на себя рутину: собирают контекст, проектируют архитектуру, генерируют код и тут же проверяют его на ошибки. Часть работ внутри спринта, которая раньше занимала несколько дней, теперь может быть выполнена за несколько часов, но полный цикл по-прежнему включает тестирование и проверки.</p> <p>Эта трансформация затронула не только крупные технологические компании, но и небольшие продуктовые команды. Параллельно сместились грейды: джуниоры выполняют задачи прежнего мидл-уровня, мидлы берут на себя нагрузку старших специалистов, а сеньоры становятся лидерами ИИ-команд. При этом ответственность за качество продукта по-прежнему лежит на человеке, а не на модели.</p> <h3>Типичный день разработчика: от кодера к оркестратору</h3> <p>Рабочий день программиста в 2026 году начинается не с открытия IDE (среды разработки), а с постановки задачи на естественном языке. Разработчик формулирует поручение своим ИИ-ассистентам — например, «Сделай API для авторизации с использованием такого-то токена, интегрированный с нашими корпоративными системами». Далее агенты выполняют предварительную работу: один собирает документацию, другой предлагает архитектуру, третий генерирует код для последующей проверки разработчиком.</p> <p>Днем разработчик просматривает результаты, вносит корректировки и при необходимости запускает дополнительные итерации. Вечером вместе с тимлидом или продакт-менеджером он оценивает, насколько полученное решение соответствует бизнес-целям. Финальная версия либо уходит на стенды тестирования и проверки информационной безопасности, либо отправляется на короткую доработку.</p> <p>Наша фокусная группа из 40 разработчиков тестирует именно такой формат: компания предоставила им вычислительные мощности, а они в ответ передают телеметрию, по которой видно, как устроен их повседневный процесс.</p> <h3>ИИ-агенты работают в компаниях любого масштаба</h3> <p>Формат делегирования задач ИИ-агентам одинаково применим и в крупном бизнесе, и в небольших командах. Разница — в сложности окружения. В масштабных проектах моделям приходится учитывать множество корпоративных интеграций: подключение к внутренним сервисам, телеметрия, соответствие стандартам безопасности. Для части действий им нужны отдельные разрешения, которые они запрашивают у разработчика.</p> <p>В небольших лабораториях процесс выглядит проще. Там нет тяжелой инфраструктурной обвязки, и требования к квалификации специалистов ниже: достаточно понимать, что такое хороший код, чтобы принять или отклонить предложенное решение. При этом сами агенты уже «натренированы» на создание качественного и эффективного кода.</p> <p>Отдельно стоит выделить ИИ-агентов для код-ревью. Они показывают впечатляющую точность: по внутренним оценкам, большинство обнаруженных ИИ ошибок подтверждаются разработчиками, а доля ложных срабатываний остается низкой. Такой уровень «шума» минимален и не мешает рабочему процессу. По сути, ИИ уже стал повседневным инструментом вне зависимости от размера организации.</p> <h3>Быстрее, но не хуже: влияние на скорость и качество</h3> <p>Один из главных вопросов, которые возникают при массовом внедрении ИИ-агентов, — не приводит ли ускорение к росту числа дефектов. Ответ прост: ошибки и баги никуда не исчезли. Нерабочий код, несовпадение версий библиотек, логические просчеты — все это осталось. Однако теперь проблемы выявляются на ранних стадиях и устраняются гораздо быстрее.</p> <p>Ключевой фактор — агенты сами исправляют свой код. Раньше при появлении бага разработчику приходилось вручную читать логи, искать документацию, экспериментировать с решениями. Теперь этот цикл автоматизирован: агент находит ошибку, анализирует причину и предлагает исправление. Благодаря этому волны новых дефектов не возникает: относительное количество дефектов на единицу кода остается сопоставимым, несмотря на рост скорости разработки.</p> <p>Главный эффект от внедрения ИИ-агентов — не улучшение абсолютного качества кода, а кратное ускорение всего цикла: от первой строки до работающего решения и от обнаружения бага до его устранения.</p> <h3>Новая расстановка: джуниоры, мидлы и вопрос атрофии навыков</h3> <p>Опасения, что ИИ вытеснит начинающих специалистов, не подтвердились. Джуниоры по-прежнему востребованы, но профиль их компетенций изменился. К классическим навыкам — системное мышление, знание алгоритмов, понимание паттернов проектирования — добавился еще один: умение грамотно делегировать задачи ИИ и формировать собственную экосистему ИИ-агентов. Такие навыки постепенно появляются в программах ведущих технических университетов.</p> <p>Благодаря такой «усиленной» подготовке джуниоры могут выполнять более сложные задачи при поддержке ИИ и контроле со стороны старших специалистов: самостоятельно формулировать постановки, анализировать выводы агентов, находить и устранять проблемы. Мидлы, в свою очередь, переходят на позиции, близкие к уровню сеньоров, и фактически становятся лидерами ИИ-команд. Таким образом, общая линейка грейдов сдвинулась вверх.</p> <p>Что касается атрофии навыков, здесь важен подход к работе. Если разработчик использует ИИ как «автопилот» — просто принимает готовые решения, не вникая в суть, — его компетенции со временем деградируют. Но в режиме ассистента или агента с опцией human-in-the-loop, когда человек разбирается в предложениях агента, сопоставляет их с контекстом проекта и получает от ИИ обратную связь о качестве своего кода, навыки не только сохраняются, но и развиваются.</p> <h3>Ответственность, безопасность и реальный экономический результат</h3> <p>При всем удобстве ИИ-агентов зона ответственности не сместилась: за финальную версию кода все еще отвечает человек. ИИ остается инструментом, а не автором. Разработчик обязан валидировать результаты, запускать тесты и следить за тем, чтобы сгенерированный код соответствовал стандартам.</p> <p>Для минимизации рисков в области безопасности компания придерживается комплексного подхода. Во многих компаниях использование публичных ИИ-ассистентов ограничено или запрещено для рабочих задач — допускается использование только корпоративных моделей, развернутых в изолированном контуре. Все генерации логируются, что позволяет восстановить полную историю взаимодействия агента с моделью и определить, была ли ошибка следствием галлюцинации или умышленного вмешательства пользователя. Параллельно работают автоматические сканеры уязвимостей, которые отлавливают потенциальные закладки и небезопасные фрагменты в сгенерированном коде.</p> <p>При этом экономический результат от внедрения ИИ-агентов ощутим и измерим. Наше внутреннее тестирование показало рост скорости выполнения задач примерно на 20% в пилотных командах. Это привело к росту скорости разработки и снижению time-to-market.</p> <p>Вместе с тем появляются и новые статьи расходов: ИИ-инфраструктура, промпт-инженеры, архитекторы агентов, усиленный контроль качества и аудит безопасности. Однако в совокупности баланс остается положительным. Компании не просто сокращают затраты — они трансформируются: выходят на рынки, которые раньше считались недоступными, и реализуют проекты, на которые ранее не хватало ресурсов.</p> <p>#IMAGE_234624#</p> Роль разработчика за последние два года сильно изменилась. Если раньше такой специалист тратил большую часть дня … article Татьяна Сезeмина, руководитель “Фабрика ИИ-агентов” направления Т1 ИИ (ИТ-холдинг Т1) Forrester: роль директора по данным кардинально меняется https://www.itweek.ru/themes/detail.php?ID=234622 Wed, 08 Apr 2026 10:02:27 +0300 <p><em>В течение многих лет мы описывали директора по данным (CDO) как руководителя, ответственного за данные, аналитику и инсайты. Это определение было полезным — и какое-то время точным. Но теперь его недостаточно, пишет в корпоративном блоге Ким Херрингтон, старший аналитик </em><em>Forrester</em><em>.</em></p> <p>Наш обновленный профиль роли CDO отражает тихий, но важный сдвиг, происходящий в ведущих организациях: сегодняшний CDO отвечает не только за создание согласованных, заслуживающих доверия данных — он отвечает за то, чтобы данные действительно влияли на решения, поведение и результаты — и не только это! Он должен делать это, ориентируясь в постоянно меняющейся волне коммуникационных процессов/каналов и нестабильных технологических изменениях.</p> <p>Это совершенно другая работа.</p> <h3>От предоставления данных к управлению и принятию решений</h3> <p>В более ранних версиях своей роли CDO часто представлялся как своего рода директор по инсайтам — он создавал аналитические команды, разрабатывал дашборды и повышал грамотность в работе с данными. В других версиях CDO фактически возглавлял отдел инжиниринга данных. Многие CDO до сих пор выполняют эту работу, и она по-прежнему важна.</p> <p>Но организации усвоили (иногда это было болезненно), что одних только инсайтов, конвейеров и схем недостаточно для достижения реальных результатов.</p> <p>Что же действительно необходимо?</p> <ul> <li> Четкое распределение ответственности.</li> <li> Достоверные данные.</li> <li> Уверенное принятие решений.</li> <li> Меньше совещаний, посвященных спорам о том, чьи цифры «правильные».</li> </ul> <p>Современный CDO работает по всей цепочке создания ценности данных — от необработанных сигналов до информации, знаний и, в конечном итоге, мудрости, которая влияет на решения, формирует внутренние коммуникации и нарративы, обеспечивает контекст для операций и способствует достижению бизнес-результатов. Успех больше не измеряется количеством существующих дашбордов, а тем, насколько быстро организация переходит от вопроса к действию.</p> <h3>Почему управление изменениями теперь является ключевым элементом роли CDO</h3> <p>Одно из важнейших обновлений в новом профиле роли четко сформулировано: управление изменениями, взаимодействие с заинтересованными сторонами и создание историй о ценности теперь являются основными компетенциями CDO.</p> <p>Это не обновление мягких навыков. Это ответ на реальность.</p> <p>Большинство сбоев в работе с данными сегодня носят не технический, а человеческий характер:</p> <ul> <li> Руководители не решаются действовать на основе данных, которым не доверяют.</li> <li> Команды останавливаются, когда показатели противоречат друг другу.</li> <li> Сотрудники избегают вопросов, когда данные указывают на риск или неопределенность.</li> </ul> <p>Это не проблемы с инструментами. Это проблемы с коммуникацией, уверенностью и культурой.</p> <p>Пересмотренная роль CDO отражает это. От современного CDO ожидается снижение трения при принятии решений, вызванного неопределенностью или недоверием, а не просто улучшение качества данных. Это означает влияние на то, как данные обсуждаются, формируются, распространяются и используются в организации.</p> <p>Другими словами: CDO теперь является лидером преобразований в той же мере, что и лидером в работе с данными.</p> <h3>Рост значимости опыта работы с внутренними данными</h3> <p>Еще один тонкий, но важный сдвиг: теперь роль специалиста по работе с данными делает акцент на внутренних данных, а не только на грамотности в работе с данными или цифровой компетентности.</p> <p>Опыт работы с данными ставит другие вопросы.</p> <ul> <li><strong> Найти.</strong> Могут ли люди найти то, что им нужно?</li> <li><strong> Использовать.</strong> Знают ли они, как этим пользоваться?</li> <li><strong> Доверять.</strong> Доверяют ли они этому настолько, чтобы действовать без колебаний?</li> </ul> <p>Качественный опыт работы с данными сокращает циклы принятия решений, уменьшает объем доработок и повышает уверенность. Слабый опыт незаметно истощает организацию за счет задержек, дублирования анализа и осторожного выполнения.</p> <p>Современный CDO несет ответственность за этот опыт — даже если он охватывает несколько платформ, команд и функций.</p> <h3>Искусственный интеллект повышает ставки</h3> <p>ИИ ускоряет эту эволюцию.</p> <p>По мере того, как организации внедряют ИИ в процесс принятия решений, стоимость некачественных данных, слабого управления и культурного страха быстро возрастает. Из-за них модели не просто масштабируют инсайты — они масштабируют неопределенность, предвзятость и недоверие.</p> <p>Вот почему обновленная роль CDO включает в себя управление рисками, снижение вреда и принятие решений с участием человека. Кто-то должен нести ответственность за то, чтобы данные — и решения, которые они порождают, — были не просто сложными, но и ответственными и заслуживающими доверия.</p> <p>Этим «кем-то» все чаще становится CDO.</p> <h3>Что это значит для руководителей и советов директоров</h3> <p>Если вы сегодня нанимаете, оцениваете или поддерживаете CDO, вопросы, которые следует задавать, изменились:</p> <ul> <li> Может ли этот лидер способствовать освоению, а не только реализации?</li> <li> Может ли он влиять на руководителей и изменять поведение?</li> <li> Может ли он превращать данные в уверенность, а не просто в инсайты?</li> </ul> <p>Роль CDO не просто расширилась. Она повзрослела.</p> <p>Организации, которые осознают этот сдвиг, будут принимать решения быстрее, брать на себя меньше рисков и извлекать больше пользы как из своих данных, так и из своих инвестиций в ИИ. Те, кто этого не сделает, могут обнаружить, что у них есть аналитика мирового класса — и очень мало результатов.</p> <h3>Что дальше?</h3> <p>Если ваши ожидания от CDO не изменились, но при этом изменились корпоративные данные, ИИ и структура рисков, то пора пересмотреть свои взгляды.</p> В течение многих лет мы описывали директора по данным (CDO) как руководителя, ответственного за данные … article DIS Group и «Платформа данных Селена» объявили о запуске решения Селена Моделирование для работы со структурами данных https://www.itweek.ru/themes/detail.php?ID=234632 Tue, 07 Apr 2026 00:00:00 +0300 <p><em>ИТ-компания DIS Group и разработчик «Платформа данных Селена» объявили о запуске решения Селена Моделирование. Инструмент в составе интеллектуальной платформы данных AIDP </em><em>предназначен для визуализации и проектирования структурированных данных на основе реляционной модели.</em></p> <p>Количество информационных систем и аналитических платформ в компаниях и организациях, интеграций с внутренними и внешними источниками постоянно растет за счет увеличения спроса со стороны бизнес-подразделений на оперативную аналитику. Это делает архитектуру данных и управление ею все сложнее. Селена Моделирование помогает системно описывать структуры данных и их взаимосвязи, поддерживая и развивая основу архитектуры данных компании.</p> <p>Визуальное представление данных для анализа и для проектирования их структур существенно снижает затраты времени на поиск источников данных в таблицах, видов связей при построении отчетов, получения данных для аналитики и при разработке информационных систем. Селена Моделирование помогает системно описывать структуры данных, а также их взаимосвязи, поддерживая и развивая основу архитектуры данных компании.</p> <p>Новое решение охватывает весь жизненный цикл работы с данными. Концептуальное моделирование используется для описания бизнес-сущностей и предметной области. Логическое моделирование позволит проектировать структуру данных в информационных системах. Функции обратного инжиниринга автоматически опишут модель данных в существующих базах данных. Можно, наоборот, сгенерировать структуру базы данных на основе модели.</p> <p><em>«Мы видим рост спроса на моделирование данных в компаниях и организациях, так как они хотят задействовать как можно больше источников и самих данных в бизнес-аналитике реального времени по мере перехода на современные платформы управления данными. Селена Моделирование позволит добиться максимального эффекта от сочетания различных структурированных данных в аналитике», — сказал <strong>Олег Гиацинтов</strong>, технический директор DIS Group.</em></p> <p>Селена Моделирование будет полезно специалистам офисов управления данными: архитекторам данных, аналитикам данных, бизнес- и системным аналитикам, а также разработчикам прикладных решений. Инструмент интегрируется с системами Data Governance для связывания моделей данных с метаданными и бизнес-глоссарием.</p> ИТ-компания DIS Group и разработчик «Платформа данных Селена» объявили о запуске решения Селена Моделирование … message «СёрчИнформ»: половина государственных организаций тратят на информационную безопасность до 1 миллиона в год https://www.itweek.ru/themes/detail.php?ID=234621 Tue, 07 Apr 2026 15:58:22 +0300 <p>Компания «СёрчИнформ» представила результаты исследования уровня информационной безопасности в государственных организациях за 2025 год. В опросе приняли участие специалисты по ИБ из 414 госорганизаций различного масштаба.</p> <p>Согласно исследованию, 32% государственных учреждений сообщили о росте своих бюджетов на информационную безопасность, больше половины (52%) — оставили финансирование на текущем уровне, 16% — сократили расходы на ИБ.</p> <p>Эксперты «СёрчИнформ» также проанализировали, на какие ИБ-меры российские государственные организации направляли бюджеты в 2025 году. Большинство опрошенных выделяли средства на продление лицензионных ключей (86%), закупку отечественного ПО (64%) и отечественного оборудования (50%). В меньшей степени в 2025 году госорганизации направляли бюджеты на масштабирование имеющихся средств защиты (18%), приобретение импортного оборудования (3%) и ПО (2%).</p> <p>Рост ИБ-бюджетов в государственных организациях вызван несколькими факторами. На первом месте стоят требования регуляторов — 60% опрошенных отмечают, что нормативные требования стимулируют увеличение инвестиций в защиту данных и инфраструктуры. Еще один не менее важный фактор для 50% госорганизаций — импортозамещение. Также для 35% респондентов одной из причин увеличения бюджетов стал рост цен на ПО и оборудование из-за инфляции. Лишь 18% организаций основной причиной увеличения бюджетов назвали защиту от киберугроз.</p> <p>34% опрошенных выделяют на информационную безопасность до 500 тысяч рублей. 15% организаций тратят на покупку защитных решений от 500 тысяч до 1 миллиона рублей в год. 10 и более миллионов рублей выделяют лишь 11% организаций. 9% организаций не располагают бюджетами на ИБ.</p> <p>Эксперты «СёрчИнформ» выяснили, какие российские средства защиты информации используют в государственных организациях. Большинство организаций используют антивирус (93%), криптографические СЗИ (75%), встроенные средства ИБ в ОС (55%). Более половины организаций используют отечественные NGFW (54%). DLP-системы для защиты информации от утечек внедрили лишь в 24% государственных организаций.</p> <p>«На внедрение дополнительных классов ИБ-средств влияет вступление в силу новых актов регулирования, в частности, положений <nobr>187-ФЗ,</nobr> устанавливающих обязанность организаций госсектора взаимодействовать с ГосСОПКА, а также приказа ФСТЭК № 117. Выполнение этих требований на практике без расширения ИБ-инструментария невозможно. Внедрение ИБ-средств отдельных классов (SIEM и DLP) предусматривается действующими предписаниями властей или заложено в проекты актов, которые будут приняты в 2026 году.</p> <p>Организации уже планируют качественное усиление ИБ: это заметно по данным об объемах и структуре ИБ-финансирования. Поэтому в 2026 году следует ожидать рост числа организаций госсектора, использующих продвинутые решения для мониторинга ИБ (SIEM, EDR/XDR), защиты сетевого периметра (NGFW), предотвращения утечек информации (DLP)», — прокомментировал Дмитрий Вощуков, GR-специалист «СёрчИнформ».</p> <p>Государственные организации при выборе средств защиты информации (СЗИ) в первую очередь ориентируются на функциональность решений — 52%. Не менее важным для 45% опрошенных является гибкость лицензирования. Также одним из основных критериев выбора СЗИ 44% заказчиков назвали соответствие нормативным требованиям и стандартам.</p> <p>По данным исследования, дефицит ИБ-специалистов продолжает расти, об этом заявили 14% опрошенных. В разной степени нехватку кадров ощущают 78% госорганизаций. Лишь 5% — считают, что специалистов на рынке достаточно, 17% — не испытывают сложностей с наймом ИБ-кадров.</p> <p>57% опрошенных государственных организаций видят решение проблемы нехватки кадров в профессиональной переподготовке своих сотрудников. 25% респондентов предпочитают привлекать готовых специалистов с рынка. 33% — рассказали, что нанимают студентов/выпускников, а 20% привлекают внешних специалистов и сторонних подрядчиков (аутсорсинг, SOC).</p> Компания «СёрчИнформ» представила результаты исследования уровня информационной безопасности в государственных организациях … message RuBackup 2.9: новый релиз с расширенной поддержкой отечественных платформ и ускоренной миграцией данных https://www.itweek.ru/themes/detail.php?ID=234620 Tue, 07 Apr 2026 15:56:18 +0300 <p>Компания «РуБэкап» (входит в «Группу Астра») выпустила версию 2.9 корпоративной платформы для защиты данных в гетерогенных ИТ-средах RuBackup. Релиз включает обновления ключевых компонентов, новые модули резервного копирования, расширенную интеграцию с российскими программными продуктами, а также ряд улучшений, направленных на повышение производительности и удобства администрирования.</p> <p>В RuBackup 2.9 реализована возможность обновления компонентов без последовательной установки промежуточных версий, что заметно упрощает миграцию для организаций, использующих предыдущие выпуски продукта. Эти изменения сокращают время обновления и трудозатраты ИТ-персонала на сопровождение инфраструктуры резервного копирования, а ускоренный обмен данными между площадками снижает окна простоя и повышает оперативность при реорганизации ландшафта, миграциях и аварийном восстановлении.</p> <p>Еще одним важным нововведением стала возможность создания синтетических резервных копий с использованием пулов типа Block device. Для заказчика это означает уменьшение нагрузки на серверы и сетевую инфраструктуру, что особенно актуально для высоконагруженных баз данных и бизнес-критичных систем с минимальным окном резервного копирования.</p> <p>Для управления служебной базой данных RuBackup добавлена поддержка СУБД Tantor версий 17 и 18, а также реализована работа с ленточной библиотекой от российской компании Nerpa.</p> <p>RuBackup 2.9 расширяет перечень поддерживаемых платформ виртуализации за счет нового модуля для среды «Горизонт-ВС» от компании «ИЦ Баррикады» — российской платформы, применяемой в органах государственной власти и оборонном секторе. Организации, использующие «Горизонт-ВС» в рамках импортозамещения, получают полноценный инструмент защиты виртуальных машин, интегрированный в единую корпоративную стратегию резервного копирования.</p> <p>Модуль MySQL дополнен поддержкой СУБД MariaDB. Клиенты, применяющие MariaDB, теперь могут управлять резервным копированием этих систем из единой консоли RuBackup наряду с другими СУБД, что упрощает администрирование и обеспечивает единый стандарт защиты информации.</p> <p>Модуль для PostgreSQL, Tantor и Jatoba обновлен для работы с PostgreSQL 18 и Tantor 18. Также добавлена аутентификация через Unix-сокет с использованием метода peer, что повышает безопасность и упрощает настройку на локальном уровне. Поддержка актуальных версий позволяет клиентам обновлять используемые базы данных с уверенностью в надежной защите средствами RuBackup.</p> <p>Значительные улучшения получили модули для всех ключевых платформ виртуализации. Модуль Basis DynamiX Standard теперь поддерживает восстановление виртуальных машин во внешнее хранилище, автоматическое переключение на полное резервное копирование при обнаружении изменений конфигурации дисков, а также оптимизирована очистка временных файлов при штатном и нештатном завершении задач. Basis DynamiX Enterprise обеспечивает создание копий без использования промежуточного хранилища и поддерживает хранилище секретов, что позволяет снизить требования к дисковому пространству и централизовать управление учетными данными. </p> <p>Для модуля VMmanager добавлена поддержка актуальных версий платформы виртуализации. В документацию внесено уточнение: IP-адрес восстанавливаемой виртуальной машины должен принадлежать действующему пулу адресов кластера. Также в информации о ресурсе резервного копирования теперь отображается не только идентификатор, но и имя виртуальной машины.</p> <p>Модуль для oVirt, zVirt, «РЕД Виртуализация», ROSA Virtualization и HOST VM получил поддержку хранилища секретов, возможность выполнять запросы на получение списка виртуальных машин в многопоточном режиме, а также копирование только непустых блоков дисков. Многопоточный режим и выборочное копирование значительно сокращают время выполнения задач и объем хранимых данных.</p> <p>Модули OpenStack — как для виртуальных машин, так и для отдельных томов — дополнены поддержкой хранилища секретов. Модуль виртуальных машин OpenStack также получил возможность автоматического удаления системного диска при удалении ВМ, восстановленной из резервной копии, что предотвращает накопление неиспользуемых ресурсов.</p> <p>Модуль ПК СВ «Брест» обогащен рядом функций, повышающих удобство и безопасность эксплуатации. Реализована автоматическая проверка наличия пользователя, от имени которого выполняются команды взаимодействия с платформой виртуализации, во всех требуемых группах на узлах фронтальных машин и гипервизоров, а также автоматическое добавление этого пользователя в необходимые группы. При настройке копирования по расписанию теперь можно выбрать в качестве ресурса тег или группу виртуальных машин, а при восстановлении — указать виртуальную сеть для подключаемой ВМ. Для крупных организаций с масштабными виртуальными инфраструктурами такие возможности упрощают управление и снижают вероятность ошибок при конфигурировании.</p> <p>Модуль, отвечающий за работу с почтовым сервером RuPost, обновлен для версий 4.0 и 4.1 и получил функцию гранулярного восстановления писем по их атрибутам в произвольный ящик или папку. Возможность восстановить отдельные сообщения, а не весь почтовый ящик целиком, критически важна при расследовании инцидентов, восстановлении случайно удаленной корреспонденции и соблюдении требований регуляторов. Это экономит время администраторов и минимизирует влияние на работу конечных пользователей.</p> <p>«Менеджер администратора» RuBackup теперь умеет получать перечень ресурсов, доступных на узлах клиентов, для массового создания правил стратегии резервных копий. Это многократно ускоряет начальную настройку и масштабирование системы в крупных организациях.</p> <p>Веб-интерфейс Tucana дополнен авторизацией через ALD Pro и возможностями по управлению объемом директории с файлами журналов. Поддержка ALD Pro обеспечивает единую точку входа для администраторов и соответствие требованиям информационной безопасности в импортозамещенных средах.</p> <p>Помимо перечисленных ключевых нововведений, релиз RuBackup 2.9 включает многочисленные исправления и улучшения, сделанные на основе обратной связи от пользователей.</p> <p>С выходом RuBackup 2.9 прекращена поддержка операционных систем Astra Linux Special Edition 1.6 и Debian 10. Также завершается поддержка REST API v1 — начиная с версии RuBackup 3.0 она будет полностью прекращена. Заказчикам рекомендуется заблаговременно спланировать переход на актуальные версии операционных систем и REST API v2.</p> <p>«С каждым новым релизом RuBackup мы доказываем, что российские технологии способны не просто соответствовать мировому уровню, а задавать собственный стандарт качества и надежности. Версия 2.9 — это больше, чем набор новых функций. Это ответ на реальные вызовы, с которыми ежедневно сталкиваются наши заказчики: растущие объемы данных, сложность гетерогенных инфраструктур, жесткие требования регуляторов и необходимость обеспечивать непрерывность бизнеса в любых условиях. Мы строим экосистему, в которой защита данных перестает быть головной болью и становится конкурентным преимуществом. Впереди — еще более амбициозные цели, и мы уверены: вместе с партнерами и клиентами мы создаем технологический фундамент, на который можно опереться на десятилетия вперед», — прокомментировал Андрей Кузнецов, генеральный директор компании «РуБэкап». </p> Компания «РуБэкап» (входит в «Группу Астра») выпустила версию 2.9 корпоративной платформы для защиты данных … message DocTrix.Опросы — российская альтернатива Microsoft Forms и Google Forms для бизнеса https://www.itweek.ru/themes/detail.php?ID=234619 Tue, 07 Apr 2026 15:54:55 +0300 <p>Российская ИТ-компания <nobr>I-SYS</nobr> объявила о выходе нового продукта — DocTrix.Опросы, модуля для создания и проведения корпоративных опросов, анкетирования и внутренних исследований. Решение предназначено для бизнес-пользователей и позволяет получать обратную связь от сотрудников и клиентов без использования зарубежных сервисов.</p> <p>DocTrix.Опросы — это полноценная отечественная замена Microsoft Forms и Google Forms, разработанная с учётом требований российских компаний к безопасности, масштабируемости и интеграции с внутренними ИТ-системами. Продукт входит в экосистему DocTrix и органично встраивается в корпоративные процессы заказчика.</p> <p>Модуль помогает компаниям улучшить внутренние коммуникации, повысить вовлечённость сотрудников и ускорить принятие управленческих решений за счёт автоматизированного сбора и анализа данных. С помощью DocTrix.Опросы можно проводить пульс-опросы, оценивать процессы, собирать обратную связь в свободной форме, а также использовать метрики CSAT и NPS.</p> <p>Функциональные возможности DocTrix.Опросы охватывают весь жизненный цикл работы с опросами: от создания анонимных и персонализированных анкет до анализа результатов. Пользователи могут настраивать логику ветвления вопросов, выбирать различные типы ответов, гибко задавать аудиторию опросов по сотрудникам, подразделениям или ролям, а также визуализировать и фильтровать результаты. Для удобства распространения доступны генерация ссылок и QR-кодов, а результаты опросов можно выгружать в формат XLSX для дальнейшей аналитики.</p> <p>В ближайших планах у разработчиков — развитие модуля в сторону проведения тестов с проверкой правильных ответов, подсчетом и выставлением баллов.</p> <p>DocTrix.Опросы доступен как в формате SaaS из российского облака, так и в варианте on-premise — для развертывания в инфраструктуре заказчика. Это делает продукт универсальным решением для компаний с разными требованиями к размещению и обработке данных.</p> <p>«DocTrix.Опросы — это не просто замена зарубежных форм. Мы создали инструмент, который помогает компаниям выстраивать диалог с сотрудниками и клиентами на системном уровне, получать честную обратную связь и быстро превращать её в управленческие решения», — отметил Аркадий Золотовицкий, исполнительный директор <nobr>I-SYS.</nobr></p> <p>Выход DocTrix.Опросы усиливает экосистему DocTrix и подтверждает экспертизу <nobr>I-SYS</nobr> в развитии российских ИТ-решений, обеспечивающих бизнесу независимость от иностранных платформ и реальную прикладную ценность для конечных пользователей.</p> Российская ИТ-компания I-SYS объявила о выходе нового продукта — DocTrix.Опросы, модуля для создания и проведения … message Как превратить ИИ-модели из пилота в систему https://www.itweek.ru/themes/detail.php?ID=234617 Tue, 07 Apr 2026 10:36:24 +0300 <p><em>Когда мы говорим об ИИ-проектах, на уровне пилота результаты часто впечатляют: точность растёт, процессы ускоряются, а экономический эффект кажется очевидным. Но между успешным пилотом и устойчивой промышленной системой лежит пропасть. Именно в этой точке большинство инициатив ломается. Модели, которые хорошо работали в лабораторных условиях, начинают деградировать в реальной среде. Данные оказываются нестабильными, процессы — неготовыми к изменениям, а бизнес не до конца понимает, как встроить ИИ в операционную структуру компании.</em></p> <p><em>П</em><em>остроить работающий пилот — это <nobr>10-15%</nobr> пути. Остальные 85% — это превращение модели в систему, которая приносит бизнесу деньги, а не головную боль.</em> <em>Такой вывод мы вынесли из нашей трехлетней практики </em><em>реализ</em><em>ации</em><em> проектов по внедрению ИИ в крупных компаниях — от прогнозирования спроса в FMCG до компьютерного зрения на строительных площадках.</em></p> <p><em>Разберём, что именно ломается при переходе от пилота к продуктиву, и как выстроить экономику ИИ-продукта так, чтобы проект не умер после первой презентации совету директоров.</em></p> <h3>Почему 70% пилотов не доживают до продуктива</h3> <p>Пилот — это демонстрация возможности, а продуктив — это эксплуатация в сложной системе с экономикой, ответственностью и рисками. Между этими двумя состояниями возникает несколько типовых разрывов. Обычно сценарий выглядит так: команда data science за <nobr>2-3</nobr> месяца собирает модель на исторических данных, показывает хорошие метрики на тесте, получает одобрение руководства. А затем проект замирает.</p> <p>По моему опыту, причины укладываются в три категории.</p> <p>На этапе пилота модель, как правило, обучается на заранее подготовленном датасете: данные очищены, нормализованы, лишены пропусков и структурных аномалий. Это создаёт контролируемую среду, в которой можно продемонстрировать высокий уровень точности и стабильности.</p> <p>В эксплуатации ситуация принципиально иная. Модель начинает получать данные из операционных систем — «1С», SAP или ERP-решений, где качество информации значительно ниже. В среднем, от 15 до 30% записей могут содержать ошибки, пропуски, дубли или неконсистентные значения.</p> <p>В результате возникает системный разрыв: модель, оптимизированная под идеальные данные, сталкивается с реальной, шумной средой. Это приводит к деградации качества предсказаний, снижению доверия со стороны бизнеса и, как следствие, торможению или остановке внедрения.</p> <p>На одном из FMCG-проектов мы обнаружили, что у клиента 12% SKU имели некорректные единицы измерения в учётной системе. Модель прогнозирования спроса на пилоте работала идеально, но при подключении к живым данным точность упала на 25 процентных пунктов за первый же месяц.</p> <p>Вторая причина — отсутствие «последней мили» до конечного пользователя. Модель может выдавать прекрасные прогнозы, но, если результат приходит в виде CSV-файла на почту, а не встроен в рабочий процесс закупщика или прораба, adoption стремится к нулю. Нет смысла в разработке инновационных моделей и сложных агентов, когда нет системы по использованию инструмента в бизнесе. В строительном проекте мы потратили больше времени на интеграцию результатов детекции дефектов в существующий workflow инспекции, чем на саму модель компьютерного зрения.</p> <p>Третья — экономика не сходится на масштабе. Пилот на 500 SKU обслуживает один специалист по данным вручную. Когда ассортимент вырастает до <nobr>5-10 тыс.</nobr> позиций, нужна автоматизация переобучения, мониторинг деградации модели и поддержка инфраструктуры. Но расходы на доработку часто превышают ожидаемый эффект.</p> <p>ИИ-решение должно проектироваться сразу как масштабируемый продукт с понятной unit-экономикой, а не как локальный эксперимент. Иначе экономика расходится с реальностью.</p> <h3>Что ломается технически: данные, инфраструктура, мониторинг</h3> <p>Самый недооценённый этап — это data engineering. В enterprise-среде данные распределены по десяткам систем, каждая из которых имеет собственные форматы, различную частоту обновления, ограничения по доступу и уровень качества. Это создаёт высокую степень фрагментации и усложняет формирование единого, согласованного источника данных для моделей.</p> <p>На практике от 60 до 70% времени проекта уходит не на разработку модели, а на построение надёжного и воспроизводимого пайплайна данных: извлечение, очистку, трансформацию, согласование и контроль качества. Именно на этом этапе закладывается устойчивость будущего решения.</p> <p>Недооценка роли инженерии данных приводит к тому, что даже сильные модели оказываются зависимыми от нестабильных входных данных, а их поведение — непредсказуемым в продуктивной среде. В результате возрастает стоимость сопровождения, увеличиваются риски сбоев и снижается доверие со стороны бизнеса.</p> <p>В FMCG-проектах я работал с интеграциями через SOAP API к «1С», где данные обновляются с задержкой в <nobr>24-48</nobr> часов и могут ретроспективно корректироваться. Это означает, что модель должна уметь работать с «плывущей» историей. Но это требование, которое редко закладывают на этапе пилота.</p> <p>Инфраструктурно пилот живёт на ноутбуке аналитика или в Jupyter-ноутбуке в облаке. Продуктив требует контейнеризации, CI/CD, автоматического масштабирования и, что критично для российского рынка, — возможности развёртывания в закрытом контуре без доступа в Интернет.</p> <p>Однако во многих компаниях политика информационной безопасности запрещают любые облачные решения. В итоге вся инфраструктура ML должна работать на внутренних серверах с ограниченными ресурсами.</p> <p>Отдельная проблема — мониторинг модели в продуктиве. Без системы отслеживания data drift и деградации качества модель тихо угасает за <nobr>2-4 месяца.</nobr> Причем не всегда можно быстро заметить ошибки. Поэтому без постоянного мониторинга есть риск работать с моделью, которая продолжит выдавать рекомендации на основе неверных паттернов.</p> <h3>Как выстроить экономику ИИ-продукта</h3> <p>Экономика ИИ-продукта не возникает сама по себе. Её нужно проектировать так же осознанно, как архитектуру системы. Многие команды сначала делают модель, а уже потом решают её экономический смысл.</p> <p>Главная ошибка — считать ROI от модели, а не от системы. Метрики вроде WAPE на уровне <nobr>55-60%</nobr> остаются абстракцией и не отражают бизнес-ценность сами по себе. Для принятия инвестиционных решений необходима прямая связка с операционными и финансовыми показателями.</p> <p>Корректная постановка — перевод качества модели в измеримый экономический эффект: сокращение упущенных продаж на <nobr>8-12%,</nobr> снижение товарных остатков на <nobr>15-20%,</nobr> высвобождение оборотного капитала и т. д.</p> <p>Такие показатели формируют язык диалога с CFO и служат основанием для принятия решений о масштабировании и бюджетировании.</p> <p>Мы пришли к следующей структуре затрат для типового enterprise-проекта:</p> <ul> <li> <nobr>30-40%</nobr> бюджета уходит на data engineering и интеграции;</li> <li><nobr>15-20% —</nobr> на <nobr>ML-разработку;</nobr></li> <li><nobr>20-25% —</nobr> на фронтенд и UX для конечных пользователей;</li> <li> оставшиеся <nobr>15-25% —</nobr> на мониторинг, поддержку и доработку в первый год эксплуатации.</li> </ul> <p>При этом экономика масштабирования работает нелинейно. Первый клиент обходится дорого — нужно построить весь стек с нуля. Второй и третий клиент в той же отрасли обходятся в <nobr>3-4</nobr> раза дешевле за счёт повторного использования пайплайнов данных и адаптированных моделей. Именно поэтому для студий виртуализации критически важна отраслевая специализация.</p> <h3>Что делать: чеклист перед масштабированием</h3> <p>Прежде, чем переводить пилот в продуктив, стоит проверить несколько вещей.</p> <p>Во-первых, есть ли автоматический пайплайн данных, или модель питается ручными выгрузками.</p> <p>Далее, оценить, встроен ли результат работы модели в существующий бизнес-процесс, или инструмент будут игнорировать. Также убедиться, что заложены мониторинг качества модели и алерты на деградацию. Посчитана ли стоимость владения на 12 месяцев, включая поддержку и доработки?</p> <p>И наконец, есть ли «внутренний мотиватор» на стороне клиента, то есть человек, который будет «продавать» систему своим коллегам после того, как подрядчик уйдёт?</p> <p>Если хотя бы на два вопроса ответ «нет» — проект с высокой вероятностью не переживёт первый квартал после запуска.</p> <p>ИИ в enterprise — это не про модели. Это про системы, которые работают с грязными данными, вписываются в существующие процессы и приносят измеримый результат. Компаниям, которые это понимают на старте, удаётся сократить путь от пилота до продуктива с <nobr>12-18</nobr> месяцев до <nobr>4-6.</nobr> И главное, получить возврат инвестиций уже в первый год.</p> <p>#IMAGE_234618#</p> Когда мы говорим об ИИ-проектах, на уровне пилота результаты часто впечатляют: точность растёт, процессы … article Артем Розинский, СТО Insight AI «Я начал терять способность программировать»: разработчики пытаются понять реальные плюсы и минусы ИИ-кодирования https://www.itweek.ru/themes/detail.php?ID=234616 Tue, 07 Apr 2026 10:07:10 +0300 <p><em>Инструменты для программирования с использованием искусственного интеллекта, такие как Claude Code и большие языковые модели (LLM), трансформируют разработку ПО, возрождая страсть к программированию у возрастных специалистов (сеньоров) и одновременно вызывая опасения по поводу качества кода, сообщает портал </em><em>The</em> <em>New</em> <em>Stack</em><em>.</em></p> <p>Возможно, все началось в феврале, когда <nobr>51-летний</nobr> программист и предприниматель Пол Форд написал <a href="https://www.nytimes.com/2026/02/18/opinion/ai-software.html?unlocked_article_code=1.WVA.bDAw.CVwHQtIcgLoQ&smid=url-share">гостевое эссе</a> для The New York Times, восторженно заявив, что «ИИ-революция уже наступила». ИИ-нструменты для кодирования становятся все сильнее — как и надежды и опасения программистов, которых они вытесняют. В онлайн-среде уже идет сложный, происходящий в режиме реального времени процесс переосмысления.</p> <p>В своем эссе Форд приветствует возможности, открывающиеся благодаря более быстрому и дешевому ИИ-кодированию: «Приятно видеть, как старые идеи оживают», — пишет он, возвращаясь к давно заброшенным проектам.</p> <p>В середине марта в The New York Times была <a href="https://www.nytimes.com/2026/03/12/magazine/ai-coding-programming-jobs-claude-chatgpt.html?unlocked_article_code=1.TFA.JuvB.P-MSK-ymmFUc&smid=url-share">опубликована</a> статья Клайва Томпсона на основе интервью с более чем 70 разработчиками ПО из Google, Amazon, Microsoft и стартапов. Общий вывод таков: «Большинство были странно воодушевлены своими новыми возможностями. Меня удивило, сколько разработчиков ПО сказали, что они рады больше не писать код вручную. Большинство заявили, что по-прежнему чувствуют прилив успеха, даже когда ИИ пишет строки кода».</p> <p>Но другие продолжали выражать более глубокие опасения. Пиа Торейн, инженер-программист Point Health A.I., рассказала Томпсону, что после четырех месяцев ежедневной отправки сотен запросов она «начала терять способность к программированию». Она предупреждает, что это может быть главной опасностью чрезмерной передачи программирования в руки ИИ. Теперь Торейн сознательно старается замедляться и осваивать всю архитектуру и рабочий процесс программы,</p> <p>«Если ты этим не пользуешься, ты это потеряешь», — сказала она Томпсону. И это создает еще большую дилемму для начинающих разработчиков, как метко <a href="https://news.ycombinator.com/item?id=47287250">выразился</a> автор недавнего комментария на Hacker News. «Если никто не нанимает начинающих разработчиков (джуниоров), потому что LLM могут выполнять работу для начинающих быстрее и дешевле, как кто-либо сможет стать экспертом?».</p> <p>Эта проблема проявляется по-разному. «В какой-то момент я подумал, что, когда стану старше, было бы неплохо начать учить других, — <a href="https://news.ycombinator.com/item?id=47284841">размышляет</a> один из комментаторов в ветке Hacker News. — Но у студентов есть бесконечное количество учителей на YouTube, а теперь у них есть Gemini/Claude/ChatGPT, которые просто потрясающие». Уже сейчас кажется, что преподаватель-человек мало что может предложить, считают они, и с учетом темпов совершенствования инструментов, человеческое обучение может сойти на нет в течение двух лет.</p> <p>Ускорение программирования порождает свои проблемы, включая опасения по поводу качества кода и вопросы о том, останется ли экспертность более или менее ценной в мире, наполненном мощными ИИ-кодерами, а также о повышенном риске выгорания разработчиков.</p> <p>По мере того, как новые инструменты преобразуют наш мир, эти дискуссии становятся все громче, а ведущие издания и онлайн-дискуссии освещают эти изменения с разных точек зрения, демонстрируя, что индустрия сейчас осмысливает новые инструменты программирования ИИ и преобразования, которые они приносят — как негативные, так и позитивные последствия.</p> <h3>Страсть и скорость против качества и экспертности</h3> <p>Дискуссия разгорелась в полную силу в начале апреля на Hacker News, когда <nobr>60-летний</nobr> программист <a href="https://news.ycombinator.com/item?id=47282777">написал</a>, что Claude Code «вновь разжег страсть». Эта ветка собрала 1086 голосов «за» и 989 комментариев с новыми историями и анекдотами, но также и с некоторыми спорами и опасениями. (Несколько дней спустя было опубликовано своего рода опровержение, в котором <a href="https://news.ycombinator.com/item?id=47386813">утверждалось</a>, что Claude Code «убил страсть»).</p> <p>За последние несколько месяцев более мощные инструменты ИИ явно повысили производительность некоторых программистов — особенно тех, кто находится на более поздних этапах своей карьеры. Среди 989 комментаторов был программист Джон Калхун, описывающий себя как старого автора shareware-программ для Macintosh, который начал работать в Apple в 1995 г. Он признался, что «с помощью вайб-кодинга написал веб-сайт, который бы иначе не стал делать... И я уже поставил в очередь пару своих заброшенных проектов...».</p> <p>Возрождение заброшенных проектов, похоже, происходит по всему миру. <nobr>62-летний</nobr> программист Рейни Урбан из Дрездена рассказал, что кодирующие <nobr>LLM-агенты</nobr> «снова разожгли во мне страсть. Скоро я разархивирую старые проекты, которые было слишком сложно продолжать. С Opus это наконец-то станет возможным». А <nobr>51-летний</nobr> инженер-электрик и предприниматель из Бостона Джон Рейн написал: «Это придало мне смелости стать основателем-одиночкой».</p> <p>Но среди 70 разработчиков ПО, опрошенных Томпсоном, было и страстное меньшинство, которое, по его словам, теперь «активно избегает» инструментов ИИ, включая анонимного инженера Apple, который по-прежнему хочет писать весь свой код самостоятельно. «Это может быть весело, полезно и увлекательно, а когда компьютер делает это за тебя, то лишает тебя всего этого», — сообщили они, настаивая на том, что не хотят «отдавать на аутсорсинг» свою страсть.</p> <p>Также существуют опасения по поводу качества кода. Как выразился один из комментаторов Hacker News: «LLM довольно хороши в программировании, но ужасны в разработке ПО... В данный момент я пытаюсь исправить приложение, написанное методом вайб-кодинга: хотя каждая отдельная функция в порядке, в целом приложение представляет собой полный хаос, что вызывает множество проблем».</p> <p>Одним из комментаторов был Джоэл Дэйр, <nobr>50-летний</nobr> инженер-программист из Юты, который пожаловался, что после 40 лет работы в этой отрасли «у меня развилась низкая терпимость к архитектурному упадку». Например, когда он забыл сказать Claude, чтобы тот не использовал фреймворки для проекта на Node, в итоге у него оказалось 89 зависимостей. «В мире, где мы ставим „скорость“ выше поддержки, это статус-кво. Для меня это неприемлемо. Я попробую еще раз, но нам <em>необходимо</em> профессионально управлять этими инструментами, по крайней мере, сейчас...», — считает Дэйр</p> <p>С другой стороны, несколько комментаторов отметили, что инструменты ИИ просто повышают ценность их экспертных знаний, а один из ведущих разработчиков ПО считает, что ИИ «усиливает то, что я делаю хорошо — архитектуру, отладку и принятие правильных технических решений».</p> <p>А <nobr>63-летний</nobr> Крис Маршалл, который программирует с 1983 г., сказал: «Я чувствую, что мой опыт... имеет решающее значение для использования LLM для разработки чего-то, что можно выпустить. Мне пришлось научиться работать с LLM, и я думаю, что нашел свой путь».</p> <p>Интересный анализ представил инженер-программист и основатель компании Хуан Рейеро, который занимается программированием уже 40 лет и видит в этой дискуссии два лагеря. «Я думаю, что самая большая разница заключается в том, что кто-то в основном получает удовольствие от самого процесса кодирования (тщательно создавая красивый код...), а кто-то получает удовольствие от готового, хорошо структурированного и работающего кода и в основном воспринимает сам процесс его написания как раздражающее отвлечение».</p> <p>Как выразился Дэйр, ИИ-кодирование «по-прежнему требует нашего опыта для управления им». Хотя он также добавил: «Я не уверен, будет ли так же через год, но сегодня это так».</p> <h3>Хорошие новости, плохие новости</h3> <p>Возможно, ничто так не характеризует неоднозначную реакцию на инструменты ИИ-кодирования, как высказывание инженера-программиста Стива Йегге, который, приближаясь к своему <nobr>57-летию</nobr> в январе, отметил на Medium, что «выдает тысячи строк производственного кода в день... и вообще получает от этого огромное удовольствие». (В статье в Times Йегге говорит, что сейчас он «в 10, 20 и даже 100 раз продуктивнее, чем когда-либо за свою карьеру... Как будто мы всю жизнь ходили пешком»).</p> <p>В его профиле на LinkedIn его профессия теперь указана как «ИИ-няня», поскольку он наслаждается экспоненциальным ростом своих способностей благодаря мощным роям ИИ-агентов и оркестраторов.</p> <p>Но для Йегге вся эта продуктивность имеет и непредвиденные побочные эффекты. Он и двое его коллег решили, что «высококлассный вайб-кодинг нарушает наши циклы сна». («В прошлом году такого не было. Это началось только тогда, когда мы стали работать одновременно с десятком или более агентов и обрабатывать большие объемы работы...»).</p> <p>«Наша гипотеза заключается в том, что мы работаем на таком высоком уровне принятия решений, что истощаем некоторые внутренние резервы и нам нужно время для градиентного спуска, прежде чем мы сможем продолжить. Но мне кажется, что... это очень утомительно», — <a href="https://steve-yegge.medium.com/the-ai-vampire-eda6e4f07163">пишет</a> Йегге.</p> <h3>Настоящая находка для сеньоров?</h3> <p>Возможно, эта вновь обретенная способность кодировать особенно важна для возрастных программистов. Кент Бек, <nobr>64-летний</nobr> гуру программирования, даже рассказал Томпсону, что он почти перестал программировать 10 лет назад, разочарованный языками и инструментами, но LLM вернули его к программированию. (Признавая это чувство удовольствия, Бек сказал, что непредсказуемость ИИ «вызывает привыкание, как игровой автомат».)</p> <p>Крис Маршалл, которому 63 года, даже видит в этом решение проблемы скрытого эйджизма. «Больше всего меня расстраивало после выхода на пенсию отсутствие людей, готовых работать со мной, — <a href="https://news.ycombinator.com/item?id=47286598">написал</a> он в онлайн-дискуссии. — Всю свою карьеру я работал в командах, и необходимость работать в одиночку ограничила мои возможности. Мне кажется, что LLM позволили мне снова мечтать о большем». Хотя он остается программистом на пенсии, он пишет: «Мне нравится кодировать в паре с <nobr>LLM-партнером</nobr> ».</p> <p>По мере того, как комментарии на Hacker News накапливались, некоторые опытные программисты подробно рассказывали о том, что их привлекает в программировании с использованием ИИ. <nobr>52-летний</nobr> Дуглас Тарр написал, что программирование «вручную» возвращает воспоминания о <nobr>12-часовых</nobr> рабочих днях и «меня утомляет даже мысль об этом... Я уже слишком стар для этого, у меня болит спина, если я слишком долго сижу, и иногда у меня бывают мигрени, если я слишком долго смотрю на экран...».</p> <p>Но самым обнадеживающим был <a href="https://news.ycombinator.com/item?id=47287667">отклик</a> от программиста из Миннесоты Т.Ку. Уайта, который написал свою первую программу в 1967 г. Он сообщил, что ИИ-инструменты программирования решили его главную проблему: «Изоляция, которую испытывает программист-пенсионер, — это настоящая жесть...»</p> <p>Он пошутил, что «мне не следует считать ИИ адекватной заменой из-за страха, что критики скажут, что я нездоров...». Но затем добавил: «Между нами говоря, как бы я ни скучал по общению с реальными людьми, возможность обсуждать идеи с сущностью, которая знает практически всё и способна выполнять мою волю без жалоб, — ​​это неплохо. И приятно иметь кого-то, что-то, с кем, чем можно поговорить о технических идеях. Сейчас прекрасное время, чтобы чувствовать себя живым...»</p> Инструменты для программирования с использованием искусственного интеллекта, такие как Claude Code и большие языковые … article VK Tech представил обновления супераппа VK WorkSpace https://www.itweek.ru/themes/detail.php?ID=234614 Mon, 06 Apr 2026 15:48:05 +0300 <p>VK Tech представил обновления супераппа VK WorkSpace. Обновление доступно в облачной версии. Для организаций, которые разворачивают платформу в собственном контуре, добавлена возможность брендирования приложений VK WorkSpace на ПК и мобильных устройствах.</p> <p>В веб-версии слева появилась вертикальная панель навигации, в которой собраны ключевые сервисы VK WorkSpace. Обновление реализовали по результатам исследования, которое провела команда продукта: пользователи отметили, что вертикальная панель удобнее, проще в освоении и визуально привлекательнее горизонтальной. Кроме того, если раньше сервисы открывались в разных вкладках, то теперь переключение между ними происходит в одной.</p> <p>Расширился набор сервисов, доступных в панели: к Почте, Мессенджеру, Календарю и Диску добавились инструменты для совместной работы: интерактивное пространство для визуализации идей Доска VK WorkSpace и сервис для совместного создания и редактирования текстов, таблиц и презентаций Документы VK WorkSpace. Они также открываются в единой вкладке супераппа.</p> <p>Одновременно упростился процесс авторизации: достаточно один раз ввести логин и пароль от корпоративной Почты, чтобы получить доступ ко всем сервисам VK WorkSpace.</p> <p>Для компаний, развернувших VK WorkSpace в собственном контуре, стала доступна возможность создания брендированных приложений на всех платформах. Заказчик получает корпоративные сервисы с логотипом, собственным названием и цветовой палитрой по брендбуку, которые можно выложить в магазины приложений от своего имени.</p> <p>Это позволяет организациям представить сотрудникам платформу как корпоративный инструмент под брендом компании, что усиливает доверие к продукту и органично вписывает его в корпоративную культуру.</p> <p>«Мы развиваем платформу VK WorkSpace как продукт, за который команда скажет „спасибо“. Одно из важнейших направлений нашей работы — улучшение пользовательского опыта. Обновление веб-версии супераппа — шаг в этом направлении: мы упростили вход, переключение между сервисами и сделали навигацию ближе к привычному опыту пользователей настольного приложения», — отметил руководитель направления сервисов продуктивности VK Tech Петр Щеглов.</p> VK Tech представил обновления супераппа VK WorkSpace. Обновление доступно в облачной версии. Для организаций … message BI.ZONE: каждая пятая российская компания взломана и не знает об этом https://www.itweek.ru/themes/detail.php?ID=234612 Mon, 06 Apr 2026 15:44:50 +0300 <p>Специалисты BI.ZONE Compromise Assessment установили, что злоумышленники присутствуют в инфраструктуре каждой пятой компании, которая обращается для проверки на предмет компрометации. В отличие от реагирования на инцидент такая проверка проводится в профилактических целях, без признаков нарушения процессов компании со стороны атакующих.</p> <p>Владимир Гришанов, руководитель BI.ZONE Compromise Assessment, пркомментировал: «Большинство выявленных случаев скрытого присутствия (60%) приходится на кластеры, нацеленные на кибершпионаж. Это не означает, что именно кибершпионы атакуют российские компании чаще всего: просто специфика этих группировок такова, что им для достижения своих целей необходимо долго находиться в инфраструктуре жертвы, незаметно собирая чувствительную информацию. Этим они отличаются, к примеру, от финансово мотивированных кластеров, использующих шифровальщики, — те, как правило, проводят атаку стремительно и могут находиться в инфраструктуре не больше нескольких дней».</p> <p>Еще 20% случаев выявленного скрытого присутствия в инфраструктуре приходится на долю хактивистских кластеров активности.</p> <p>На ранних этапах атаки, связанных с получением доступа и первоначальным закреплением, злоумышленники, как правило, скрываются на том хосте, на который им изначально удалось проникнуть. Чаще всего это узлы на периметре сети или в DMZ — части сети с публичной IP-адресацией, отделенной и от интернета, и от внутренней сети организации межсетевым экраном. Это почтовые серверы, серверы веб-приложений, VPN-шлюзы или системы, обслуживаемые подрядчиками. Такие хосты доступны извне, регулярно взаимодействуют с внешней средой и потому представляют собой удобную точку входа для атакующих.</p> <p>Если же злоумышленникам удалось повысить привилегии и получить более глубокий контроль над инфраструктурой, они стремятся закрепиться в ключевых системах организации. В первую очередь это доменные контроллеры, системы виртуализации и серверы резервного копирования. Контроль над этими узлами позволяет атакующим управлять учетными записями, влиять на всю IT-инфраструктуру компании.</p> <p>Внутри самих систем механизмы закрепления чаще всего реализуются через автозапуск-службы, задания планировщика, изменения в конфигурации или легитимные механизмы инициализации приложений. Это позволяет вредоносному коду автоматически запускаться даже после перезагрузки и подолгу сохранять доступ к системе.</p> <p>По данным исследования Threat Zone 2026, в целях шпионажа совершается 37% всех атак, нацеленных на российские организации. Шпионские кластеры активно используют легитимные инструменты, а также ВПО собственной разработки. Все это позволяет им эффективнее обходить средства защиты и дольше оставаться в инфраструктуре незамеченными.</p> Специалисты BI.ZONE Compromise Assessment установили, что злоумышленники присутствуют в инфраструктуре каждой пятой … message Как устроен цикл “угроза — экспертиза — защита”: путь от получения образцов вредоносного ПО до появления защитных правил в продуктах https://www.itweek.ru/themes/detail.php?ID=234606 Mon, 06 Apr 2026 11:05:29 +0300 <p><em>Работа вендора над информационной безопасностью начинается задолго до того, как защита попадает в продукт и становится доступной клиентам. Новые уязвимости и вредоносные инструменты требуют постоянного мониторинга, воспроизведения атак, разработки детектирующей логики и регулярных обновлений. Этот процесс представляет собой непрерывный цикл, где скорость реакции должна сочетаться с качеством и минимизацией ложных срабатываний. Рассмотрим, как он устроен и как добиться оптимального баланса</em><strong><em>.</em></strong></p> <h3>Закладка фундамента: сбор информации</h3> <p>Цикл работы внутри вендора начинается со сбора информации. На этом этапе ведется мониторинг инфополя — собираются упоминания о новых угрозах, уязвимостях, уже совершенных атаках и инструментах, которые используют злоумышленники. В качестве источников могут выступать профильные СМИ, публикации специалистов, заметки других вендоров. Кроме того, постоянно ведется обмен данными внутри профессионального сообщества.</p> <p>Далее полученные данные анализируются и проходят внутренние критерии отбора. Они помогают понять суть уязвимости и выяснить, какие механизмы она затрагивает, а также определить, есть ли в продуктовой линейке готовое решение, которое может ее устранить. Критерии зависят от типа продукта и включают приоритизацию по распространенности программного обеспечения, резонансности уязвимости и ее релевантности для рынка. Фокус делается на тех угрозах, которые могут затронуть большинство клиентов и требуют оперативного закрытия.</p> <p>В ряде случаев внутренняя аналитика позволяет выявлять проблемы еще до того, как они становятся широко известны. Так, в ходе анализа одного из мессенджеров были обнаружены серьезные недостатки в шифровании. Из-за недостатков в реализации механизма генерации сеансового ключа появилась возможность доступа к групповым чатам и подмены сообщений. Подобные находки также выступают основой для определения логики защиты и ее внедрения в программное обеспечение.</p> <h3>Воспроизведение атак и создание детектирующей логики</h3> <p>После прохождения критериев отбора начинается этап воспроизведения. На этой стадии идет моделирование атаки. Уязвимая инфраструктура воссоздается в лабораторных условиях. Затем инженер ИБ берет на себя роль злоумышленника и максимально полно воспроизводит его действия. Эта работа позволяет получить цифровые артефакты атаки. Они могут проявляться в журналах событий, сетевом трафике, поведении приложений. Эти маркеры собираются и анализируются, чтобы определить, каким продуктом лучше закрыть конкретную уязвимость. Если следы остаются в событиях, речь идет о SIEM. Если атака видна в трафике — о системе обнаружения вторжений. Если направлена на веб-приложение — логика добавляется в WAF. В случаях, когда атака затрагивает сразу несколько уровней, обнаружение внедряется сразу в несколько продуктов.</p> <p>Отдельная сложность состоит в том, что не всегда существуют готовые эксплойты. Иногда доступно только описание механизма, и тогда приходится предполагать развитие событий, чтобы выявить корень проблемы. Это позволяет строить более устойчивое обнаружение, которое опирается на принцип атаки, а не на ее отдельные вариации.</p> <p>После разработки правил проводится валидация. Она включает воспроизведение атаки с уже написанными детекторами, проверку корректности работы и тестирование легитимной активности, позволяющее избежать ложных срабатываний. Затем все это доставляется клиентам, от них вендор получает фидбэк, смотрит, как все происходит в реальности. А дальше цикл запускается по новой, потому что с течением времени уязвимостей становится все больше, появляется новая информация. Весь этот путь — постоянный цикл улучшений, проходящий через практически все перечисленные выше этапы.</p> <h3>Баланс между скоростью и качеством</h3> <p>Когда возникает новая уязвимость, бизнес по понятным причинам хочет закрыть ее прямо сию же секунду — или хотя бы так быстро, как только возможно. В свою очередь, очевидно, что вендору для построения надежного заслона требуется время, и чем тщательнее он проводит анализ, тем дольше идет процесс. Где искать золотую середину? На практике баланс между скоростью выпуска и качеством достигается за счет итеративного подхода. При появлении эксплойта в публичном доступе сразу же появляется немало желающих его испытать, т. е. начинается массовая эксплуатация. Особенно это актуально для популярных программных решений. К примеру, год назад была очень резонансная волна атак, которые проводились через зараженные серверы Microsoft Exchange. В результате хакеры перехватывали в открытом виде пароли и логины от Microsoft OWA. Атакам подверглись серверы в десятках стран, в том числе в России, при этом жертвами стали крупные компании и государственные организации.</p> <p>Поэтому, когда речь идет о подобных уязвимостях и атаках, которые я не побоюсь сравнить с пандемией, то в первой итерации лучше пожертвовать качеством и универсальностью, но взамен эффективно отразить именно ту конкретную вариацию, которая в настоящий момент актуальна. А уже после этого можно дорабатывать решение, повышать качество, разрабатывать инструменты против семейства подобных атак, чтобы у клиента усиливалась защита и появлялся задел на будущее. Параллельно запускается работа с клиентами, отправляются информационные рассылки с новостями, заметками, руководством к действию и т. п. Если же эксплойта в общем доступе нет, то приоритеты сдвигаются от скорости к качеству, и есть возможность уже на старте заложить логику для закрытия не только этой конкретной уязвимости, но и ее будущих вариаций.</p> <p>Важно понимать, что защита требует постоянного пересмотра. Бывали случаи, когда уязвимость считалась закрытой, но уже через неделю появлялось описание, как ее задействовать снова, где вендор не запатчил ее полностью и где остались альтернативные пути эксплуатации. Поэтому нужно постоянно отслеживать, что происходит, какие новые подробности об уязвимости появляются. Иначе говоря, стоит всегда быть готовым оперативно обновить защиту.</p> <p>Существуют также методы получения информации до появления эксплойта в открытом доступе. Назвать их предугадыванием будет слишком громко, однако и они вносят свой вклад в ИБ. Например, анализ патча через обратную разработку позволяет выявить место уязвимости и понять, как она может быть использована, чтобы заранее подготовить детектирующую логику.</p> <h3>Синергия как ключ к защите</h3> <p>После того как клиент получает продукт, ему необходимо в том числе следить за тем, чтобы было включено обновление, а также удостовериться в правильности настроек. Иначе говоря, он не может на 100% полагаться на вендора и при этом полностью бездействовать. Вендор не знает, как устроена конкретная инфраструктура, поэтому клиент тоже отвечает за использование инструментов, полученных от поставщика. Грамотная настройка решает очень много проблем. Если все настроено правильно, если все обновления включены, то вы можете быть уверены в том, что получите актуальный контент, который поможет вам защититься.</p> <p>С другой стороны, создание защитной логики невозможно без экспертов на стороне вендора, которые занимаются анализом угроз и разработкой детекторов. Важна синергия опытных сотрудников и молодых специалистов, которые учатся в боевых условиях и привносят альтернативный взгляд. Именно наличие такой команды определяет способность вендора оперативно реагировать на новые угрозы.</p> <p> #IMAGE_234607#</p> Работа вендора над информационной безопасностью начинается задолго до того, как защита попадает в продукт … article Максим Подобаев, руководитель направления продуктовой экспертизы UserGate uFactor Forrester: искусственный интеллект заставляет переосмыслить архитектуру приложений https://www.itweek.ru/themes/detail.php?ID=234604 Mon, 06 Apr 2026 10:34:05 +0300 <p><em>В течение многих лет архитекторы решений работали над модернизацией архитектуры приложений: декомпозицией монолитных систем, предоставлением доступа к бизнес-возможностям через API и внедрением событийно-ориентированного дизайна. Эта работа не меняется. Но быстрое внедрение искусственного интеллекта в архитектуру приложений коренным образом меняет то, как архитекторы решений оркестрируют и проектируют приложения, пишет в корпоративном блоге Дэвид Мутер, главный аналитик </em><em>Forrester</em><em>.</em></p> <p>В новом отчете Forrester «Rearchitecting Applications For The Age Of AI» проводится исследование, почему ИИ не просто добавляет еще один компонент к существующим архитектурам. Вместо этого он оказывает давление на некоторые давние архитектурные аспекты и поощряет организации, которые делают упор на другие аспекты.</p> <h3>Как ИИ меняет архитектуру приложений</h3> <p>Forrester выявила три сходящихся тренда, которые уже видны на рынке:</p> <ul> <li><strong> Адаптивная оркестрация процессов.</strong> Платформы оркестрации на основе ИИ все чаще используют вероятностное принятие решений — а не только детерминированные потоки — для координации бизнес-сервисов в среде выполнения. Это позволяет системам стремиться к результатам, а не просто выполнять предопределенные шаги. Это также бросает вызов архитектурам, построенным на основе жесткого, линейного управления процессами.</li> <li><strong> Генерация приложений на естественном языке.</strong> Платформы генерации приложений позволяют пользователям создавать приложения, описывая, что они хотят, а не как строить. Это ускоряет создание ПО и позволяет создавать гораздо более индивидуальные и эфемерные приложения, предназначенные для конкретных бизнес-задач. Это также смещает архитектурное внимание от статических приложений к многократно используемым сервисам, которые ИИ может собирать по запросу.</li> <li><strong> Пользовательский опыт, управляемый ИИ.</strong> Агентные интерфейсы отклоняются от традиционных моделей взаимодействия на основе кликов и касаний. Вместо того чтобы направлять людей по линейным потокам UX, агенты ИИ интерпретируют намерения и действуют от имени пользователя. Эта инверсия — адаптация машин к людям, а не наоборот — разрушает архитектурные шаблоны, разработанные на основе линейных фронтендов и поддерживающих их бэкенд-сервисов для фронтенда.</li> </ul> <p>В совокупности эти факторы приводят к общей теме: ИИ должен иметь возможность динамически оркестрировать бизнес-возможности в рамках установленных ограничений, а не быть ограниченным линейными потоками приложений.</p> <h3>Где ИИ дает сбои и что он укрепляет</h3> <p>Однако это не означает, что с ИИ «все меняется». На самом деле, некоторые архитектурные основы становятся более, а не менее важными.</p> <p>Сложности у ИИ возникают на самых низких уровнях абстракции. Оркестрация низкоуровневых технических API или тесно связанных корпоративных приложений быстро перегружает агентов ИИ. ИИ преуспевает в работе с четкими сервисами бизнес-уровня, которые инкапсулируют намерения, правила и результаты.</p> <p>В результате архитектуры, построенные вокруг немодульных приложений или фрагментированных технических API, страдают недостатками. И наоборот, предприятия, которые инвестируют в бизнес-API — те, которые отражают бизнес-возможности и потоки создания ценности — оказываются в лучшем положении, чтобы позволить ИИ безопасно и эффективно создавать новые процессы. Архитектура приложений становится меньше связана с проектированием жестких приложений и больше с проектированием строительных блоков, которые ИИ может надежно использовать.</p> <h3>Контекст становится архитектурной проблемой</h3> <p>Одним из наиболее важных следствий агентного ИИ является необходимость контекста реального времени. Под «контекстом» подразумеваются данные и их семантическое значение. Некоторые могут назвать это семантическим слоем. Но сосредоточение исключительно на семантике упускает из виду важность доставки данных в большие языковые модели (LLM) в реальном времени. И то, и другое жизненно важно. Это приводит к появлению нового архитектурного слоя, ориентированного именно на контекст. Стандарты, такие как MCP, указывают на то, как этот слой может развиваться, позволяя агентам обнаруживать, понимать и безопасно вызывать корпоративные возможности в масштабе.</p> <p>Для архитекторов решений это меняет подход к управлению и проектированию: вместо контроля каждого пути через приложение с помощью Experience APIs, которые адаптируют и оркестрируют бизнес-API для конкретных технических или бизнес-потребностей, целью становится определение безопасных границ, в рамках которых ИИ может работать автономно, руководствуясь контекстом реального времени.</p> <p>В результате происходит отход от традиционной модели приложений с разноуровневыми API, когда контекст заменяет слой Experience APIs.</p> <p>#IMAGE_234605#</p> <h3>Возможности для архитектора</h3> <p>Архитекторам решений, которые придерживаются мышления, ориентированного на приложения, придется противостоять естественной операционной модели ИИ. Те, кто переключит свое внимание на проектирование бизнес-возможностей, границы оркестрации и контекст реального времени, станут важными проводниками в реализации ИИ-амбиций своих организаций.</p> В течение многих лет архитекторы решений работали над модернизацией архитектуры приложений: декомпозицией монолитных систем … article