Brand logo light
  • Главная
  • Новости
  • К2 НейроТех и ФГАУ «ЦИТ» заложили технологический ИИ-фундамент: облачная платформа для промышленного ИИ

К2 НейроТех и ФГАУ «ЦИТ» заложили технологический ИИ-фундамент: облачная платформа для промышленного ИИ

Admin
Admin апрель 14, 2026 0

ИИ-интегратор полного цикла К2 НейроТех (входит в К2Тех) завершил создание облачной платформы на отечественном программно-аппаратном стеке для разработки и внедрения решений на основе искусственного интеллекта для Федерального государственного автономного учреждения «Цифровые индустриальные технологии» (ФГАУ «ЦИТ»). Подведомственные предприятия получили возможность развертывать ИИ-сервисы для промышленных нагрузок по модели AIaaS (ИИ как услуга) без капитальных вложений в собственную инфраструктуру, сохраняя при этом полный контроль над данными.  

Проект стал продолжением сотрудничества, начатого в 2025 году: после запуска вычислительного кластера команда К2 НейроТех сформировала на базе инфраструктуры заказчика единый облачный хаб для промышленного ИИ, выполнив весь цикл работ за 2 месяца – от проектирования архитектуры до ввода в эксплуатацию. Решение направлено на устранение ключевых инфраструктурных барьеров – дефицита GPU-мощностей, длительных сроков подготовки рабочих сред, непрозрачности учета и распределения вычислительных ресурсов, а также рисков, связанных с переходом на российские решения и защитой данных.

«Перед нами стояла амбициозная задача – создать единый хаб для запуска и масштабирования промышленного ИИ. В рамках проекта мы перешли от предоставления "голых" вычислительных ресурсов к созданию полноценной платформы, охватывающей весь цикл работы с моделями — от подготовки данных и обучения алгоритмов до их промышленной эксплуатации и мониторинга. Интеграция ML-платформы KageCore от вендора AIDA tech обеспечила необходимую производительность для ресурсоемких расчетов и высокий уровень безопасности при работе в изолированном контуре», – прокомментировал руководитель подразделения К2 НейроТех Александр Рожков.

Основой реализованного решения стала ML-платформа KageCore от российского вендора AIDA tech, входящая в единый реестр отечественного ПО. Решение объединило инфраструктурные (IaaS) и платформенные (PaaS) сервисы в защищенную экосистему. В качестве аппаратного слоя использовались серверы и системы хранения данных российского производства для полного контроля над жизненным циклом оборудования и гарантий по модернизации.  

Платформа KageCore обеспечивает полный цикл управления машинным обучением – от подготовки данных до развертывания моделей в промышленную эксплуатацию, предоставляя дата-сайентистам и ML-инженерам единую среду для работы с корпоративными данными при сохранении полного суверенитета над ними.

В основе архитектуры платформы – пять взаимосвязанных подсистем, обеспечивающих полное соответствие требованиям регуляторов к защите информации и технологическую независимость инфраструктуры. Портал самообслуживания представляет собой конструктор сервисов: пользователь может выбрать операционную систему, в том числе сертифицированные ФСТЭК ОС Astra Linux и РЕД ОС, необходимые компоненты и развернуть рабочую среду в одно касание. Слой виртуализации и контейнеризации развернут на отказоустойчивой конфигурации с настроенной системой мониторинга, которая собирает данные от аппаратного уровня до уровня пользовательских приложений, и максимальной утилизации GPU при обучении моделей, включая несколько центров обработки данных.

Ключевой элемент платформы – ML-среда на базе KageCore, объединяющая интерактивные блокноты Jupyter для работы дата-сайентистов и инструменты управления полным жизненным циклом моделей. Платформа предоставляет пользователям единую точку доступа — портал самообслуживания с системой квотирования и биллинга. Это дает возможность различным подразделениям и проектным группам самостоятельно и оперативно запрашивать необходимые для работы вычислительные мощности. Маркетплейс платформы включает предустановленные векторные базы данных, брокеры сообщений, инструменты безопасности и популярные ML-фреймворки — TensorFlow, PyTorch, ONNX, Kafka, MLFlow и другие компоненты, необходимые для промышленной разработки ИИ. За счет автоматизации развертывание типового рабочего окружения для задач ИИ теперь занимает менее 15 минут вместо нескольких дней ручной настройки. Ключевая особенность — гибкие сценарии работы с GPU: от выделения целиковых устройств для ресурсоемких задач обучения до гранулярного распределения vRAM объемом от 1 ГБ для инференса моделей, что позволяет экономить вычислительные ресурсы и запускать несколько моделей параллельно на одном физическом ускорителе. Замкнутый контур мониторинга в реальном времени агрегирует тысячи метрик и формирует детализированные дашборды для контроля всех уровней – от физической инфраструктуры до прикладных ИИ-сервисов.

Архитектура платформы поддерживает одновременную работу более 500 виртуальных машин и контейнеров с гарантированным уровнем доступности свыше 99%. Система функционирует в изолированном сегменте сети, что полностью соответствует требованиям по защите информации, обеспечивая технологическую независимость.  

Новый облачный хаб позволил закрыть критический разрыв между инфраструктурными ограничениями и потребностями исследовательских команд. Теперь ФГАУ «ЦИТ» предоставляет ресурсы как в классическом HPC-режиме через планировщик SLURM, так и в гибких средах виртуализации и контейнеризации. Подведомственные предприятия получили не просто доступ к GPU-мощностям, а готовую среду с предустановленным стеком ML-инструментов, протестированных на совместимость и готовых к промышленной эксплуатации. Исследовательские команды могут начинать работу сразу после авторизации в личном кабинете, не тратя недели на развертывание и настройку необходимого ПО.  

Платформа стала фундаментом для тестирования и разработки моделей, которые впоследствии вошли в обновленный Реестр отраслевых моделей машинного обучения и наборов данных, представленный ФГАУ «ЦИТ» в декабре 2025 года.

«Создание и сопровождение собственной высокопроизводительной инфраструктуры остается одним из главных барьеров внедрения ИИ в промышленности. Наша платформа, разработанная К2 НейроТех, позволила нам консолидировать вычислительные ресурсы и экспертизу и ускорить внедрение ИИ-решений, предоставляя предприятиям доступ к защищенным мощностям в формате сервиса», — подчеркнул директор ФГАУ «ЦИТ» Эдуард Шантаев.    

Теги

Новости

Подробнее
ИИ в России должен работать с ограничениями

Искусственный интеллект в России необходимо подвергнуть цензуре, ограничивающей «на входе и на выходе» определённые запросы и вопросы от пользователей, заявил замглавы Минцифры Александр Шойтов. Я считаю, что искусственный интеллект должен быть подвержен цензуре в отличие от гражданина. Людей у нас цензурировать нельзя, у них есть права. Александр Шойтов, замглавы Минцифры Напомню: 10 апреля президент России поручил правительству совместно с регионами подготовить национальный план внедрения ИИ с учётом отраслевых и территориальных задач. К 2030 году (чудесный год планируется) технологии ИИ должны получить широкое распространение во всех ключевых сферах — от промышленности и логистики до энергетики, образования и госуправления, отметил президент на совещании по вопросам развития технологий. При этом регулирование отрасли должно не ограничивать развитие, а стимулировать ускоренное внедрение решений, поскольку избыточные барьеры (экая ирония) могут привести к отставанию в экономике и технологиях. В марте Минцифры вынесло на общественное обсуждение законопроект о регулировании ИИ. Документ предусматривает требования к разработчикам и пользователям, меры поддержки инфраструктуры, а также возможность ограничения иностранных решений. В случае принятия закон вступит в силу с 1 сентября 2027 года. Да-да, там и о реестре, и о «национальных» моделях, всё на месте.

Admin апрель 14, 2026 0

«Дзен» могут сделать Национальной информационной платформой

GTA Online приносит создателям миллион долларов каждый день

«Ошеломляющий прогресс»: Карпати пояснил, почему рывок ИИ виден только в коде и математике

Anthropic превзошла OpenAI по итогам главной ИИ-конференции HumanX

Anthropic перехватила у OpenAI внимание ИИ-отрасли на конференции HumanX в Сан-Франциско, где присутствовали 6500 руководителей и основателей компаний. Главным предметом разговоров стал Claude Code — инструмент для написания программ, который укрепил позиции Anthropic среди крупных заказчиков и вывел компанию в центр самого быстрорастущего прикладного сегмента ИИ. Опрошенные изданием CNBC 19 руководителей и инвесторов называли Claude Code самым заметным продуктом, хотя отмечали сильные альтернативы со стороны OpenAI, Cursor и Google. Для Anthropic этот сдвиг важен из-за ранних успехов в работе с крупными заказчиками. Рост популярности средств, которые создают, редактируют и проверяют код, усиливает её шансы на контракты с самыми крупными покупателями. OpenAI запустила бум ИИ с выходом ChatGPT в 2022 году, но именно Anthropic сейчас выглядит лучше подготовленной к борьбе за самые большие бюджеты. Публичный спор с Пентагоном этому не помешал. В прошлом месяце конфликт быстро дошёл до суда: Министерство войны США (DoW) внесло Claude в чёрный список, однако после двух противоположных судебных решений Anthropic сохранила право работать с другими федеральными ведомствами, пока разбирательства продолжаются. Компания возникла в 2021 году, когда группа исследователей и руководителей ушла из OpenAI. Её стоимость оценивается в $380 млрд. Claude Code стал доступен широкой публике в мае 2025 года и по состоянию на февраль приносил более $2,5 млрд выручки в годовом исчислении. Anthropic представила ИИ-модель Claude Mythos Preview с расширенными возможностями в киберзащите, опирающимися на сильные навыки программирования и рассуждения. На HumanX эта новинка вызвала заметный интерес, хотя доступ к ней пока получили около 50 компаний. Глава Synthesia Виктор Рипарбелли объяснил успех Anthropic тем, что она не стала заниматься видео и голосовыми ИИ-моделями, а сосредоточилась на генерации кода. По его словам, OpenAI пришлось продвигать сразу 6 разных продуктов, и это рассеивало внимание потребителя. Один из инвесторов предупредил, что рынок ещё слишком молод, а нынешний импульс легко может уйти в другую сторону. Изменения происходят и в самих компаниях. Президент Decagon Эшвин Сринивас сказал, что появление средств для написания программ изменило и найм, и организацию работы. Соискателям разрешили пользоваться такими инструментами на собеседованиях, а проект, для которого раньше требовались 4-5 инженеров, теперь могут вести двое. Глава Credo AI Наврина Сингх сказала, что задачи, под которые в прошлом году пришлось бы нанимать 10 человек, теперь можно собрать за выходные и развернуть внутри компании. Одновременно, по её словам, стало сложнее удерживать под контролем план развития и обязательства перед крупными заказчиками, которым нужна большая ясность и большая устойчивость. Похожие сдвиги происходят и в Cisco. Президент компании Джиту Патель сказал, что ИИ уже используют около 85% инженерного состава, то есть примерно 18000 сотрудников. Cisco пришла к этому не тем путём, который ожидало руководство: сначала компании пришлось сделать приоритетом не результат, а само внедрение, исходя из того, что возможности ИИ-моделей будут и дальше расти. Патель предложил смотреть на такие системы не как на инструменты, а как на цифровых коллег: команда может состоять уже не из восьми человек, а из двух сотрудников и шести программных помощников или из двух сотрудников и бесконечного числа таких помощников. Большинство собеседников CNBC сильно беспокоят китайские ИИ-модели с открытыми весами. Так называют системы, у которых публично доступны параметры, улучшающие ответы и прогнозы в ходе обучения. По состоянию на апрель именно китайские ИИ-модели этого класса, включая GLM-5.1, Kimi K2.5 и Qwen3.5, лидировали в отраслевых испытаниях. Американские компании уже активно используют эти разработки. Cursor IDE построила свою ИИ-модель Composer 2 на Kimi 2.5, а глава Airbnb Брайан Чески говорил в октябре, что чат-бот компании в значительной степени зависит от Qwen компании Alibaba. Из-за этого сокращение отставания США в сегменте ИИ-моделей с открытыми весами стало одной из главных задач для части инвесторов: двое собеседников CNBC сказали, что направляют на это значительную долю времени и ресурсов, ещё один назвал проблему одной из ключевых для отрасли. Джайн добавил, что крупные компании всё осторожнее относятся к зависимости от одного или двух поставщиков ИИ: новые решения появляются у многих игроков, в том числе в среде открытой разработки, и заказчики хотят сохранять выбор.

Admin апрель 14, 2026 0

В России приняли ГОСТ на проверку сонливости водителя с помощью ИИ

К2 НейроТех и ФГАУ «ЦИТ» заложили технологический ИИ-фундамент: облачная платформа для промышленного ИИ

Пока США и Китай соревнуются в LLM, Япония строит супергиганта для физического ИИ

OpenAI объяснила путаницу с лимитами тарифов Pro

После запуска нового плана Pro за 100 долларов пользователи так и не получили внятного ответа, чем он отличается от уже существующего тарифа за 200 долларов. Разъяснения дал сотрудник OpenAI Тибо Соттио, который признал, что компания сама запутала аудиторию формулировками на странице с ценами. Тариф Pro за $100 включает десятикратный объем использования относительно Plus - с учетом действующего до 31 мая промо-множителя 2x. План за $200 дает как двадцатикратный объём Plus на тех же условиях. Как уточнил разработчик, у максимальной подписки этот лимит не менялся с февральского запуска бонуса 2x (просто раньше компания нигде не документировала конкретную цифру). Источник путаницы - строка на странице тарифов «5x or 20x usage». Многие закономерно решили, что с учетом бонуса 2x речь идет о «10x и 40x». Соттио объяснил, что OpenAI смешала два разных сообщения: факт того, что Pro за $100 стартовал сразу с множителем 2x (что и дает итоговые 10x до 31 мая), и информацию о том, что Pro за $200 сохраняет свой бонус 2x, который публично приравняли к 20x от Plus. Тибо пообещал, что страницу с тарифами обновят, и извинился за неясные формулировки. По итогу: до конца мая старший тариф дает ровно вдвое больше запросов, а не вчетверо, как можно было подумать согласно прайс-листу.

Admin апрель 14, 2026 0

Зафиксирован резкий рост дипфейков в рунете

Альфа-Банк получил награду за образовательный проект по ИИ для преподавателей

Марк Цукерберг создаёт себе ИИ-двойника, который будет общаться с подчинёнными за него

0 Комментарии