Компания NVIDIA представила платформу DGX Cloud Lepton, предназначенную для глобального доступа к вычислительным ресурсам на базе ускорителей Blackwell и других моделей. Сервис объединит мощности партнёрских облачных провайдеров, включая CoreWeave, Lambda и Yotta, позволяя разработчикам ИИ-приложений использовать их как для временных задач, так и для постоянных проектов. По словам представителей компании, DGX Cloud Lepton станет связующим звеном между облачными инфраструктурами и создателями инновационных решений в области искусственного интеллекта.
Платформа решает ключевую задачу — обеспечивает стабильный доступ к высокопроизводительным ресурсам. Она интегрирована с программным стеком NVIDIA, включая микросервисы NeMo и NIM, что упрощает процессы обучения моделей и их внедрения. Среди преимуществ выделяют:
Для партнёров предусмотрено специализированное ПО, автоматизирующее мониторинг состояния ускорителей и диагностику сбоев, что сокращает простои.
Отдельно анонсирована инициатива Exemplar Clouds, направленная на стандартизацию оценки облачной ИИ-инфраструктуры. Она включает инструменты для анализа эффективности и стоимости решений, помогая бизнесу прогнозировать ROI при внедрении ИИ-нагрузок.