На конференции SC25 Дженсен Хуанг сообщил, что более 85% суперкомпьютеров из TOP100 используют графические процессоры.
Почему GPU вытесняют CPU?
До 2012 года машинное обучение основывалось на статистических моделях и эффективно работало на CPU. Поворотным моментом стал успех AlexNet, доказавший, что ИИ может учиться на примерах.
С тех пор параллельная обработка на GPU стала движущей силой прогресса в ИИ, больших языковых моделях (LLM), рекомендательных системах и автономных агентных системах. Топовые суперкомпьютеры на базе GPU достигают производительности 70,1 Гфлопс/Вт, тогда как CPU‑системы — лишь 15,5 Гфлопс/Вт.

«Три закона» масштабирования ИИ
NVIDIA выделяет три ключевых этапа развития ИИ, для которых критически важны GPU:
- Pre-training — обучение моделей на больших наборах данных, где увеличение параметров и объёмов данных улучшает точность.
- Post-training — доработка моделей для конкретных отраслей и языков.
- Test-time scaling — динамическое масштабирование во время инференса, когда модели оценивают и планируют решения в реальном времени.
Новые горизонты: генеративный и агентный ИИ
Платформы NVIDIA поддерживают 1,4 млн открытых моделей ИИ и позволяют строить системы генеративного и агентного ИИ, способные автономно воспринимать, рассуждать, планировать и действовать.
На конференции GTC 2025 NVIDIA продемонстрировала девять передовых гуманоидных роботов в рамках Project GR00T — универсальной платформы для робототехники. По прогнозам Morgan Stanley, к 2050 году может появиться 1 миллиард гуманоидных роботов.
