К 2028 году предприятия будут генерировать почти 400 зеттабайт данных ежегодно, при этом 90% новых данных будут неструктурированными — аудио, видео, изображения, PDF и др.
Чтобы справиться с этим масштабом и обеспечить «транспортировку» данных между локальной инфраструктурой и «облаком», NVIDIA представила RDMA для S3-совместимых хранилищ. Технология использует удалённый прямой доступ к памяти (RDMA) для ускорения передачи данных через протокол S3 API, оптимизированный под AI-нагрузки.
Преимущества решения:
- Высокая производительность: RDMA повышает пропускную способность на терабайт хранения и на ватт.
- Снижение затрат: ускоряет внедрение AI-проектов за счёт более дешёвого хранения.
- Переносимость нагрузок: ИИ-приложения могут работать как в «облаке», так и локально.
- Более быстрый доступ к данным: ускоряет обучение и инференс моделей, а также работу с векторными базами данных.
- Снижение нагрузки на CPU: RDMA не использует CPU для передачи данных, освобождая ресурсы для вычислений ИИ.
NVIDIA разработала клиентские и серверные библиотеки RDMA, которые уже интегрированы партнёрами в продукты высокопроизводительного объектного хранения: Cloudian HyperStore, Dell ObjectScale и HPE Alletra Storage MP X10000. Архитектура открыта для других производителей, которые могут создавать собственные библиотеки и интегрировать их в свои решения.
