NVIDIA a officiellement annoncé le support pour l’architecture d’instructions RISC-V (ISA) dans sa plate-forme logicielle CUDA, permettant aux processeurs RISC-V de servir de processeurs principaux pour les systèmes basés sur CUDA. Ce développement significatif, révélé lors du sommet RISC-V 2025 en Chine, positionne RISC-V aux côtés de x86 et ARM en tant qu’architecture compatible pour les écosystèmes de NVIDIA IA et de calcul haute performance (HPC).
L’annonce a été prononcée lors d’un discours d’ouverture par Frans Sijsterman, vice-président de l’ingénierie matérielle chez NVIDIA, mettant l’accent sur l’engagement croissant de l’entreprise avec l’ISA open-source. La présentation de Sijsterman a détaillé comment les composants CUDA fonctionneront désormais sur RISC-V, décrivant une configuration système typique où un GPU gère les charges de travail parallèles tandis qu’un processeur RISC-V gère les moteurs du système CUDA, la logique d’application et le système d’exploitation. Cette configuration permet au processeur RISC-V d’orchestrer les calculs GPU de manière transparente dans l’environnement CUDA.
Bien que les zones d’application immédiates devraient inclure des dispositifs de bord compatibles Cuda, tels que les modules Jetson de Nvidia, l’intégration suggère également la vision à long terme de NVIDIA pour RISC-V dans les centres de données. Le diagramme de la présentation a également illustré un système complet qui comprend une unité de traitement des données (DPU) pour les tâches de mise en réseau, créant une plate-forme de calcul hétérogène. Dans cette configuration, le CPU RISC-V devient central pour gérer les charges de travail, complétant les GPU, DPU et les puces de mise en réseau de NVIDIA.
Cette décision est considérée comme un pont stratégique entre la pile Cuda propriétaire de Nvidia et une architecture ouverte de plus en plus importante. Pour NVIDIA, le support RISC-V élargit la portée de Cuda dans les systèmes qui préfèrent les ensembles d’instructions ouverts ou nécessitent des implémentations de processeurs personnalisés, particulièrement pertinents pour les entreprises à la recherche de solutions de silicium personnalisées. L’intégration renforce également les options pour les développeurs à l’aide de Nvidia Jetson, ciblant les plateformes informatiques spécialisées ou intégrées.
Le moment de cette annonce, fait en Chine, est notable, en particulier compte tenu des considérations géopolitiques actuelles affectant l’exportation de matériel d’IA avancé comme les offres GB 200 et GB300 de NVIDIA à la région. En permettant à CUDA sur RISC-V, Nvidia semble trouver de nouvelles voies pour soutenir et étendre son écosystème CUDA sur des marchés qui pourraient favoriser un ensemble d’instructions ouvert ou des conceptions de puces personnalisées.
Bien que NVIDIA n’ait pas explicitement confirmé que toutes les charges de travail seraient liées à l’IA, l’objectif stratégique actuel de l’entreprise suggère fortement cette direction. L’intégration de RISC-V dans la plate-forme CUDA pourrait influencer d’autres grandes entreprises technologiques pour considérer des adaptations similaires, positionnant potentiellement RISC-V comme une alternative plus viable dans les futurs conceptions de processeurs AI et HPC dans les centres de données dans le monde.
Source: Nvidia embrasse RISC-V, ouvrant Cuda à de nouvelles puces
