La vision ambitieuse du PDG d’Openai, Sam Altman, pour l’intelligence artificielle, nécessitant potentiellement 100 millions de GPU et environ 3 billions de dollars, met en évidence la demande croissante de pouvoir de calcul dans le paysage en évolution rapide de l’IA. Cela survient après que les dirigeants de TSMC auraient surnommé Altman un «podcasting Bro» pour un plan antérieur et tout aussi audacieux impliquant 7 billions de dollars pour construire 36 usines de semi-conducteurs et centres de données.
L’IA générative s’avère être une technologie à forte intensité de ressources, nécessitant une vaste puissance de calcul et une infrastructure de refroidissement pour soutenir ses progrès. OpenAI aurait exprimé l’insatisfaction à l’égard de l’incapacité de Microsoft à répondre à ses demandes de cloud computing, un élément clé de leur accord de plusieurs milliards de dollars. Le fabricant de Chatgpt a même suggéré que les lacunes de Microsoft pourraient conduire à une entreprise rivale d’IA réalisant d’abord l’intelligence générale artificielle (AGI).
Plus tôt cette année, OpenAI a dévoilé le «Stargate Project», une initiative de 500 milliards de dollars visant à construire des centres de données à travers les États-Unis pour renforcer ses capacités d’IA. L’annonce de ce projet aurait conduit Microsoft à perdre son statut de fournisseur de cloud principal d’Openai. Cependant, un récent rapport du Wall Street Journal indique que le projet Stargate est confronté à des difficultés à démarrer, Openai aurait maintenant visé à construire un centre de données plus petit d’ici la fin de l’année.
Malgré ces défis, Sam Altman a récemment déclaré qu’Openai est sur la bonne voie pour apporter «bien plus d’un million de GPU en ligne» à la fin de l’année en cours. Cette évolution suit les révélations selon lesquelles OpenAI a été obligée d’entreprendre des «choses non naturelles» en raison d’une pénurie de GPU. Cette pénurie a été exacerbée par le succès viral des mèmes Studio Ghibli générés par son générateur d’images GPT-4O, ce qui a conduit l’entreprise à emprunter la capacité de calcul des divisions de recherche et à ralentir certaines caractéristiques.
Altman a noté avec humour que lorsque Chatgpt a gagné plus d’un million de nouveaux utilisateurs en moins d’une heure, la poussée soudaine de la demande a presque fait «fondre» les GPU de l’entreprise. Bien que fier de son équipe, Altman a souligné la nécessité critique de mettre à l’échelle la capacité GPU actuelle d’OpenAI, d’un million potentiel à 100 millions d’étonnants. Le matériel de Tom estime que la réalisation de cette échelle pourrait coûter à Openai jusqu’à 3 billions de dollars. Pour mettre cela en perspective, ce chiffre ne représente qu’un milliard de dollars de la récente capitalisation boursière de Microsoft, qui a atteint 4 billions de dollars.
Cette demande croissante de pouvoir de calcul s’aligne sur les réclamations du chercheur en sécurité de l’IA, Roman Yampolskiy, directeur du Laboratoire de cybersécurité de l’Université de Louisville. Yampolskiy postule que AGI pourrait être réalisé aujourd’hui si des ressources financières et une puissance de calcul suffisants étaient facilement disponibles. La trajectoire en cours de l’IA suggère que son évolution continuera de nécessiter un pouvoir informatique sans cesse croissant pour des progrès plus sophistiqués. Il reste à voir si OpenAI peut obtenir le plus de 3 billions de dollars nécessaires à cette expansion massive du GPU et si un tel investissement serait en effet suffisant pour atteindre des exploits monumentaux comme AGI ou même la superintelligence.
Source: OpenAI a besoin de 100 millions de GPU. Bonne chance avec ça!





