Rejoignez nos newsletters quotidiennes et hebdomadaires pour les dernières mises à jour et du contenu exclusif sur la couverture de l'IA de pointe. Apprendre encore plus
L’IA n’est plus seulement un mot à la mode : c’est un impératif industrial. Alors que les entreprises de tous les secteurs continuent d’adopter l’IA, le débat autour de l’infrastructure de l’IA a considérablement évolué. Autrefois considérée comme un investissement nécessaire mais coûteux, l’infrastructure d’IA personnalisée est désormais considérée comme un atout stratégique pouvant offrir un avantage concurrentiel essentiel.
Mike Gualtieri, vice-président et analyste principal chez Forrestersouligne l’significance stratégique de l’infrastructure de l’IA. « Les entreprises doivent investir dans une plate-forme d'IA/ML d'entreprise provenant d'un fournisseur qui swimsuit au moins le rythme de la technologie d'IA d'entreprise et, idéalement, repousse les limites de celle-ci », a déclaré Gualtieri. « La technologie doit également servir une entreprise réinventée opérant dans un monde d’intelligence abondante. » Cette perspective souligne le passage d’une imaginative and prescient de l’IA comme une expérience périphérique à une reconnaissance comme un élément central de la future stratégie commerciale.
La révolution des infrastructures
La révolution de l’IA a été alimentée par des percées dans les modèles et functions d’IA, mais ces improvements ont également créé de nouveaux défis. Les costs de travail d'IA d'aujourd'hui, notamment en matière de formation et d'inférence pour les grands modèles de langage (LLM), nécessitent des niveaux de puissance de calcul sans précédent. C’est là qu’intervient l’infrastructure d’IA personnalisée.
>>Ne manquez pas notre numéro spécial : Match for Goal: Tailoring AI Infrastructure.
« L’infrastructure d’IA n’est pas universelle », déclare Gualtieri. « Il existe trois costs de travail clés : la préparation des données, la formation des modèles et l'inférence. » Chacune de ces tâches nécessite des infrastructures différentes, et se tromper peut s'avérer coûteux, selon Gualtieri. Par exemple, alors que la préparation des données repose souvent sur des ressources informatiques traditionnelles, la formation de modèles d'IA massifs comme GPT-4o ou LLaMA 3.1 nécessite des puces spécialisées telles que Les GPU de NvidiaTrainium d'Amazon ou les TPU de Google.
Nvidia, en particulier, a pris la tête des infrastructures d'IA, grâce à sa domination des GPU. « Le succès de Nvidia n'était pas prévu, mais il a été bien mérité », explique Gualtieri. « Ils étaient au bon endroit, au bon second, et une fois qu’ils ont vu le potentiel des GPU pour l’IA, ils ont doublé leur mise. » Cependant, Gualtieri estime que la concurrence se profile à l'horizon, avec des sociétés comme Intel et AMD cherchant à réduire l'écart.
Le coût du cloud
Le cloud computing a été un catalyseur clé de l'IA, mais à mesure que les costs de travail augmentent, les coûts associés aux companies cloud sont devenus un sujet de préoccupation pour les entreprises. Selon Gualtieri, les companies cloud sont idéaux pour les « costs de travail explosives » – des tâches à courtroom terme et de haute intensité. Cependant, pour les entreprises exécutant des modèles d’IA 24h/24 et 7j/7, le modèle cloud avec paiement à l’utilisation peut devenir prohibitif.
« Certaines entreprises réalisent qu'elles ont besoin d'une approche hybride », a déclaré Gualtieri. « Ils peuvent utiliser le cloud pour certaines tâches mais investir dans une infrastructure sur website pour d'autres. Il s'agit d'équilibrer flexibilité et rentabilité.
Ce sentiment a été repris par Ankur Mehrotra, directeur général d'Amazon SageMaker chez AWS. Dans une récente interview, Mehrotra a noté que les shoppers AWS recherchent de plus en plus de options combinant la flexibilité du cloud avec le contrôle et la rentabilité de l'infrastructure sur website. « Nos shoppers nous disent qu'ils souhaitent des capacités spécialement conçues pour l'IA à grande échelle », explique Mehrotra. « La efficiency en matière de prix est essentielle et vous ne pouvez pas l'optimiser avec des options génériques. »
Pour répondre à ces demandes, AWS a amélioré son service SageMaker, qui offre une infrastructure d'IA gérée et une intégration avec des outils open supply populaires tels que Kubernetes et PyTorch. « Nous voulons offrir à nos shoppers le meilleur des deux mondes », déclare Mehrotra. « Ils bénéficient de la flexibilité et de l’évolutivité de Kubernetes, mais avec les performances et la résilience de notre infrastructure gérée. »
Le rôle de l'open supply
Les outils open supply comme PyTorch et TensorFlow sont devenus essentiels au développement de l'IA, et leur rôle dans la création d'une infrastructure d'IA personnalisée ne peut être négligé. Mehrotra souligne l'significance de prendre en cost ces cadres tout en fournissant l'infrastructure sous-jacente nécessaire à l'évolution. « Les outils open supply sont un enjeu de desk », dit-il. « Mais si vous vous contentez de donner le cadre aux shoppers sans gérer l'infrastructure, cela entraîne beaucoup de tâches lourdes et indifférenciées. »
La stratégie d'AWS consiste à fournir une infrastructure personnalisable qui fonctionne de manière transparente avec les frameworks open supply tout en minimisant la cost opérationnelle des shoppers. « Nous ne voulons pas que nos shoppers consacrent du temps à la gestion de l'infrastructure. Nous voulons qu’ils se concentrent sur la building de modèles », explique Mehrotra.
Gualtieri est d'accord, ajoutant que même si les frameworks open supply sont essentiels, ils doivent être soutenus par une infrastructure robuste. « La communauté open supply a fait des choses incroyables pour l’IA, mais en fin de compte, vous avez besoin d’un matériel succesful de gérer l’ampleur et la complexité des costs de travail d’IA modernes », dit-il.
L’avenir de l’infrastructure de l’IA
À mesure que les entreprises continuent de s’orienter dans le paysage de l’IA, la demande d’infrastructures d’IA évolutives, efficaces et personnalisées ne fera qu’augmenter. Cela est particulièrement vrai à l’heure où l’intelligence artificielle générale (AGI) – ou IA agentique – devient une réalité. « AGI va fondamentalement changer la donne », a déclaré Gualtieri. « Il ne s'agit plus seulement de former des modèles et de faire des prédictions. L’IA agentique contrôlera des processus entiers, ce qui nécessitera beaucoup plus d’infrastructures.
Mehrotra voit également l’avenir de l’infrastructure de l’IA évoluer rapidement. « Le rythme de l’innovation dans le domaine de l’IA est stupéfiant », dit-il. « Nous assistons à l'émergence de modèles spécifiques à un secteur, comme BloombergGPT pour les companies financiers. À mesure que ces modèles de area of interest deviennent plus courants, le besoin d’une infrastructure personnalisée va croître. »
AWS, Nvidia et d'autres acteurs majeurs s'efforcent de répondre à cette demande en proposant des options plus personnalisables. Mais comme le souligne Gualtieri, ce n’est pas seulement une query de technologie. « C'est aussi une query de partenariats », dit-il. « Les entreprises ne peuvent pas y parvenir seules. Ils doivent travailler en étroite collaboration avec les fournisseurs pour garantir que leur infrastructure est optimisée pour leurs besoins spécifiques.
L'infrastructure d'IA personnalisée n'est plus seulement un centre de coûts : c'est un investissement stratégique qui peut fournir un avantage concurrentiel significatif. À mesure que les entreprises élargissent leurs ambitions en matière d'IA, elles doivent soigneusement réfléchir à leurs choix d'infrastructures pour s'assurer qu'elles répondent non seulement aux demandes d'aujourd'hui, mais qu'elles préparent également l'avenir. Qu'il s'agisse de options cloud, sur website ou hybrides, la bonne infrastructure peut faire toute la différence pour transformer l'IA d'une expérience en un moteur industrial.
la source