AccueilDécryptageData centers et intelligence artificielle : vers une nouvelle ère d’infrastructures

    Data centers et intelligence artificielle : vers une nouvelle ère d’infrastructures

    Publié le

    Par Andy Fenton (VP Sales and Marketing, Telehouse Canada), Ken Miyashita (Managing Director, Telehouse Thaïlande) et Sami Slim (CEO, Telehouse France)

    L’intelligence artificielle n’est plus cantonnée aux laboratoires d’innovation. Elle est désormais déployée à grande échelle et transforme en profondeur le fonctionnement des data centers. Cette évolution se constate en Asie, en Europe comme en Amérique du Nord, où les organisations cherchent à rapprocher les moteurs d’inférence des utilisateurs finaux et des sources de données. En conséquence, la conception des infrastructures, les critères d’achat et les stratégies à long terme des data centers évoluent rapidement.

    Il s’agit souvent de rapprocher la puissance de calcul des zones de consommation. Par exemple, les enseignes de la grande distribution installent des micro-régions en périphérie urbaine pour que leurs moteurs de recommandation répondent en quelques millisecondes. De leur côté, les salles de marchés exécutent des traductions en temps réel depuis des racks dépassant les 100 kW, avec refroidissement liquide, et connectés à la même boucle fibre que les moteurs de correspondance boursiers. Si ces GPU étaient installés plus loin, la latence du réseau effacerait tout le gain de performance lié à la puissance de calcul.

    Ce besoin de rapprocher les charges IA des points de génération de données pousse les exploitants de data centers et leurs clients à repenser entièrement la conception, la connectivité et la gestion de leurs infrastructures pour suivre le rythme de la prochaine vague de croissance de l’IA.

    Des services conçus pour durer

     

    L’IA évolue si vite que l’infrastructure doit pouvoir s’adapter en quelques mois, et non en quelques années. Cela implique de prévoir des zones GPU à haute densité, de déployer des routes en fibre noire contournant les points de congestion, et de concevoir des aménagements capables de passer de l’air au refroidissement liquide sans reconstruction complète. Si un fournisseur ne peut pas rapidement augmenter ses plafonds de puissance et de dissipation thermique, les projets IA risquent d’être bloqués.

    La connectivité est un autre enjeu majeur, souvent sous-estimé. Une étude récente menée par S&P Global Market Intelligence – 451 Research pour Telehouse, auprès de plus de 900 cadres IT dans le monde, révèle que plus de 90 % des entreprises considèrent les accès cloud comme un élément clé de leur architecture IA/ML. Plus de 55 % signalent même des problèmes réseau importants liés à l’IA.

    Dans les faits, ces préoccupations poussent les entreprises vers des campus de data centers neutres vis-à-vis des opérateurs, avec des connexions optimisées vers les clouds hyperscale, des délais de mise en service réduits à quelques jours, et une bande passante évolutive. Les entreprises nativement axées sur l’IA privilégient désormais la densité d’interconnexion et la rapidité d’approvisionnement plutôt que la seule surface au sol. Elles arrivent avec des exigences techniques précises et attendent que l’écosystème soit prêt dès le premier jour.

    La demande pour des services spécialisés — comme le GPU-as-a-Service ou des environnements adaptés à différents types de charges IA — ne cesse de croître.

    Certains data centers allouent déjà plusieurs mégawatts au refroidissement liquide dédié aux GPU. D’autres accompagnent les acteurs de l’IA transfrontaliers dans le respect des réglementations locales en matière de souveraineté des données. Les fournisseurs d’infrastructures ne doivent plus se contenter de comprendre le matériel, ils doivent maîtriser les charges applicatives. Cela suppose une expertise d’ingénierie, des budgets énergétiques transparents, et une capacité à moderniser les installations en fonction des impératifs économiques.

    Les bonnes questions à se poser pour anticiper l’IA

     

    À mesure que l’IA prend de l’ampleur, il devient essentiel de poser les bonnes questions lors de l’évaluation des capacités d’un data center. Tout commence par l’analyse des charges de travail : quels systèmes, utilisateurs ou flux de données doivent être connectés ? Cette définition des cas d’usage est cruciale, car les besoins en matière de localisation, de refroidissement ou d’interconnexion diffèrent fortement entre l’apprentissage (training) et l’inférence.

    Les acheteurs doivent se renseigner sur la capacité maximale actuelle par rack, les seuils précis qui déclenchent une montée en puissance, ainsi que sur la feuille de route du refroidissement : quand et comment le liquide sera-t-il introduit ? Ils doivent également identifier les carriers et passerelles cloud disponibles dès l’ouverture, connaître les latences garanties et s’assurer du respect des règles de souveraineté des données et des exigences en matière de reporting carbone en temps réel.

    Anticiper les besoins à 18 mois

     

    Trois grandes tendances façonneront les exigences jusqu’en 2026 :

    1. Les éditeurs de logiciels grand public intègrent des assistants génératifs dans les suites bureautiques et plateformes de relation client, multipliant les transactions d’inférence dans les cœurs urbains.
    2. Les indicateurs de durabilité passent des rapports annuels aux tableaux de bord en temps réel. Boucles de récupération de chaleur, comptage énergétique granulaire et optimisation des bâtiments via machine learning vont devenir la norme.
    3. La pression budgétaire pousse à la création d’écosystèmes collaboratifs où opérateurs cloud, fournisseurs de télécoms et spécialistes des data centers mutualisent risques et marges pour proposer des plateformes IA intégrées, capables de monter en charge rapidement.

    Vers des infrastructures IA réparties et durables

     

    À plus long terme, les charges d’inférence IA seront ancrées au plus près des utilisateurs, attirant les investissements vers des zones urbaines bien connectées ou en périphérie (edge). En parallèle, les conceptions modulaires, prêtes pour le refroidissement liquide, continueront de démontrer leur efficacité, permettant d’augmenter les densités de calcul sans reconstruction complète. La qualité de l’interconnexion pèsera désormais autant dans le choix d’un site que le prix au kilowatt ou le rendement énergétique.

    Les indicateurs de durabilité et modèles de partenariat ne sont plus des ambitions, mais des attentes concrètes. L’efficacité énergétique et la capacité de collaboration définiront la compétitivité des fournisseurs pour le reste de la décennie.

    Les entreprises qui planifient leur prochaine étape doivent comprendre la nature de leurs charges IAquantifier les limites actuelles et s’entourer de partenaires capables de faire évoluer la puissance, le refroidissement et la connectivité au rythme que l’IA impose.

    Découvrez-en plus sur les décisions clés en matière d’infrastructure qui façonnent le succès de l’IA en 2025 et au-delà lors de notre webinaire avec des analyses approfondies des experts Telehouse du monde entier en cliquant ici

    Derniers articles

    NXO réalise l’acquisition stratégique du Groupe IDNA

    IDNA, basée à Paris, est un expert de la cybersécurité, spécialisé dans la protection...

    Le programme NextWave de Palo Alto Networks accélère la rentabilité des partenaires

    Ce programme repensé permet à l’ensemble de l’écosystème partenaires de sortir du piège des...

    Channel IT : Alphalink présente sa plateforme de gestion et de facturation EMA

    Alphalink présente une nouvelle plateforme de gestion globale permettant aux acteurs du Channel IT...

    Groupe Tenexa renforce sa gouvernance avec la nomination de son nouveau Directeur Général, Eric FORESTIER

    Acteur français de référence des services IT, du cloud privé souverain et de la...

    Ces articles pourraient vous intéresser

    Opérateurs : évoluer d’un modèle de vente de produits vers une approche orientée services récurrents

    Faire évoluer son modèle économique est un sujet complexe et pourtant stratégique pour s’adapter...

    Système d’information, trouver l’équilibre entre expertise, conformité et innovation

    On cherche souvent des réponses simples à des problèmes qui ne le sont pas....

    Cybersécurité et gouvernance : trouver le juste équilibre

    La cybersécurité a changé. Poncif ? Peut-être. Mais est-on bien certain de savoir mesurer toutes...

    Pourquoi le cloisonnement réseau protège réellement des cyberattaques

    En cybersécurité, il ne suffit plus de protéger un poste de travail, d’installer un...

    Bien piloter sa flotte mobile passe par une démarche structurée

    La montée en puissance du digital et de la mobilité est aujourd’hui une réalité...

    Une gouvernance IAM souveraine et agile pour répondre aux nouveaux enjeux de sécurité

    À l’heure où les entreprises cherchent à conjuguer sécurité, conformité et agilité, la gestion...