Selon Nicolas Roger, Global Solutions Architect chez Equinix, Inc. (Nasdaq : EQIX), fournisseur international d'interconnexions et de datacentres l'intelligence artificielle (IA) est un domaine intrinsèquement lié aux volumes de données. Elle prend son envol aujourd'hui en tirant profit de l'évolution des datacentres qui sont devenus de véritables hubs d'interconnexion. Si ceux-ci ont favorisé la démocratisation de l'IA, ils bénéficient eux-mêmes de cette science des data.

L'IA n'est pas nouvelle en soi, mais des avancées significatives se sont produites ces dernières années. A partir de 1995, de Deep Blue à Watson, IBM a prouvé sa capacité à rivaliser avec l'humain en battant le champion du monde d'échecs ou en remportant le jeu télévisé Jeopardy! En 2017, c'est au tour d'AlphaGo, issue des laboratoires de Google, de battre un professionnel du jeu de Go.

Les algorithmes que l'on utilise aujourd'hui ne sont pas forcément plus intelligents que ceux d'il y a 20 ans. La différence essentielle réside dans la formidable quantité de données qui les alimente. Plus ces données sont nombreuses, plus le logiciel va pouvoir progresser, apprendre et être performant.

L'IA a considérablement évolué grâce à cette capacité à exploiter ces milliards d'informations dans un délai raisonnable, à l'aide de gros clusters de machines. C'est pour cette raison que Google a progressé rapidement et rattrapé IBM : si Big Blue disposait des processeurs sophistiqués et des machines, Google disposait d'une puissance de calcul phénoménale tirée de multiples datacentres pour exploiter ces algorithmes de machine learning qui ont fait son succès. L'IA a donc besoin d'une infrastructure prête à stocker des pétaoctets de données, à accueillir la puissance de calcul pour les traiter, le tout dans un environnement ultra-sécurisé, tant les processus mis en œuvre sont sensibles. Aujourd'hui, seuls les datacentres répondent à ce cahier des charges très contraint.

Les datacentres au service de l'IA

La puissance de calcul est conditionnée par la consommation électrique des baies de serveurs installées dans des bâtiments de plus en plus étendus. Pour alimenter et refroidir les machines d'une allée entière de telles baies, les problématiques à résoudre sont très spécifiques. Les datacentres que l'on construit aujourd'hui sont de plus en plus tournés vers ces hautes densités électriques, ce qui nécessite de repenser leur architecture, notamment en s'efforçant de réduire la consommation électrique liée au refroidissement et le gaspillage d'énergie.

Certaines applications de l'intelligence artificielle réclament en outre une connectivité infaillible à ces datacentres. Par exemple, les décisions prises par une voiture autonome pilotée par une intelligence artificielle doivent être en temps réel : les données d'environnement doivent être analysées dans un laps de temps très court et transmises également très rapidement.

Certes, une partie de l'intelligence de la voiture sera intégrée dans le véhicule. Mais l'intelligence collective sera toujours supérieure aux intelligences individuelles : les voitures autonomes vont analyser ce qui se passe autour d'elles et remonter ces données en permanence. L'intelligence centrale examinera toutes ces données et en déduira l'action à prendre : si une voiture freine brutalement, elle avertira les voitures qui sont à 200 mètres derrière le premier véhicule, et qui n'ont encore rien détecté. Cela ne sera possible que grâce à une intelligence centralisée, qui pourra analyser ces données grâce à la puissance de calcul du datacentre, afin d'en tirer les bonnes décisions, instantanément.

L'IA au service des datacentres

Si comme on le voit, l'intelligence artificielle s'appuie sur les datacentres, la réciproque est également vraie. Comme on l'a vu, une question essentielle aujourd'hui consiste à réduire l'empreinte écologique des centres de calcul. En s'appuyant sur l'IA, Google est parvenu à optimiser de 15 % l'efficacité énergétique de ses datacentres et à réduire de 40 % la consommation énergétique des systèmes de refroidissement. Agréger toutes les données issues de capteurs qui monitorent la température, la consommation électrique, le refroidissement, etc. dans un algorithme permet de prendre des décisions efficaces, qui concernent par exemple le placement de nouvelles baies clients ou l'optimisation du refroidissement. En outre, intégrer des fonctions d'IA directement dans les baies de stockage permet d'automatiser les tâches basiques de support et d'administration.

Mais l'une des applications les plus spectaculaires de l'intelligence artificielle réside dans la sécurité. Pour se protéger eux-mêmes, les datacentres commencent à en tirer parti afin de détecter de manière proactive des cyber-menaces. Un pilote développé par le MIT permet de repérer 85% des menaces ; et 40 % des professionnels de la cybersécurité tirent déjà parti de l'automatisation et de l'intelligence artificielle pour protéger les systèmes d'information.

Greffer une intelligence artificielle pour analyser automatiquement toutes ces données issues des capteurs environnementaux et autres sondes et la laisser décider d'elle-même des actions à entreprendre : tel est sans nul doute l'avenir du datacentre, toujours plus écoresponsable et sécurisé, au service de l'innovation et de la croissance des entreprises.

A propos de l'Auteur

Nicolas Roger dirige une équipe de Global Solutions Architect chez Equinix, dont le rôle est d'accompagner les clients dans leur transformation numérique et de les conseiller sur la meilleure manière d'architecturer leur infrastructure pour répondre aux problématiques actuelles et futures. Nicolas a plus de 20 ans d'expérience dans l'IT et les télécommunications, en France et à l'international. Il a occupé différents rôles durant sa carrière, au sein de sociétés telles que Colt, BT, Devoteam Consulting, Verizon Business, IBM. Nicolas est diplômé de l'Ecole Centrale de Nantes.