San Francisco (AFP) – Le groupe informatique américain Microsoft envisage d’installer des centres de données dans l’océan, dans le cadre d’un nouveau projet dévoilé lundi.
« Aller sous l’eau pourrait régler plusieurs problèmes en introduisant une nouvelle source d’énergie, en réduisant énormément les coûts de refroidissement, en réduisant la distance avec les populations connectées et en rendant l’installation des centres de données plus simple et plus rapide », fait valoir le groupe dans un message sur son blog officiel.
Microsoft fait valoir que la moitié de la population mondiale vit à moins de 200 kilomètres d’une côte, et qu’un centre de données sous-marin pourrait en outre fonctionner avec l’énergie des vagues ou des marées, tandis que les fraîches températures sous-marine assureraient un refroidissement automatique. Un centre de données représente généralement une puissance informatique et un dégagement de chaleur correspondant à des centaines voire des milliers d’ordinateurs.
L’idée de départ a émané de Sean James, un spécialiste des centres de données chez Microsoft qui avait auparavant travaillé pendant trois ans sur des sous-marins pour la marine américaine. « J’avais vu comment on peut mettre de l’électronique sophistiquée sous l’eau, et la garder protégée de l’eau salée », a-t-il commenté sur le blog de Microsoft.
Le projet dévoilé lundi, baptisé Natick, cherche désormais à déterminer la faisabilité de potentiels centres de données sous-marins.
Un premier test a été réalisé l’an dernier avec l’immersion d’un prototype pendant trois mois dans l’océan Pacifique, à environ un kilomètre au large de la côte où il pouvait encore être connecté au réseau électrique normal.
Un container de 17 tonnes et d’environ trois mètres sur deux contenait un mini centre de données avec une puissance informatique égale à environ 300 ordinateurs de bureau. A l’exception d’une vérification chaque mois par un plongeur, le bon fonctionnement du prototype a pu être surveillé à distance grâce à des caméras et des capteurs depuis le siège du groupe à Redmond (nord-ouest des Etats-Unis) en permanence, y compris lors du passage d’une petite vague de tsunami, assure Microsoft.
Le groupe affirme également que le container s’est intégré à l’écosystème marin, les animaux marins s’étant rapidement adaptés et installés dessus.
L’équipe du projet travaille désormais sur l’étape suivante: un container quatre fois plus grand que le premier et contenant 20 fois plus de puissance informatique, qui resterait cette fois dans l’eau au moins un an et utiliserait une source d’énergie renouvelable tirée de l’océan.
A terme, l’idée serait de garder les centres de données Natick sous l’eau jusqu’à cinq ans. Les ordinateurs à l’intérieur seraient alors changés, et le container à nouveau immergé pour une durée similaire.
De Microsoft à Amazon en passant par Facebook, Google ou IBM, l’explosion des services en ligne (« cloud ») conduit actuellement nombre de poids lourds du secteur technologique à construire de nouveaux centres de données autour du monde.
« Alors que chaque centre de données terrestre est différent et doit être adapté à des environnements et des terrains variables, ces containers sous-marins pourraient être produits en masse », car l’environnement sous-marin est plus uniforme et donc mieux contrôlé, avance aussi Microsoft.
Et même si le projet Natick ne débouche jamais sur des déploiements à grande échelle dans l’océan, le groupe estime qu’il apportera des enseignements pour une gestion plus efficace et plus économe de tous ses centres de données, y compris sur terre.
© AFP
9 commentaires
Ecrire un commentaire
charles batt
Si le probleme est l’eau salée …
Pourquoi ne pas construire ces datacenter dans une rivière ?
Eau toujours fraiche et courant en permanence …
Jean-Marie SOGNY
Attention, les rivières sont des milieux Naturels qu’on ne peut pas (plus) modifier, perturber,… impunément.
Si on reste sur Terre, alors, autant exploiter les calories qu’on ne saurait pas encore éviter de produire…
aquapedz
Bonjour, si les serveurs dégagent tant de chaleur pourquoi ne ne pas chauffer des logements plutôt que des poissons ?
tryxu
C’est déjà d’actualité
http://www.lemonde.fr/smart-cities/article/2016/01/07/ces-pionniers-qui-veulent-chauffer-les-villes-avec-nos-ordinateurs_4843208_4811534.html
raadbal
parce qu’a Los Angeles, Miami, Tel Aviv, Rio, Bangkok, Manille, Singapour, Mexico, Dubai, Abudhabi …. ( je peux continuer comme ca longtemps …) il fait chaud, ils n’ont donc pas besoin de chauffage…
…et parce que ces gens ne vont pas vouloir pédaler pour fournir l’énergie pour ces datacenters
–> il faut mieux lire
paton
… belle cible pour les « malveillants »…
Raiser Gérard - Paris- France
Heureusement, il y a aussi l’expérience positive des Datacenter récupérateur de chaleur, pour chauffer des immeubles.
Grossmann
L’idée paraît géniale mais sur le long terme Microsoft ferait bien de se méfier des décisions hâtives génératrices de déceptions amères. Est-elle d’ailleurs autant géniale que Microsoft l’espère: accès difficile au serveur pour l’entretien avec risque de fuites, alimentation en électricité, éloignement plus important quoiqu’on en dise entre l’utilisateur et le serveur (l’homme vit sur terre), non récupération de la chaleur émise par les serveurs, peut-être même surveillance difficile qui signifie cible facile pour les terroristes.
Je suis reconnaissant envers Microsoft de m’avoir aidé à transmettre mes convictions sur Internet au travers de mes deux sites http://www.rivieres.info et http://www.infoenergie.eu aussi je vais essayer d’aider Microsoft. L’image de marque de Microsoft serait renforcée si cette société se préoccupait de récupérer en hiver pour les besoin du chauffage urbain cette dissipation thermique importante engendrée par ses gros data serveurs. La France commence d’ailleurs en région parisienne à se préoccuper de la dissipation d’énergie de serveur informatique de moindre importance implantée dans des bureaux. (Voir par exemple les réalisations faites par IDEX entreprise française sur Boulogne Billancourt à la dernière page de
http://www.infoenergie.eu/riv+ener/LCU_fichiers/RSE-cop.pdf
Ce n’est certainement pas Balendard qui contredira Microsoft sur le bien-fondé d’utiliser l’eau comme vecteur thermique pour tenter de résoudre ce problème. Il souhaite seulement l’aider en l’informant qu’il est possible de récupérer cette énergie thermique (on parle d’énergie fatale) pour le plus grand bien du chauffage de l’habitat urbain sans immerger à grands frais ces gros serveurs que ce soit dans la rivière ou dans la mer.
Je les invite à prendre connaissance des capacités d’échanges thermiques de composants appelés échangeur à plaques construits en France par des sociétés comme alfa Laval qui permettraient de récupérer cette puissance thermique pour le chauffage de l’habitat à concurrence de quelque 10 000 kW par échangeur ce qui n’est pas rien plutôt que de dissiper en pure perte cette énergie dans l’environnement en aggravant le réchauffement climatique et la précarité énergétique du citoyen.
Voir
http://www.infoenergie.eu/riv+ener/LCU_fichiers/RSE-composants-PAC.pdf
Balendard le 3 février 2016
Jean Grossmann alias balendard
Il s’agit pour finir d’une idée un peu farfelue. Toutours est-il qu’en 6 mois une idée en entraînant une autre elle pourrait donner un sens à la conférence mondiale sur le climat. Ceci en nous faisant prendre conscience que nous avons intérêt à nous rapprocher des profondeurs mais plutôt sur terre et non en mer. En prenant conscience qu’il va falloir donner une suite au propos du BRGM concernant sa « géothermie de première importance » et de réaliser que ces termes ne sont pas usurpés. Ceci en récupérant son énergie fatale voire en l’utilisant directement pour élever la température à la source froide de la « géothermie superficielle dite de moindre importance ».
Cette cohabitation entre les géothermies profondes et superficielles serait assurément plus efficace que de vouloir récupérer la chaleur contenue dans les eaux usées ou celle résultant du mauvais rendement actuel de nos serveurs informatiques.
Pour prendre un exemple, le Maire d’une commune de France comme celle de Boulogne Billancourt qui a les pieds dans l’eau, pourrait tirer profit, au delà même de ce qu’il peut imaginer en incitant
son Préfet à prendre contact avec des sociétés telles que CARRIER et IDEX. Ceci pour qu’ils s’organisent afin de faire profiter ses administrés des avantages résultant de la cohabitation entre les deux géothermies du BRGM.
Il pourrait ainsi satisfaire le besoin en énergie thermique bon marché de tous les habitants de sa commune et non d’un petit pourcentage d’entre eux comme il le fait actuellement avec un chauffage urbain basé sur la combustion des ordures. Ce faisant il jouerait un rôle de leader en allant dans le sens de la Maire de Paris qui a déjà pressenti l’utilité des réseaux d’eau non potable sur son secteur.
Ceci en préservant nos ressources par le fait que pour satisfaire un même besoin thermique la consommation en énergie primaire serait 5 fois voire même 7 fois plus faible selon la solution adoptée.
Le lecteur intéressé par ces sujets peut utilement accéder aux fichiers indiqués en gras sur la page des Lutins thermiques, à savoir
– Idée fausse
– Performances des pompes à chaleur
– Les réseaux ENP
– L’immeuble de Mr tout le monde
Balendard septembre 2016