DES CHANGEMENTS EN DISCUSSION AU SEIN DE BDS
Selon des sources internes, face à la fronde sur la souveraineté de l’activité supercalculateurs, notamment ceux qui simulent les essais nucléaires, l’État réfléchirait à la création d’une co-entreprise dans laquelle serait regroupée cette activité spécifique, dont les revenus seraient d’ores et déjà assurés par la grosse commande Jupiter reçu hier de l’EU (voir article) pour le premier EXASCALE européen dans lequel Atos a été choisi en consortium avec ParTec et dont la quote-part que le blog a réussi à se procurer malgré l’Omerta Atos, est de 273M€ pour une livraison en 2025, ce qui sécuriserait financièrement le dossier pour l’État.
D’ailleurs une autre commande se précise, un deuxième EXASCALE toujours du programme EuroHPC, non pas hébergé en Allemagne cette fois, mais par le CEA. (voir article ci-après), extrait du site du CEA sur le site du CEA.
===
Est-ce la mission confiée aux deux hommes en blanc de l’Elysée, Alexandre Lahousse, responsable à la DGA et Thomas Courbece, chargés, selon l’expression de Médiapart de “mettre sous tutelle” Bertrand Meunier, opération “tutelle” qui pour l’instant relève plus du vœu pieux de Martine Orange (journaliste à Médiapart) que de la réalité, car c’est toujours Bertrand Meunier le big boss et je serais même tenté de dire plus que jamais; puisque ses opposants au CA n’ont d’autre courage que de démissionner, même s’il semblerait que selon les spécialistes en gouvernance que si l’on n’est plus en phase avec le CA c’est normal de s’en aller.
Mais alors dans ce cas précis, d’une société cotée, avec zéro actionnaire au-dessus de 1%, 1.20%… quid d’un contre-pouvoir au président dans un actionnariat dispersé?? Zéro contre-pouvoir apparemment. Il est urgent que le cas Atos serve de jurisprudence pour une modification du code du commerce et/ou les règles de l’AMF, de même que les règles de fermeture des cockpits par l’IATA pour faire face à un Andreas Lubitz (malheureusement célèbre pilote de la German Wings).
=====
Pour revenir à cette opération, et qui rejoint un peu les propos de l’interview de Yves Bernaert Des Echos qui cite “l’arrivée de nouveaux partenaires”, et de Médiapart citant l’arrivée de la DGA dans le dossier, cela s’apparenterait à une semi-nationalisation sans en avoir le nom.
Il y aurait au capital la BPI, la DGA et le CEA + Atos. Mais je précise qu’on ne parle pas ici de Eviden, ni même de Big Data, mais seulmeent d’une branche de big Data, les mégacalculateurs, dont celui qui simule les essais nucléaires, espèce d’épouvantails pour sénateurs gagas, car la dernière bombe testée en réel à Mururoa pourrait raser New York ou Tokyo en quelques secondes et détruire 50 millions de vies… Il vous faut quoi messieurs les sénateurs en manque d’occupation, de l’encore plus puissant ??? Raser la totalité de la Russie en un one-shot par exemple, pour en arriver à faire une fixette sur Eviden ? Je croyais qu’on était plutôt sur un moratoire sur les armes atomiques. Vous suppliez M. Poutine de ne pas lancer la sienne sur Kiev mais vous êtes obnubilé par le fait que nos ordinateurs ne soient pas assez puissants pour simuler la nôtre.
C’est pitoyable et lamentable. Vous me donnez surtout envie de rester dans ma Thaïlande de cœur et de ne pas revenir en France. Ils n’ont pas de bombes atomiques eux, et ils sont bien plus heureux que vous.
===
Reste à savoir quelle serait la part de cette coentreprise qui reviendrait à Atos. Même si je n’ai pas d’info là dessus, on pourrait vraisemblablement imaginer que l’était aurait un call (option d’achat) pour racheter la part d’Atos si un acteur étranger entrait au capital de l’entité à créer.
De toute façon cette activité ne rapporte pas, ou très peu, est ultra-saisonnière, donc autant qu’elle ne bloque pas une OPA créatrice de valeur sur le reste du groupe.
Tous comme les médias professionnels, le blog fait de temps en temps des petites boulettes (ex. PNF), j’attends donc d’avoir un peu plus de précisions avant d’aller plus en détail dans le sujet, mais il semblerait, que ce soit déjà bien plus qu’un simple projet.
Il semble que ce serait un bon compromis pour tout le monde. Atos y mettrait ses ressources, l’état quelques sous pour renouveler l’outil de production et probablement un droit de véto à l’entrée de tout actionnaire.
Si ce projet se réalisait, et on peut garder un peu d’optimisme, sinon pourquoi avoir délégué ces deux hommes en blanc de l’Élysée, ce serait une bonne nouvelle pour les actionnaires, car cela rendrait le groupe OPable et qui dit qu’au cours actuel, Daniel Kretinsky ne soit pas intéressé pour seulement 200M€ de plus d’avoir l’ensemble. Seul hic, il faudrait rajouter quelques euros en plus pour assainir la trésorerie actuellement plus que tendue.
======
La France et l’Europe dans la course à l’exascale
https://www.cea.fr/presse/Pages/actualites-communiques/ntic/france-europe-course-exascale.aspx
De la prévision météorologique à la compréhension des phénomènes en jeu dans le changement climatique actuel, en passant par l’évaluation d’un risque sismique ou le test de nouveaux traitements médicaux, de nombreux domaines utilisent aujourd’hui ce qu’on appelle le calcul haute performance (ou HPC pour High Performance Computing).
Depuis plus de dix ans, le domaine est en profonde mutation. Les usages scientifiques et industriels de la simulation et du HPC se sont
considérablement diversifiés, le besoin de puissance s’est accru et étendu au traitement de données. Le Big Data puis l’apprentissage
machine (notamment le Deep Learning) ont à la fois profité de la puissance du HPC et stimulé la demande de calculs, de traitement
et de stockage des données toujours plus performants.
« On peut caractériser le HPC comme d’une part un ensemble générique de techniques et méthodes, utilisant des moyens denses de calcul et de traitement en parallèle ; d’autre part, le développement d’algorithmes, méthodes numériques et applications adaptées, pour répondre aux enjeux scientifiques et industriels de modélisation », explique Jean-Philippe Nominé, chargé de mission au Département des sciences de la simulation et de l’information (DSSI) du CEA.
Un supercalculateur n’est plus seulement une grande machine énergivore, mais un élément d’un ensemble de ressources combinées au sein de grandes infrastructures numériques. Le tout au service d’applications scientifiques et industrielles mêlant simulation numérique, traitement de données et intelligence artificielle.
« Il s’agit de faire progresser les connaissances, d’aborder et de résoudre de grands problèmes sociétaux, par exemple dans les domaines de la santé, du climat ou de l’énergie, enfin d’améliorer les
processus industriels et la production de biens et de services. Ce sont des enjeux stratégiques », précise Christophe Calvin, adjoint à la directrice de la recherche fondamentale au CEA.
La course à l’exascale
Cette multiplicité de besoins exige une utilisation optimisée des moyens de calcul haute performance. Et c’est ce qu’on attend de l’exascale, soit des supercalculateurs capables d’effectuer au moins un milliard de milliards d’opérations à la seconde. De véritables « concentrateurs de puissance » qui permettront
de rester en pointe dans la compétition scientifique et industrielle mondiale.
« Nous devons disposer du bon instrument pour être entendus dans l’orchestre », souligne Jean-Philippe Nominé. Autrement dit, mieux vaut être un premier violon qu’un simple triangle.
Ces instruments de pointe sont une condition nécessaire à la compétitivité scientifique et économique des pays. La maîtrise d’un maximum des maillons de la chaîne de valeur du HPC (de la technologie aux applications) garantit l’indépendance des États vis-à-vis de leurs concurrents.
États-Unis, Chine, Japon… Toutes les grandes puissances historiques du HPC se sont lancées dans la course à l’exascale. Et c’est la machine américaine Frontier, exploitée au Oak Ridge National Laboratory, qui a franchi la première la barre du milliard de milliards d’opérations à la seconde, en juin 2022. Elle reste encore à ce jour non seulement la plus puissante mais également la seule exascale recensée dans le classement des 500 plus puissants supercalculateurs au monde (Top500).
L’Europe n’est pas en reste. Elle vise d’ici trois ans deux systèmes exascale, dont le premier sera installé en Allemagne en
2024. Le deuxième en France, au Très grand centre de calcul du CEA. Une décision prise par l’entreprise commune européenne EuroHPC, le 20 juin 2023. Le projet est porté en France par le consortium Jules Verne, qui réunit la France, représentée par le Grand Equipement National de Calcul Intensif (GENCI) en tant qu’entité d’accueil, en collaboration avec le CEA en tant que site d’hébergement, et les Pays-Bas, représentés par SURF, le centre national de calcul intensif néerlandais.
La compétition entre constructeurs occidentaux est rude, et aujourd’hui, seuls les États-Unis et l’Europe, respectivement avec
HPE et Eviden (Bull-Atos), sont en mesure de rivaliser à l’échelle des meilleures machines mondiales. Les logiciels et les applications
permettant d’exploiter efficacement ces instruments de pointe font souvent l’objet de collaborations internationales plus ouvertes, même si l’objectif demeure une souveraineté d’usage et la maîtrise de nos applications.
Le CEA, un acteur majeur du HPC
Acteur historique du calcul scientifique et du HPC, « le CEA dispose d’une double expertise qui fait toute sa force, rappelle Jacques- Charles Lafoucrière, chef du programme Numérique intensif au CEA. D’une part, dans la mise en oeuvre de grandes infrastructures et de calculateurs, historiquement liée à sa mission Défense et regroupés au sein du complexe de calcul scientifique de Bruyères-le-Châtel. D’autre part, dans le développement, la production et l’intégration de logiciels et de technologies utiles au
numérique ».
Le CEA couvre ainsi l’ensemble de la chaîne du HPC :
- algorithmique,
- informatique,
- ingénierie de grandes infrastructures,
- conception et exploitation d’applications.
Pour rester au meilleur niveau, le CEA a développé une stratégie de collaborations académiques et industrielles, à l’échelle nationale,
européenne et internationale. Au niveau mondial, il entretient des contacts structurés avec le Department of Energy américain et l’institut de recherches Riken au Japon. En Europe, ses équipes sont activement impliquées dans l’initiative Prace (Partnership for
Advanced Computing in Europe) depuis 2010 et l’entreprise commune EuroHPC depuis 2018. Enfin, le centre de recherche allemand de Juelich est un partenaire privilégié sur différents axes, au travers notamment de l’institut de recherche commun Aidas sur
les sciences de la simulation. En France, le CEA mène, depuis plus de quinze ans, une collaboration avec Bull-Atos pour la coconception de supercalculateurs, ainsi qu’avec près de vingt partenaires privés qui cofinancent le Centre de calcul recherche et technologie (CCRT) et son supercalculateur dédié aux usages industriels du HPC.
Exascale, l’ultime frontière ?
Si les technologies de base existent déjà pour lancer l’essentiel de la révolution exascale, elles évoluent encore. L’optimisation et l’intégration à grande échelle des supercalculateurs sont à
améliorer en permanence. Les nouveaux usages liés aux domaines scientifiques et industriels combinent désormais calculs et traitement de données. Soit de nouvelles contraintes pour
les supercalculateurs qui doivent s’intégrer pleinement dans le continuum numérique “from edge to cloud” (du traitement en
périphérie au traitement en nuage) pour gérer et stocker les données qu’ils produisent ou qu’ils reçoivent. Différents projets
européens, menés dans le cadre d’EuroHPC, soutiennent les efforts dans ce sens.
Utiliser efficacement un supercalculateur de cette gamme réclame un gros travail d’adaptation, de portage et de réécriture des codes de calcul. En cause ? La nature majoritairement accélérée de son architecture et un passage à l’échelle sans précédent. De nouveaux modèles de calcul, comme ceux utilisés en analyse de données à haute performance et en IA (Machine Learning et
Deep Learning), devront également être pris en compte. Le couplage HPC et analyse de données devient nécessaire pour mener à bien
des simulations complexes en vraie grandeur, sous contrainte de temps de calcul et de volume de stockage. Un travail sur l’accompagnement des équipes s’avère indispensable, depuis la
chaîne de développement jusqu’à la formation.
Différentes initiatives sont engagées en France pour aider les communautés scientifiques à franchir le cap des usages à l’échelle.
Parmi les plus emblématiques au niveau national, le Programme et équipement prioritaire de recherche (PEPR) NumPEx, financé par le Gouvernement à hauteur de 40,8 millions d’euros sur six ans dans le cadre de France 2030. Son objectif : développer des solutions logicielles essentielles aux grands domaines d’applications scientifiques et industriels pour exploiter pleinement les capacités
des futures machines exascale.
Copiloté par le CNRS, le CEA et Inria, NumPEx contribuera à la constitution d’un ensemble souverain d’outils, de logiciels et de formations à destination des utilisateurs de l’exascale.
« Cette mobilisation des différents acteurs du HPC vise à développer un écosystème national exascale, coordonné avec la stratégie européenne, pour que la France reste un des leaders du domaine et que l’Europe soit à la pointe de la compétition internationale », souligne Jérôme Bobin, directeur de recherche et copilote CEA
de NumPEx. « Investir dans les applications permet de capitaliser un savoir et une expertise sur le long terme, dépassant la durée de vie
d’un supercalculateur. C’est essentiel pour assurer notre souveraineté scientifique et technologique », complète Christophe Calvin.
L’exascale s’avère ainsi un puissant moteur pour la recherche et l’industrie française et européenne, des technologies matérielles
jusqu’aux logiciels applicatifs, et ce, bien au-delà du seul HPC.
===
Restez automatiquement averti à chaque nouvel article du blog, au rythme maximal de 3 fois par semaine. Inscrivez-vous à notre NEWSLETTER. L’espace inscription est sur page d’accueil en haut de la colonne de droite, juste sous le price-ticker de l’action (sur la version PC du blog). Vous pourrez vous désinscrire à tout moment.
Cette idée d’une scission de l’activité HPC est le première qui me semble avoir du sens.
Le HPC est quelque chose de très spécifique qui n’a rien à voir dans Eviden ou Atos :
1. ça génère peu de services (en proportion) et demande des investissements très lourds. Je ne suis même pas sûr cette activité soit à l’équilibre aujourd’hui
2. c’est une activité critique pour la souveraineté
donc l’idée de la coentreprise est une bonne piste.
Partant de cette base, maintenant il faut retravailler sur deux choses :
1. le démantèlement Service – Infogérance a-t-il du sens
la réponse est non.
le fait déclencheur est la mauvaise gestion.
Il y a une forte synergie entre ces activités (la pénétration client), on
est dans du redressement opérationnel qu’il faut financer
(augmentation de capital, ventes de quelques bijoux (dont HPC),
resserrement de la gestion, etc.)
Notre ami tchèque serait certainement intéressé pour être de la partie,
même si à court terme ce n’est pas l’Euromillion actuel qui lui est
promis
Ce sera douloureux mais pas hors de portée
2. débrancher Meunier
C’est un monsieur qui a une belle carrière, il n’a pas besoin
matériellement de ses 300K d’Atos à ce stade
Il s’est fait vendre une mauvaise dope par Mc Kinsey et autres
Il est intoxiqué et comme beaucoup d’X ne supporte pas d’avoir tort.
Il ne peut supporter mentalement de se dire qu’il a échoué, il va
falloir travailler sur la psychologie du personnage.
soit ça se passe mal (AG motion de défiance, etc.) et il part la queue
entre les jambes
soit on arrive à le convaincre en amont d’éviter ce sort (dans
les administrateurs je pense que le bon psychiatre se nomme Mustier).
De toute manière pour les porteurs d’action, le bouillon est déjà cuit, le tout est de savoir si on a intérêt de remettre au pot pour espérer meilleure fortune