Institut Polytechnique de Paris
Ecole Polytechnique ENSTA Ecole des Ponts ENSAE Télécom Paris Télécom SudParis
Partagez la page

L'Institut Polytechnique de Paris attribue ses prix de thèses 2024

Le 04 Sep. 2024
Chaque année, l'Institut Polytechnique de Paris récompense les étudiants qui se sont distingués par la qualité de leurs travaux de doctorat et les contributions importantes qu'ils ont réalisées dans leurs champs de recherche respectifs.
L'Institut Polytechnique de Paris attribue ses prix de thèses 2024
© Ecole polytechnique / Institut Polytechnique de Paris / J.Barande

Sept doctorants se sont illustrés pour cette édition 2024. Six d'entre eux ont été récompensés dans la catégorie meilleure thèse de département de recherche et reçoivent un prix de 3000 €. Le grand prix de thèse (5000 €) revient à Nolwen Mahieu pour son travail intitulé "Synthèse, chimie redox et étude de la structure électronique de complexes de lanthanides avec des ligands aromatiques de tailles différentes". 

Nolwenn Mahieu, grand prix de thèse 2024 de l'Institut Polytechnique de Paris

Titre de thèse : Synthèse, chimie redox et étude de la structure électronique de complexes de lanthanides avec des ligands aromatiques de tailles différentes

Lanthane, néodyme, samarium, thulium…Ces éléments sont moins connus que d’autres métaux comme le fer ou le cobalt. Cette famille des « lanthanides » a justement été au cœur de la thèse de Nolwenn Mahieu.

Lanthane, néodyme, samarium, thulium…Ces éléments sont moins connus que d’autres métaux comme le fer ou le cobalt. Cette famille des « lanthanides » a justement été au cœur de la thèse de Nolwenn Mahieu au Laboratoire de chimie moléculaire (LCM*). Dans le tableau périodique, les lanthanides occupent la première des deux lignes qui apparaissent tout en bas, sous le bloc principal. « On a longtemps cru que ces éléments étaient similaires entre eux. Or, plus on les étudie, plus on remarque qu’ils ont chacun des propriétés spécifiques » explique la chercheuse.

Dans sa thèse, elle s’est penchée sur deux propriétés en particulier : la réactivité et le magnétisme. Ces études ont demandé un grand travail de synthèse : il s’agit de prendre un lanthanide, comme le thulium, puis d’accrocher autour de cet élément une ou plusieurs molécules organiques (appelées ligands). On obtient alors un assemblage (un complexe) dont on peut scruter les caractéristiques spécifiques. « J’ai étudié la réactivité de complexes formés avec des ligands composés de cycles d’atomes de carbone, en particulier des cycles de 5, 8 ou 9 atomes. » précise la chimiste. En jouant sur le nombre d’électrons de ces complexes de thulium (le degré d’oxydation), Nolwenn Mahieu a participé à montrer que cela favorisait la réactivité de petites molécules, comme le dioxyde de carbone, qui ne sont d’ordinaire pas très réactives. « Le défi était de trouver un bon compromis entre la stabilité du complexe et sa réactivité ».

Quant au magnétisme, la jeune chercheuse a synthétisé des complexes à base de dysprosium, un autre lanthanide : la coordination avec le ligand permet à la molécule de se comporter comme un aimant à l’échelle moléculaire. A terme, ces nano-aimants moléculaires pourraient servir pour le stockage des données ou l’informatique quantique. « Mais plus que les applications potentielles, c’est la meilleure compréhension fondamentale des molécules qui me tient à cœur. Une partie de ma thèse a aussi consisté à étendre ces études à d’autres éléments de la série des lanthanides : il y a encore beaucoup d’inconnues » affirme la chimiste qui poursuit désormais ses explorations sur la famille d’éléments situés juste en dessous des lanthanides dans le tableau périodique, les actinides, au Laboratoire national Lawrence-Berkeley (États-Unis).

*LCM : une unité mixte de recherche CNRS, École polytechnique, Institut Polytechnique de Paris, 91120 Palaiseau, France

Meyer Scetbon, prix de thèse 2024 du département de mathématiques

Titre de thèse : Avancées en transport optimal : Structures de faible rang et applications à l'apprentissage automatique 

Les travaux de Meyer Scetbon s'appliquent à l’intelligence artificielle et au machine learning. Ils pallient les limites physiques des machines actuelles et optimisent le traitement de données à grande échelle.

Imaginons un ensemble de données connues qu’une IA générative doit recréer. Chaque ensemble est représenté par un nuage de points dans lequel chaque point est une information. L’objectif est de diminuer les différences (la distance) entre le nuage généré par l’IA et l’original. Pour cela, les scientifiques comparent les nuages entre eux et cherchent à faire correspondre les points qui se ressemblent le plus d’un ensemble à l’autre. « En théorie, le transport optimal (TO), auquel je me suis intéressé pendant ma thèse au Centre de recherche en économie et statistique (CREST*), est l’une des méthodes les plus efficaces pour y parvenir », souligne Meyer Scetbon.

Inventé par Gaspard Monge au 18e siècle, le TO a permis au mathématicien de déterminer comment boucher des trous à moindre coût à l’aide de déblais et remblais de terre. Il avait alors pris en compte les contraintes de transport, la taille des trous et la quantité de terre disponible avant de la répartir. Par analogie, le TO repère et évalue très finement les différences de points entre nos nuages de données (les trous d’un côté, la quantité de terre de l’autre, la distance à parcourir). Il cherche alors la stratégie optimale qui permettra à l’IA d’associer les points de chaque ensemble et de modéliser au mieux, et frugalement, le nuage qu’elle cherche à reproduire (ventiler la terre dans les trous à moindre coût).

Cependant, le transport optimal répond à une équation dont la résolution est super cubique par rapport au nombre de points. En d’autres termes, un nuage de 1000 données nécessite des milliards d’opérations pour être traité efficacement. Or, la mémoire et la puissance de calcul des machines actuelles ne le permettent pas. « En 2013, mon directeur de thèse avait élaboré un algorithme réduisant significativement le nombre d’opérations. Dix ans plus tard, je suis parvenu à un nouveau schéma de résolution du TO, dit de faible rang, moins gourmand en ressources, et donc applicable au traitement de données à grande échelle ».

Le transport optimal contribuera ainsi à la robustesse des algorithmes en aidant les IA à déjouer les « attaques par exemples contradictoires »**. En économie, il participera au partage équitable de biens ou d’objets. En Data science, il optimisera l’utilisation simultanée de processeurs aux spécificités variées. « Les biologistes pourront également s’emparer de cet outil en génomique pour traiter d’énormes quantités de données. De nouvelles perspectives s’ouvrent », conclut Meyer Scetbon.

* CREST : une unité mixte de recherche CNRS, École polytechnique, GENES, ENSAE Paris, Institut Polytechnique de Paris, 91120 Palaiseau, France

** ces attaques visent à soumettre des données corrompues à une IA générative en phase de production, par exemple en attribuant l’étiquette de crocodile à une image de lapin, ce qui altère son comportement.

Nickson Mwanjoso, prix de thèse 2024 du département information, communication, électronique (ICE)

Titre de thèse : Systèmes photoniques neuro-morphiques pour le traitement de l'information

L’intelligence artificielle est consommatrice d’énergie et de ressources matérielles. Nickson Mwamsojo a développé un algorithme visant à la rendre plus frugale. Le principe : optimiser les variables de fonctionnement de certains réseaux de neurones.

« Mon algorithme s’applique à des réseaux neuro-morphiques photoniques et au réservoir computing », lance Nickson Mwamsojo, dont le doctorat s'est déroulé au sein du laboratoire Services répartis, architecture modélisation validation administration de réseaux (SAMOVAR*). Derrière ces termes relevant presque de la science-fiction se cache un concept freinant les besoins énergétiques et matériels gargantuesques de l’intelligence artificielle. 

Les réseaux neuronaux sont habituellement des programmes informatiques dont le but est d’imiter le cerveau humain dans la prise de décision. À contre-courant de la dématérialisation, Nickson Mwamsojo utilise des réseaux physiques. « Il s’agit de reproduire de manière analogique la communication entre neurones interconnectés dans un cerveau – d’où le terme neuro-morphique – tout en diminuant les dépenses énergétiques », explique le jeune chercheur. Ce dernier choisit la lumière pour les faire fonctionner (c’est le volet photonique du projet) et envoie un faisceau laser dans un circuit de fibres optiques. Non seulement le rendement énergétique du dispositif est meilleur, mais il permet aussi de traiter plusieurs informations en parallèle si des faisceaux de différentes longueurs d’ondes sont utilisés. Par ailleurs, le reservoir computing, architecture simplifiant l’apprentissage des réseaux neuronaux, offre aussi de sérieux gains d’énergie. 

Ce passage au « physique » engendre cependant d’autres contraintes auxquelles répond l’algorithme du scientifique. « Dans les réseaux de neurones virtuels, les hyperparamètres (tension, intensité du laser, etc.) qui impactent leur fonctionnement sont de fait programmés et optimisés. Or, cela est impossible dans un système physique. L’algorithme est donc là pour surveiller les composants en continue et ajuster les hyperparamètres afin que le système fonctionne toujours au mieux et reste stable dans le temps »

Les premiers essais réalisés à l’hôpital Broca (Paris) dans le cadre de la détection manuscrite précoce de la maladie d’Alzheimer ont été concluants. « Ce système s’avère aussi efficace sur le plan diagnostique que les dispositifs habituels, avec un avantage de taille : il est bien moins énergivore ».

*SAMOVAR : un laboratoire de recherche Télécom SudParis, Institut Polytechnique de Paris, 91120 Palaiseau, France

Rodolphe Grivet, prix de thèse 2024 du département de mécanique et d'énergétique

Titre de thèse : Mouvements de ligne de contact et solidification 

Rien de plus commun qu’une goutte d’eau avançant à la surface d’un solide, la physique en a déjà exploré l’écoulement. Mais que se passe-t-il lorsqu’elle se solidifie au contact du froid ? Le sujet a son importance tant il intéresse l’industrie comme les acteurs de l’environnement.

Pour comprendre les études qui ont rythmé les trois années de thèse de Rodolphe Grivet au laboratoire d'hydrodynamique (LadHyX*) et à l’Institut Jean le Rond d’Alembert **, il faut zoomer au niveau de la ligne de contact entre une goutte d’eau et la surface sur laquelle elle évolue. Là où se rencontrent air, solide et liquide.

Équipé d’une caméra filmant à l’échelle de la milliseconde et sous lumière polarisée, Rodolphe Grivet a d’abord observé le mouvement de cette ligne lorsqu’une goutte s’étale sur une surface froide. « De petits cristaux de glace se forment à l’intérieur de la goutte, grandissent, rattrapent la ligne de contact et la stoppent. Ils apparaissent car l’eau proche de la surface froide est métastable (ndlr : elle est liquide mais peut évoluer rapidement vers un état solide qui est stable) et tend à se solidifier », explique le scientifique. Dans un deuxième temps, le jeune chercheur a analysé la fragmentation (splash) d’une goutte impactant des surfaces très froides. Il a montré qu’à partir de -60°C, celles-ci semblaient superhydrophobes. À ces températures en effet, la solidification au niveau de la surface de contact parait entraver l’étalement de l’eau. Enfin, Rodolphe Grivet a étudié la mouillabilité de la glace, une propriété caractérisée par l’angle formé au niveau de la ligne de contact entre la surface solide et la surface du liquide. Plus une surface est mouillante, plus la goutte s’étale, plus l’angle avoisine 0°, ce qui traduit l’affinité du liquide avec le solide. Or, lorsqu’une goutte d’eau rencontre de la glace, il y a rétractation spontanée de la goutte, suggérant que cet angle serait non nul. Cette hypothèse, Rodolphe Grivet l’a vérifiée via une expérience permettant de mesurer l’angle dans une situation bien contrôlée. « C’est contre-intuitif, mais l’eau liquide n’aime pas l’eau solide ». 

Ces travaux intéressent l’industrie et le secteur de l’environnement. Comprendre l’écoulement du métal en fusion est par exemple crucial dans le domaine de la fabrication additive. L’aéronautique, de son côté, est impactée par la solidification de l’eau sur les carlingues d’avion et l’instrumentation de vol. Enfin, les travaux de Rodolphe Grivet pourraient éclairer sur les écoulements en jeu dans les stalactites et les cascades de glace.

*LadHyX : une unité mixte de recherche CNRS, École polytechnique, Institut Polytechnique de Paris, 91120 Palaiseau, France
** Institut Jean Le Rond d’Alembert : une unité mixte de recherche Sorbonne Universités, CNRS, Paris, France

 

Jaafar Chakrani, prix de thèse 2024 du département de physique

Titre de thèse : Vers une compréhension complète des interactions neutrino-noyau avec l'upgrade du détecteur proche de T2K 

Au cours de sa thèse, Jaafar Chakrani a pris part à la grande collaboration internationale T2K dont l'objectif est de tenter de comprendre pourquoi l'univers est majoritairement formé de matière alors qu'elle a été produite en même proportion que l'antimatière lors du bigbang.

Pourquoi l’Univers est-il en très grande majorité formé de matière et non d’antimatière ? Tout laisse pourtant penser que les particules d’antimatière et de matière, qui sont en quelque sorte les jumelles les unes des autres, ont été produites en même proportion au moment du Big Bang. L’expérience T2K, au Japon, est une grande collaboration internationale qui tente d’apporter des éléments de réponse à cette grande question. Jaafar Chakrani a effectué sa thèse au Laboratoire Leprince Ringuet (LLR*) au sein de cette collaboration.

Le principe de T2K : un faisceau de neutrinos (ou d’antineutrinos, leurs jumelles d’antimatière) créé à partir d’un accélérateur de particule sur la côte est du Japon, parcourt plus de 300 km jusqu’à la côté ouest du pays. Durant ce trajet, ces particules « oscillent », c’est-à-dire qu’elles se transforment d’un type de neutrinos (ou d’antineutrinos) en un autre.  L’objectif est de mesurer d’éventuelles subtiles différences de comportement entre les neutrinos et les antineutrinos, qui pourrait expliquer, en partie, l’asymétrie entre matière et antimatière dans l’Univers. T2K a débuté en 2010 et a déjà récolté des indices en ce sens. L’expérience vient de connaître une importante mise à jour, à laquelle Jaafar Chakrani a contribué.

En particulier, c’est le détecteur proche de la source de neutrinos qui a été amélioré. « J’ai travaillé à la fois sur le côté matériel, la chaîne d’acquisition électronique du détecteur, mais aussi sur l’analyse et la modélisation théorique des incertitudes sur les mesures ». En effet, le détecteur mesure l’énergie des neutrinos au début de leur parcours, une grandeur qu’il est indispensable de connaître avec la meilleure précision possible. C’est un défi, car les neutrinos sont extrêmement difficiles à détecter. Pour le faire, les chercheurs mesurent indirectement les particules produites lors de la collision d’un neutrino et d’un noyau d’un atome du détecteur. Jaafar Chakrani a donc pris en compte de nombreux effets de physique nucléaire à l’œuvre dans sa modélisation, qui va désormais être utile pour analyser les nouvelles données prise par T2K jusqu’en 2027. Il poursuit aujourd’hui ses recherches dans le domaine : il a rejoint une autre collaboration internationale sur les neutrinos, DUNE, aux États-Unis, laquelle est en train de concevoir une expérience similaire à T2K.

*LLR : une unité mixte de recherche CNRS, École polytechnique, Institut Polytechnique de Paris, 91120 Palaiseau, France

Maxime Bombar, prix de thèse 2024 du département d'informatique, de données et d'IA

Titre de thèse : Codes structurés pour la cryptographie : des fondations théoriques de sécurité aux applications

Durant sa thèse, Maxime Bombar a étudié des méthodes de cryptographies résistantes à des attaques de potentiels futurs ordinateurs quantiques, tout en fonctionnant sur les machines actuelles.

Tous les jours, nous utilisons des systèmes de cryptographies sans nous en rendre compte. En effet, quand nous naviguons sur internet, les messages qui s’échangent entre ordinateurs, lorsqu’on consulte le site de sa banque par exemple, sont transmises de manières chiffrées par des algorithmes à la fois sûrs et efficaces. Le principal chiffrement est le système RSA, inventé à la fin des années 1970. Mais la cryptographie reste un domaine de recherche en mouvement, pour prévenir les éventuels risques futurs. « Les ordinateurs quantiques, s’ils existent un jour, pourraient « casser » le système de chiffrement RSA, et donc livrer toutes les données confidentielles, ce que ne peuvent pas faire les ordinateurs actuels » explique Maxime Bombar.

Durant sa thèse au Laboratoire d’informatique de l’Ecole polytechnique (LIX*), il a justement étudié des méthodes de cryptographies « post-quantiques », qui soient résistantes à ces attaques potentielles tout en fonctionnant sur nos ordinateurs actuels. En particulier, il a fourni les premières preuves de sécurité pour certaines familles de codes correcteurs d’erreur, qui font partie de ces méthodes post-quantiques. Initialement développés pour traiter les signaux bruités dans les communications, les codes correcteurs sont aussi intéressants pour la cryptographie car ils permettent de chiffrer facilement un message tout en étant extrêmement difficile à décoder pour quiconque ne possède pas la clé secrète. Ils font partie des méthodes en cours de standardisation par le NIST (National Institute of Standards and Technology, aux États-Unis).

De manière inattendue, Maxime Bombar s’est rendu compte que le cadre théorique qu’il a construit pour ses travaux fondamentaux pouvait s’appliquer dans un autre domaine de la cryptographie : le calcul multipartite sécurisé. « On peut vouloir faire des calculs sur des données chiffrées. Par exemple, sur un réseau social, savoir si deux personnes ont un ami commun mais sans pour autant connaître leur liste d’amis en entier. Il existe des moyens de faire ces calculs sans divulguer toutes les données. » Il a pu explorer les nouvelles perspectives très efficaces ouvertes par ces codes correcteurs. Le jeune chercheur continue aujourd’hui ses recherches en post-doctorat, et sera à partir de l’année prochaine maître de conférences à l’université de Bordeaux.

*LIX : une unité mixte de recherche CNRS, École Polytechnique, Institut Polytechnique de Paris, 91120 Palaiseau, France

Elio Nimier-David, prix de thèse 2024 du département d'économie

Titre de thèse : Entreprises, territoires et inégalités

Au cours de sa thèse, Elio Nimier-David a étudié les facteurs nécessaires à la création et au développement de jeunes entreprises, notamment celles à fort potentiel de croissance, dans un contexte de baisse du dynamisme économique de nombreux pays développés.