Faculté des arts et des sciences – Département de physique - Thèses et mémoires
URI permanent de cette collectionhttps://hdl.handle.net/1866/2990
Cette collection présente les thèses et mémoires des étudiant.e.s du Département de physique de l'Université de Montréal.
1990 - : Couverture exhaustive (quelques titres manquants)
avant 1990 : Période non couverte ou couverture partielle
Pour plus d'information sur le dépôt des thèses et mémoires consulter le site Thèses et mémoires des bibliothèques
Parcourir
Dépôts récents
Item Accès libre Combiner les méthodes ab initio et l'apprentissage automatique pour l'étude de la spectroscopie Raman et des défauts dans les matériaux 2DMalenfant-Thuot, Olivier; Côté, Michel (2024-08)Ma thèse porte sur l’étude théorique des défauts dans les matériaux 2D, ainsi que sur le déveleppoment de nouvelles méthodologies basées sur l’apprentissage automatique. Ces méthodologies permettent d’augmenter nos capacités prédictives par rapport aux calculs ab initio, par le biais de prédictions directes et indirectes de la réponse Raman de matériaux comme le graphène et le nitrure de bore. Je présente d’abord des résultats de calculs DFT reliés à la fonctionnalisation du graphène par plasma d’azote, qui ont permis une meilleure compréhension des résultats du processus de dopage, mais aussi de la dynamique de création des sites fonctionnalisés. Au cours de ces travaux, il est devenu évident qu’une meilleure compréhension des résultats expérimentaux obtenus par spectroscopie Raman était primordiale pour l’étude des défauts dans les matériaux 2D. Afin d’accomplir cet objectif, le reste de mes travaux porte sur l’apprentissage automatique qui permet des prédictions plus rapides et à plus grande échelle que la DFT. Je me penche d’abord sur l’étude de la prédiction de dérivées à partir de modèles d’apprentissage automatique, une étape primordiale pour les méthodologies que je voulais développer. Ensuite, je présente deux différentes méthodologies développées pour la prédiction de la réponse Raman de matériaux. La première émule étroitement les méthodes ab initio en prédisant directement les fonctions de réponse et en calculant explicitement leurs dérivées pour obtenir les quantités sous-jacentes aux spectres. La seconde méthodologie repose sur la prédiction précise des perturbation aux modes de phonons par la présence de défauts puis à la prédiction de nouvelles intensités Raman suite à ces perturbations.Item Accès libre Caractérisation de super-Terres tempérées autour d’étoiles de faible masse pour contraindre leur composition interne et atmosphériqueCadieux, Charles; Doyon, René (2025-04)Les exoplanètes sont omniprésentes dans la galaxie. Une découverte majeure dans ce domaine d'étude a été de révéler que les exoplanètes les plus communes ont une taille entre celle de la Terre et celle de Neptune, et sont couramment trouvées sur des orbites compactes de période de moins de 100 jours, ce qui diffère fortement de la configuration du Système solaire. Une séparation au rayon d'environ 1.7 rayon terrestre divise la population des exoplanètes en deux : les super-Terres rocheuses, qui sont essentiellement des versions agrandies de la Terre, et les sous-Neptunes, dont l'atmosphère épaisse riche en hydrogène rappelle Neptune. La composition exacte et les processus de formation et d'évolution des super-Terres et des sous-Neptunes sont aujourd'hui des énigmes sans réponse claire, en particulier pour les exoplanètes près de la transition rocheuse-gazeuse. Cette thèse se concentre sur la caractérisation de trois systèmes de super-Terres tempérées autour d’étoiles de faible masse : TOI-1452, LHS 1140 et L 98-59. Diverses techniques sont employées pour contraindre la composition interne et atmosphérique des super-Terres. On profite du transit de l'exoplanète devant son étoile pour mesurer son rayon ainsi que le niveau de transparence (composition chimique) des couches superficielles de son atmosphère. La spectroscopie Doppler est utilisée pour mesurer les oscillations de la vitesse radiale de l’étoile centrale causées par la présence d'un compagnon planétaire, ce qui permet de déterminer sa masse. Les naines M sont plus petites et moins massives que les étoiles de type solaire (F, G, ou K), ce qui est avantageux pour ces deux techniques et en font des cibles clés pour étudier en détail leur système planétaire. Depuis le début des opérations du télescope spatial James-Webb (JWST) en 2022, une nouvelle génération d'instruments est désormais disponible pour étudier les atmosphères d'exoplanètes à un niveau sans précédent. Les travaux présentés dans cette thèse sont basés sur des observations avec les télescopes spatiaux TESS, Spitzer, HST, et JWST et les spectrographes au sol optimisés pour la vitesse radiale de haute précision, SPIRou et ESPRESSO. Un premier résultat important est la découverte et la caractérisation d'une nouvelle super-Terre tempérée qui transite l'étoile TOI-1452 tous les 11.06 jours. Le rayon (1.67 ± 0.07 R🜨) et la masse (4.8 ± 1.3 M🜨) de TOI-1452 b, couplés à des modèles de structure interne, suggèrent une composition enrichie en éléments plus légers que la roche (e.g., H₂O). L'instellation faible et la gravité de surface relativement élevée de TOI-1452 b augmentent la probabilité de maintenir une atmosphère épaisse à long terme, ce qui en fait une cible de choix pour une caractérisation atmosphérique future avec le JWST. Ensuite, le système LHS 1140 comportant deux super-Terres, dont LHS 1140 b dans la zone habitable, a été revisité en analysant pour la première fois dans une même étude pratiquement toutes les observations d'archive en transit et en vitesse radiale. Cette réanalyse a permis d'améliorer significativement la précision sur le rayon et la masse des super-Terres, en plus de démontrer que LHS 1140 b est moins dense qu’initialement rapporté et pourrait être soit une mini-Neptune (~0.1% H/He par masse) ou une planète océanique (9-19% H₂O par masse) avec potentiellement de l'eau liquide à la surface. Pour départager ces scénarios, deux transits de LHS 1140 b ont été observés avec l'instrument NIRISS sur le JWST en décembre 2023 pour caractériser son atmosphère. Ces observations ont permis de formellement rejeter le scénario de mini-Neptune et sont compatibles à 2.3σ avec une atmosphère riche en N₂. Les résultats sur LHS 1140 b, si confirmés, constitueraient la toute première détection d’une atmosphère similaire à la Terre sur une exoplanète en orbite dans la zone habitable de son étoile. Enfin, cette thèse présente une réanalyse des observations d'archive en transit et en vitesse radiale de L 98-59, qui compte quatre exoplanètes connues, dont trois qui transitent l'étoile hôte. En plus d’affiner les mesures de masse et de rayon des exoplanètes, cette étude confirme une cinquième exoplanète (L 98-59 f, Mp sin i = 2.84 ± 0.30 M🜨) située dans la zone habitable. Les cinq exoplanètes dans une configuration orbitale compacte (P = 2.252, 3.691, 7.450, 12.805 et 23.05 jours) montrent des compositions diverses (terrestres et enrichies en eau), ce qui en fait un système unique pour étudier la formation et l'évolution de petites planètes dans un même environnement stellaire initial. Cette thèse s'inscrit dans un contexte de récentes découvertes individuelles pointant vers l'existence de super-Terres globalement rocheuses, mais dont la densité plus faible suggère une composition riche en eau (planètes océaniques). D'un point de vue de formation, ces résultats suggèrent qu'autour de naines M, des planètes peuvent se former loin de leur étoile hôte, là où l'eau en phase condensée est abondante pour l'accrétion, avant de migrer vers des orbites plus proches, correspondant à leur position actuelle.Item Accès libre Évaluation de la performance de modèles d’apprentissage profond pour la conversion bimodale IRM-CT de la région pelvienneDubois, Antoine; Carrier, Jean-François (2025-03)L'utilisation de l'IRM et du CT en radiothérapie externe nécessite la fusion entre les deux modalités entraînant des erreurs systématiques. En curiethérapie HDR, la possibilité d'obtenir un CT synthétique à partir de l'IRM pré-traitement pourrait permettre de prendre en compte les hétérogénéités du patient lors du calcul de dose. Un besoin commun est alors de convertir un IRM en un CT synthétique. Les modèles d'apprentissage profond incluant le U-Net, le ResNet, le pix2pix et le cycleGAN ont été développés afin de générer un CT synthétique de la région pelvienne dans le cas du cancer de la prostate. Une base de données publique qui comprend des IRM à contraste T1 ainsi que des CT alignés a été divisée en deux ensembles pour l'entraînement et l'évaluation des modèles. L'IRM a été normalisée de sorte à uniformiser les signaux des mêmes tissus entre les patients. Le CT a été normalisé par la plage [-1000, 1500] HU afin de conserver l'aspect quantitatif. La performance des modèles entraînés s'est faite principalement à l'aide de la SSIM, de l'erreur moyenne absolue (MAE) et du coefficient de Dice pour les os (DSC). Parmi les modèles entraînés sur des images de 128 pixels, le U-Net 128 est le plus performant avec un SSIM de 0.822 ± 0.055, un MAE de 45.3 ± 15.9 HU ainsi qu'un DSC de 0.780 ± 0.080. Pour les images de 256 x 256 pixels, le U-Net 256 est celui qui performe le mieux avec un SSIM de 0.839 ± 0.039, un MAE de 47.0 ± 15.6 HU et un DSC de 0.779 ± 0.082. Il est également le modèle recommandé. Il a été noté que l'alignement entre l'IRM et le CT synthétique est meilleur qu'avec le CT réel. Le modèle est restreint à la région près de la prostate en dehors duquel la performance diminue significativement. Une autre limitation inclut la normalisation de l'IRM qui est trop sensible au champ de biais. La performance du modèle s'est considérablement détériorée avec l'utilisation de données d'un autre centre. La suite du projet est de revoir la normalisation de l'IRM, d'ajouter une troisième dimension comme intrant au modèle et de modifier la méthode d'inférence. Une analyse dosimétrique est cruciale pour mesurer la faisabilité clinique du modèle. Somme toute, un modèle permettant de générer un CT synthétique en quelques secondes avec une bonne fidélité à l'IRM a été produit.Item Accès libre Commissioning of the MARS Spectral Photon-counting Computed Tomography ScannerDamulira, Edrine; Bouchard, Hugo (2025-03)During computed tomography (CT) commissioning, image quality and radiation output of CT systems are investigated to assure compliance and set baseline reference values. In the proceeding quality assurance tests, the reference values are based on to assess performance deterioration of a CT system. Through the execution of commissioning on various systems in different clinics, global tolerance values are set, and these become the standards references. Nevertheless, there currently exists limited literature on the commissioning procedures per- taining to spectral photon-counting CT (SPCCT), which implies absence of standards or even adapted tolerance levels for these systems currently. Therefore, this study firstly aims to ensure reproducibility of the commissioning results reported in Gallego-Manzano et al. [1] by executing the same protocol and experiments therein and comparing the results after. The comparison was feasible because both the MARS scanner models (MARS Bioimaging Ltd., Christchurch, New Zealand) had similar technical specifications. The second goal of this study was to set baseline values that were to be referenced on in the future quality assurance tests. Finally, this study intended to examine SPCCT tolerances, that investigate the variation of the system performance from the typical standards that are currently set for clinical CTs. Owing to the smaller bore size compared to standard clinical CTs, all the phantoms im- plemented here for tests were fabricated while adapting them from existing clinical models. Technical performance metrics for image quality and radiation output were executed. Im- age quality performance metrics were HU uniformity, HU accuracy, slice sensitivity profile (SSP), and noise magnitude. Also, radiation output assessment metrics were exposure lin- earity, CTDIvol, and radiation protection. Operational performance was out of scope of this study because the scanner herein was to be implemented for preclinical research. The scanner’s material quantification potential was additionally investigated by demonstrating the dependence of high-Z material (iodine, gold, gadolinium, and calcium) Hounsfield Units on concentration and energy. The MARS scanner performance test results for all the tested metrics were comparable to those reported in Gallego-Manzano et al. [1]. For example, the in-plane and cross-plane spatial resolutions for 10 % of the MTF were 1.401 and 5.837 lp/mm, respectively. For 50 % of the MTF, it was 0.769 and 2.878 lp/mm respectively for the in-plane and cross-plane. The calculated effective slice thickness also ranged between 0.15 and 0.18 mm when the reconstructed voxel size was 0.1 mm × 0.1 mm × 0.1 mm. The only notable difference in the results was observed during radioprotection, where the dose rates herein were much lower than those in Gallego-Manzano et al., i.e., 0.300 versus 100 μSv/h [1]. The latter difference in the dose rates was attributed to the presence of the access port door during the scans herein, which absorbed most of the radiation. Throughout all the performance metric evaluations, baseline values were set. Although standard tolerances were defined for conventional non-spectral scanners, most of the scanner results herein conformed to the reported standard tolerances.Item Accès libre Structures lisses exotiques en physiqueChiapi Ngamako, Ulrich; Paranjape, Manu; MacKenzie, Richard (2025-01)Ce mémoire porte sur l'étude des effets physiques des structures différentielles exotiques dans les théories de Kaluza-Klein. Dans un premier temps, nous considérons les 7-sphères exotiques de J. Milnors, que nous mettons en relation avec des solutions des équations de Yang-Mills avec groupe de jauge \(SO(4)\). Ce faisant, nous relions les invariants topologiques des \(SO(4)-\)multi-instantons et autre connections de Yang-Mills que nous construisons avec ceux de certains fibrés différentiels associés aux 7-sphères exotiques de Milnor. Ensuite, nous nous servons de la description de ces 7-sphères exotiques comme espaces fibrés au-dessus de \(S^4\) avec fibre \(S^3\) et groupe de structure \(SO(4)\) pour construire des métriques de type Kaluza-Klein sur elles. Ces métriques sont déterminées par la donnée d'une métrique Riemannienne sur \(S^4\), d'une métrique Riemannienne sur la fibre \(S^3\) invariante sous \(SO(4)\), ainsi qu'une connexion de Yang-Mills avec groupe de jauge \(SO(4)\) et dont les potentiels de jauge donnent les invariants topologiques des 7-sphères exotiques. Par la suite, nous faisons une réduction de la théorie Kaluza-Klein sur les 7-sphères exotiques à une théorie de type Einstein-Yang-Mills avec constante cosmologique sur l'espace-temps compactifié \(S^4\). Sous cette réduction, des solutions des équations de Einstein-Yang-Mills sur \(S^4\) apparaissent naturellement. Par ailleurs, nous avons étudié les effets physiques des 7-sphères exotiques munies de métriques de type Kaluza-Klein après la réduction sur \(S^4\). Pour ce faire, nous nous servons des propriétés de l'opérateur de Dirac des espaces symétriques pour déterminer le spectre de l'opérateur de Dirac sur une 7-sphère exotique dans la limite Kaluza-Klein et sur le spectre du du Hamiltonien de Dirac pour des fermions sur \(S^4\) en présence de \(SO(4)-\)multi-instantons à symétrie sphérique après réduction Kaluza-Klein. Une dépendance explicite du spectre sur les invariants topologiques des fibrés de Milnor (utilisés dans la construction des 7-sphères exotiques) est finalement obtenue. Des applications possibles en physique de la matière condensée sont également discutées. Nous avons également étudié l'interaction des particules sur des variétés lisses exotiques et/ou sur des variétés ne possédant pas de structure lisse. Finalement, les 7-sphères exotiques de Milnor munies des métriques de type Kaluza-Klein que nous construisons sont aussi des solutions << exotiques >> du modèle sigma non-linéaire avec groupe de symétrie \(O(5)\).Item Accès libre Âge cinématique des associations stellaires jeunes du voisinage solaireCouture, Dominic; Gagné, Jonathan; Doyon, René (2023-12)L'objectif de cette thèse est de développer une méthode numérique capable de calculer l'âge cinématique des associations stellaires jeunes du voisinage solaire. Ces associations de faible densité, gravitationnellement non liées, regroupent des étoiles s'étant formées à la même époque lors d'un seul évènement de formation stellaire. En retraçant les orbites galactiques de leurs membres, qui sont principalement des étoiles naines de type M de faible masse, il est possible de retrouver l'époque où leur étendue spatiale était minimale et de calculer leur âge sans recours à des modèles d'évolution stellaire. Cette approche, appelée la méthode du retracement (traceback), est d'un intérêt tout particulier, car des étoiles de faible masse à proximité du Soleil, avec des contraintes fiables sur leur âge, sont des cibles de choix pour la recherche et la caractérisation d'exoplanètes. L'outil d'analyse de retracement développé, le paquet python Kinematic Age for Nearby Young Associations (kanya), est appliqué sur un échantillon de membres validés du cœur de l'association β Pictoris (βPMG ; β Pictoris Moving Group), l'une des associations les plus proches et mieux étudiées, à l'aide des données astrométriques et cinématiques du catalogue Gaia DR3 et de nombreux relevés cinématiques à haute précision. Cette analyse démontre qu'il est nécessaire de minimiser la contamination de l'échantillon par des systèmes multiples non résolus et de corriger deux biais systématiques sur les mesures de vitesse radiale héliocentrique, soit le décalage vers le rouge gravitationnel et le décalage vers le bleu convectif, ainsi qu'un biais sur les âges de retracement dû aux erreurs de mesure. Parmi les métriques de la taille de l'association étudiées, la variance dans l'axe ξ′ (c'est-à-dire vers le centre galactique) offre le moins d'erreurs aléatoires et systématiques, grâce à la grande dispersion en vitesse spatiale de βPMG dans cet axe, et permet d'estimer l'âge de l'association à \(20,3 ± 3,4\) millions d'années (Ma). C'est la première fois qu'une méthode cinématique donne un résultat compatible avec les contraintes antérieures de la littérature scientifique sur l'âge de βPMG, obtenues avec les méthodes des isochrones et de la limite d'épuisement du lithium (LDB, lithium depletion boundary). Ce nouvel outil d'analyse de retracement est également appliqué aux associations Tucana-Horologium (THA ; Tucana-Horologium association), Columba (COL) et Carina (CAR). Bien que les membres de THA soient identifiés conformément aux limites établies de l'association, il n'y a pas de frontière claire entre les membres de COL et CAR, alors ces deux associations ont été combinées en un seul échantillon pour les fins de ces travaux. L'analyse de retracement démontre qu'une métrique plus générale de la taille de l'association, soit la longueur moyenne de toutes les branches reliant les membres de l'échantillon entre eux, est celle qui offre la meilleure combinaison de précision, fiabilité et contraste. kanya trouve un âge de \(44,8^{+2,1}_{-7,0}\) Ma pour THA et de \(28,4^{+1,8}_{-2,9}\) Ma pour COL et CAR, démontrant qu'il est possible de trouver un âge cinématique compatible avec d'autres contraintes de la littérature scientifique, obtenues avec les méthodes des isochrones et de la LDB, pour des associations aussi vieilles que THA, ainsi que pour COL et CAR. Dans le futur, cette méthode pourra être appliquée à d'autres associations locales jeunes grâce aux données des prochains catalogues issus de la mission Gaia.Item Accès libre Chaînes de spin inhomogènes et ouvertesBussière, Ismaël; Vinet, Luc (2025-03)Au chapitre 1, le modèle de la chaîne inhomogène de spin de type XX est introduit puis résolu à l'aide de polynômes orthogonaux. Le chapitre 2 présente les éléments essentiels à l'analyse de systèmes ouverts quantiques. L'équation gouvernant la dynamique du modèle précédemment introduit lorsque couplé à ses extrémités à deux bains thermiques bosoniques est dérivée. Au chapitre 3, le flux de spin et le flux thermique sont examinés pour ce modèle. À l'aide de fonctions spéciales qui diagonalisent l'hamiltonien, une expression de forme fermée est trouvée ces courants. Pour des petites différences de température entre les deux bains, il est montré que briser la symétrie miroir de la chaîne diminue drastiquement la conduction thermique et la conduction de spin. Des liens avec le transfert parfait d'état sont discutées.Item Accès libre Étude des techniques de segmentation et correction pour le déplacement du positron en tomographie par émission de positronsLaporte, Philippe; Carrier, Jean-François (2025-03)La Tomographie par Émission de Positrons (TEP) est une modalité d’imagerie. Elle permet d’imager la concentration d’un composé radiopharmaceutique de manière non-invasive dans un patient. La taille des détecteurs, la reconstruction des images et la portée du positron sont des facteurs physiques affectant la résolution spatiale de la TEP. L’imagerie TEP dynamique est utilisée dans plusieurs contextes d’application, dont la biodistribution. Le but de cette thèse est d’évaluer les méthodes actuelles de segmentation en TEP dans un contexte dynamique et de déterminer une méthode de correction du déplacement du posi- tron, qui a un impact sur la résolution spatiale. Dans les études TEP pharmacocinétiques, il est souvent nécessaire de segmenter les images d’un tissu d’intérêt ou d’un organe. Dans un premier temps, cette thèse analyse la notion que les segmentations statiques de médecine nucléaire ne sont pas adéquates dans un contexte dynamique. Ensuite, une infrastructure numérique a été développée. Le résultat est une interface graphique, baptisée Techniques for Reliable Use of Images in Medical Physics ou TRU-IMP. La flexibilité rend cet outil pertinent dans un contexte de recherche clinique et académique, puisqu’il est facile de le modifier pour ajouter des outils adaptés aux besoins. Finalement, une méthode pour corriger la perte de résolution due au déplacement du positron est présentée. Cette correction est faite au niveau de la courbe d’activité temporelle. Cette estimation de la perte de résolution en imagerie TEP permet une meilleure précision des analyses pharmacocinétiques. Cette méthode est implémentée dans l’interface TRU-IMP. L’ensemble de cette thèse se penche sur la méthodologie d’analyse en TEP dynamique quantitative. Les retombées cliniques et scientifiques sont importantes, dans la mesure où les études deviendront plus précises. De nombreuses pistes de recherche ultérieures sont présentées, dont l’application en TEP/IRM, la propagation à d’autres formes de pertes de résolution et le développement de nouveaux algorithmes de segmentation.Item Accès libre Étude statistique et observationnelle des éruptions solaires sympathiquesGuité, Louis-Simon; Charbonneau, Paul; Strugarek, Antoine (2025-03)Les éruptions solaires figurent parmi les phénomènes les plus énergétiques de notre système solaire. La radiation intense et, parfois, l’éjection de masse qu’elles génèrent peuvent avoir des répercussions directes sur nos technologies et infrastructures, tant sur Terre que dans l’espace. Étudier ces événements éruptifs est donc essentiel pour comprendre les mécanismes qui les déclenchent et ainsi tenter de les prédire. Dans ce contexte, il est pertinent de s’intéresser à un type particulier d’éruptions: les éruptions solaires sympathiques. Ces dernières montrent des corrélations dans l’espace et dans le temps, probablement causées par une interaction physique entre les régions actives dans lesquelles elles se déclenchent. Cependant, aucune preuve statistiquement significative de leur existence n’a encore été présentée. Dans ce mémoire, nous analysons les éruptions solaires sympathiques afin de quantifier leurs propriétés physiques et statistiques en fonction de la phase du cycle solaire. Pour y arriver, nous utilisons des observations d’un grand nombre d’éruptions, obtenues grâce aux missions spatiales Solar Dynamics Observatory, Reuven Ramaty Energy Solar Spectroscopic Imager et Solar Orbiter. Pour la première fois, nous démontrons de manière statistiquement significative la présence des éruptions solaires sympathiques sur le Soleil, avec un déclenchement caractérisé par une échelle temporelle et spatiale précise. Nous proposons également un modèle physique fondé sur la taille des boucles de champ magnétique reliant différentes régions actives, afin d’expliquer les échelles caractéristiques observées. De plus, nous quantifions la fréquence de ces événements, ce qui pourrait éventuellement influencer les modèles prédictifs présentement utilisés pour la météorologie spatiale. Ce mémoire présente une étude novatrice, établissant ainsi une base solide pour de futures recherches statistiques sur ces éruptions fascinantes.Item Accès libre Caractérisation d’atmosphères de géantes gazeuses par la spectroscopie à haute résolution spectraleBazinet, Luc; Benneke, Björn (2025-03)La science des exoplanètes a connu une croissance exponentielle depuis la découverte de la première exoplanète autour d'une étoile de type solaire il y a trois décennies. Grâce à l'avancement de techniques numériques et d'instruments astronomiques, il est maintenant possible de détecter et caractériser l'atmosphère d'exoplanètes avec une précision inégalée. L'une de ces méthodes révolutionnaires exploite la spectroscopie à haute résolution spectrale et la corrélation croisée pour étudier l'atmosphère d'exoplanètes. La spectroscopie à haute résolution permet de résoudre les lignes spectrales des espèces chimiques. Ceci permet de quantifier l'abondance de ces espèces dans l'atmosphère des exoplanètes. Les Jupiter chaudes sont les meilleures cibles pour l'analyse atmosphérique. Celles-ci reçoivent une quantité d'énergie extrême de leur étoile hôte, menant à des processus physiques et chimiques absents dans le Système solaire. Entre autres, les atmosphères de Jupiter chaudes sont principalement composées d'espèces chimiques simples. Ce mémoire présente l'analyse atmosphérique de deux Jupiter chaudes à l'aide de données d'instruments à haute résolution spectrale. L'étude de l'exoplanète HIP 65Ab présentée dans le présent mémoire consiste en la première étude de l'atmosphère de cette planète. Avec la corrélation croisée, accompagnée par la récupération de paramètres, nous avons quantifié les abondances d'eau et de monoxyde de carbone sur le côté jour de la planète. Par la suite, il est possible de spéculer quant à la position de la formation et le scénario de migration planétaire de HIP 65Ab. Le deuxième article consiste en l'étude du spectre d'émission de la Jupiter ultra-chaude WASP-121b. Nous avons détecté de l'eau et le radical hydroxyle (OH) dans l'atmosphère de la planète. Le radical hydroxyle est principalement créé par la dissociation de l'eau, alors il peut agir comme un thermomètre. Nous investiguons un décalage de vitesse du signal de l'eau, qui peut être attribué à une non-uniformité de la distribution de l'eau, à des vents ou à du bruit intrinsèque. Ces articles nous en apprennent davantage sur la composition et la dynamique de la population des géantes gazeuses, ce qui nous renseigne sur les planètes géantes de notre Système solaire.Item Accès libre Effet du chauffage coronal sur l’évolution magnétorotationelle des étoiles de type solaireLévesque, Michaël; Charbonneau, Paul (2024-08)La loi de la gyrochronologie Ω ∝ t −1/2 permet d’évaluer l’âge des étoiles en se basant sur leur vitesse de rotation Ω. De récentes observations (van Saders et al., 2016; Metcalfe et al., 2016), faites à l’aide de l’astérosismologie pour les étoiles de type solaire plus âgées que le Soleil, ont montré que plusieurs d’entre elles tournent plus rapidement qu’attendu. Nous introduisons ici une procédure composée de deux modèles et d’une loi de puissance pour reproduire ce bris de la gyrochronologie. Cette procédure utilise un modèle magnétohydrodynamique de vent coronal polytropique, proposé pour la première fois par Weber et Davis (1967), couplé avec un modèle d’évolution de la rotation de MacGregor et Brenner (1991) qui inclut la redistribution du moment cinétique du coeur radiatif vers l’enveloppe convective des étoiles de type solaire lorsque ces dernières perdent du moment cinétique. En première partie, je présente la dérivation et les caractéristiques du modèle de vent WD et du modèle d’évolution de la rotation. Le coeur du travail est un article qui présente les explorations de l’espace des paramètres du modèle WD conjointement avec une analyse du dépôt d’énergie dans la couronne. Ces analyses ont révélé que la perte de moment cinétique dJ/dt n’est pas une fonction monotone de la température et que ni dJ/dt ni la perte de masse dM/dt ne peuvent être exprimées comme une loi de puissance de la température, comme c’est souvent fait dans le cadre de modèles semi-empiriques. Nous avons cependant mis à jour une forte corrélation entre la perte de masse en dM/dt(T,α) et le chauffage volumique S(T,α) en fonction de la température et l’indice polytropique. Nous introduisons également une loi de puissance T/T⊙ = (Ω/Ω⊙) σ , pour que notre modèle d’évolution de la rotation dévie de la loi de la gyrochronologie et nous avons constaté que nous obtenons une diminution de la perte de moment cinétique appréciable pour des σ > 1.2 en accord avec des modélisations semi-empiriques antérieures (Ó Fionnagáin et Vidotto, 2018) qui ont ajusté cette même loi de puissance à des étoiles plus vieilles que le Soleil. Je conclus en résumant nos découvertes et discute de la suite de ce projet de recherche. En annexe sont présentées les dérivations complètes du modèle Weber-Davis, les dérivations des équations de dépôt d’énergie, les dérivations de nos procédures d’adimensionalisation de nos paramètres et de normalisation.Item Accès libre Analyse approfondie de la composition chimique de l’étoile naine blanche WD 1145+017 et de son disque circumstellaireLe Bourdais, Érika; Dufour, Patrick (2024-07)This thesis presents a thorough analysis of the chemical composition of polluted white dwarf WD 1145+017 and its circumstellar environment. The presence of metals in the atmospheres of white dwarfs allows for the identification of the bulk chemical composition of planetary systems. Several actively disintegrating planetesimal fragments orbit this stellar remnant, causing exceptional transits and circumstellar absorption profiles. To better quantify the photospheric abundances, we improved a model capable of reproducing the profiles of WD 1145+017 and integrated it into our abundance determination. These calculations were performed over dozens of epochs of high-resolution spectroscopic data in the visible and ultraviolet spectral regions. This study yields interesting results for the WD 1145+017 system and the field polluted white dwarfs. We detected 16 elements in the photosphere of this white dwarf, tying GD 362 as the most polluted white dwarfs in terms of number of elements in the photosphere. In the disk, we observed a significant degeneracy between density, temperature, and chemical composition, implying that our model is not precise enough yet to draw constrain the disk's properties. Finally, the most significant result of this work is that we quantified the effects of the interstellar medium and the disk on abundance calculations. Indeed, excluding these contributions can lead to abundances that are 10 times higher than reality. Consequently, the abundances of other highly polluted white dwarfs may need revisions in the future.Item Accès libre Transport : de l'évolution à la projection en passant par la modélisationLavictoire, Frédérik; Mousseau, Normand; Bahn, Olivier (2024-08)Le secteur des transports est l'un des principaux contributeurs aux émissions mondiales de gaz à effet de serre, ce qui le place au cœur des efforts de décarbonation des prochaines décennies. Réduire ces émissions est impératif, et plusieurs stratégies sont envisageables pour y parvenir. Parmi elles, l'électrification des véhicules légers, qui constituent la majeure partie des émissions de ce secteur, se distingue comme une solution particulièrement prometteuse. Toutefois, cette transition entraînera des répercussions significatives sur les systèmes énergétiques et économiques, nécessitant une mise en œuvre soigneusement planifiée. Ce mémoire se divise en deux sections. La première partie, composée des Chapitres 1, 2 et 3, examine la transition vers les véhicules électriques dans la province de Québec en analysant les données sur les voitures en circulation de 2011 à 2021. Le premier chapitre débute par une présentation des défis et des solutions mises en œuvre à travers le monde pour réduire les émissions du secteur des transports. Il aborde ensuite les enjeux spécifiques à la situation du Québec. Le Chapitre 2 quantifie l'augmentation du nombre et de la masse moyenne des véhicules. Cette analyse permet de projeter la composition future d'une flotte électrifiée en fonction des objectifs gouvernementaux et d'estimer la demande en électricité associée selon différents scénarios d'évolution du parc automobile. Cette étude prend également en compte la réduction d'autonomie des véhicules électriques en hiver, lorsque les températures plus basses affectent leur performance. De plus, grâce au mixte énergétique très faible en émissions du Québec, les bénéfices environnementaux de cette transition sont mis de l'avant. Le Chapitre 3 termine cette section en approfondissant certains aspects méthodologiques, notamment en abordant les incertitudes liées aux données analysées. Ces trois premiers chapitre servent d'ailleurs de mise en contexte vers la seconde partie de mon mémoire, présentée au Chapitre 4. Ce chapitre traite de l'implémentation d'un module de transport des passagers dans un modèle d'évaluation intégré nommé MERGE. Ce modèle sert notamment à modéliser l'économie, l'énergie et le climat en séparant le monde en 15 régions et permet de projeter l'effet de politiques environnementales jusqu'en 2100 par incrément de 10 ans. Après une revue de la littérature d'autres modèles similaires ayant déjà une composante de transport, la méthodologie sélectionnée est présentée en détail. L'implémentation du secteur des transports dans MERGE est par la suite validée par l'analyse de résultats selon différents scénarios de décarbonation globale et sectorielle. Dans l'ensemble, ce mémoire offre une compréhension approfondie des défis actuels associés au transport routier des passagers. À l'échelle régionale, il fournit une analyse détaillée de l'évolution de la flotte de véhicules au Québec et projette la demande d'électricité des véhicules électriques. À l'échelle mondiale, il explore les implications économiques, énergétiques et environnementales de cette transition à travers l'ajout d'un module de transport dans un modèle d'évaluation intégré.Item Accès libre À saveur de \(B\): Une analyse des désintégrations des mésons \(B\) en 2 mésons pseudoscalaires et en 3 mésons pseudoscalaires sous la symétrie \(SU(3)_F\)Jean, Alexandre; London, David (2024-11)Le modèle standard est le pilier central de la physique des particules. Il a su décrire avec précision les interactions entre les particules et a joué un rôle important dans le développement de la physique moderne. Cependant, celui-ci est incomplet. C'est dans l'espoir de découvrir de la nouvelle physique que nous avons exploré certaines failles du modèle standard, plus particulièrement dans le paradigme des désintégrations hadroniques des mésons B . L'une des questions sur laquelle nous nous sommes penchés est la violation CP. L'interaction faible étant au centre de la désintégration des mésons B, ce système est propice à l'étude de la violation CP. Dans le premier article de ce mémoire, nous discutons de la méthodologie pour étudier les désintégrations vers un état final composé de trois mésons pseudoscalaires dans un état purement antisymétrique. Nous y présentons une méthode pour extraire la phase gamma au centre de l'interaction faible et nous présentons différentes relations existant entre les désintégrations sous la symétrie SU(3)F. Cette symétrie est d'ailleurs le centre de notre recherche pour le deuxième article. Nous y étudions les désintégrations vers deux mésons pseudoscalaires. Utilisant la théorie des groupes pour paramétrer les désintégrations, il est possible d'exprimer les désintégrations avec 13 paramètres théoriques. Ayant assez de données expérimentales pour effectuer un fit sur les paramètres, nous avons pu déterminer que pour bien décrire les données expérimentales, le fit requière une brisure de la symétrie SU(3)F de l'ordre de 1000%. Cette valeur étant largement supérieure à la valeur prédite par le modèle standard, ceci pourrait être une indication de la présence de nouvelle physique.Item Accès libre Synthèse et caractérisation des propriétés physiques du Sr2FeO4, NiGa3 et du Sr3Fe4O13Desmarais, Mathieu; Bianchi, Andrea (2024-04)Au cours de ce projet, nous avons reporté deux nouveaux matériaux : le NiGa3 et le Sr3Fe4O13. Des mesures de magnétisation ont été effectuées sur ce dernier. Trois températures de transition de phase ont été identifiées pour le Sr3Fe4O13 à Ts=(46.0±0.4)K, T1=(20.4±0.4)K et T2=(8.3±0.5)K, montrant une phase magnétique complexe. Sous 8K, la phase est ferromagnétique, supportée par l’hystérèse dans les mesures de M vs H. Le modèle de Curie indique des interactions antiferromagnétiques. Pour le NiGa3, des mesures de chaleur spécifique, de résistivité et de magnétisation ont été effectuées. Les mesures de résistivité en fonction de la température montrent un comportement métallique avec un ordre de grandeur de 106μΩ-cm. Le matériau montre aussi une hystérèse en température entre 283K et 304K. La chaleur spécifique montre une contribution en ∼ T5 à basse température, attribuée à la contribution anharmonique des phonons. Aucune chaleur latente n’a été détectée autour de l’hystérèse en résistivité. Le modèle de Curie appliqué aux mesures de magnétisation montre la présence d’interaction antiferromagnétique. Une hystérèse dans l’inverse du moment magnétique en fonction de la température a également été détectée, avec une variation en fonction du champ magnétique appliqué. Les paramètres de Curie varient en fonction du champ appliqué, attribués à un mécanisme de magnétisme itinérant. Le but original de ce projet était de synthétiser des échantillons monocristallins de Sr2FeO4 et d’en étudier les propriétés thermodynamiques. Une conversion complète de la poudre polycristalline n’a pas été atteinte.Item Accès libre Négativité d’intrication dans les systèmes de fermions libres inhomogènesBlanchet, Gabrielle; Vinet, Luc (2024-09)Nous investiguons l’intrication entre deux régions non-complémentaires dans la chaîne de Krawtchouk, et ce, par le biais de la négativité logarithmique fermionique. Le premier cas étudié concerne deux intervalles adjacents. Nous retrouvons les résultats prédits par une théorie conforme des champs ayant une charge centrale de 𝑐=1. Nous étudions par la suite le cas d’intervalles disjoints. Nous nous concentrons sur le cas squelettique où chaque région ne contient qu’un seul site et sont séparées par une distance 𝑑. Nous commençons par offrir une formule générale du comportement du terme dominant de la négativité logarithmique fermionique pour une grande séparation et pour toute fraction de remplissage (filling fraction) 𝜌, qui dépend de la fonction de corrélation à deux points. Nous trouvons par la suite le comportement de la négativité logarithmique pour des intervalles centrés respectivement autour de $\\( pN \\)$ et $\\( \frac{N}{2} \\)$ pour tout paramètre $\\( p \\)$ et $\\(\rho \ll 1 \\)$, ainsi que pour $\\( p = \frac{1}{2} \\)$ et pour tout $\\( \rho \\)$. Nous offrons par la suite une conjecture alliant les deux cas. Le comportement de la négativité logarithmique obtenu concorde avec celui obtenu pour le cas homogène avec des fermions de Dirac où la dimension d’échelle fermionique $\\( \Delta_f \\)$ est de $\\( \frac{1}{2} \\)$. Par la suite, nous investiguons le cas où le premier site se trouve à une distance $\\( m \\)$ du début de la chaîne, et le second à $\\( d + m \\)$. Les dimensions d’échelles obtenues dépendent de la parité de $\\( m \\)$ : pour un $\\( m \\)$ pair, $\\( \Delta_f^{\text{pair}} = \frac{3}{8} \\)$, et pour un $\\( m \\)$ impair, $\\( \Delta_f^{\text{impair}} = \frac{5}{8} \\)$. Les résultats sont supportés par des calculs analytiques et numériques.Item Accès libre Accelerating the search for mass bumps using BumpNetBilodeau, Fannie; Arguin, Jean-François (2024-08)Depuis la découverte historique du boson de Higgs, les physiciens et physiciennes des particules recherchent assidûment des preuves de nouvelle physique. Malgré le succès du Modèle Standard dans l'élucidation des forces et des particules fondamentales, validé par des expériences telles que celles menées par ATLAS au Grand Collisionneur de Hadrons (LHC), il présente de nombreuses lacunes. Face à l'absence persistante d'anomalies dans la recherche de nouvelle physique, l'intelligence artificielle apparaît comme une voie prometteuse. Ce mémoire de maîtrise contribue à une recherche de nouvelle physique dans les données de l'expérience ATLAS, en utilisant un modèle d'apprentissage machine, BumpNet. BumpNet représente une approche innovante pour rechercher efficacement de la nouvelle physique dans divers spectres, qui sont en présence de bruit de fond du Modèle Standard strictement décroissants. S'écartant de l'analyse conventionnelle employée dans la physique des particules expérimentale, BumpNet élimine la nécessité d'une estimation simulée ou analytique du bruit de fond. Au lieu de cela, il prédit directement la signification statistique en utilisant un réseau neuronal convolutionnel entraîné à régresser la signification basée sur la log-vraisemblance. Cette nouvelle méthodologie permet d'identifier les excès de masse invariante directement à partir des données, en contournant la nécessité d'une estimation du bruit de fond et en économisant un temps d'analyse considérable. En employant un réseau neuronal convolutionnel entraîné pour détecter les bosses de masse dans les données, BumpNet a le potentiel d'améliorer de manière significative la portée des expériences en sondant de nombreuses régions jusqu'alors inexplorées. L'efficacité de cette méthode a été démontrée par l'identification réussie de diverses particules au-delà du modèle standard dans les données de simulation, par son faible taux de faux positifs et par ses bonnes performances par rapport au test du rapport de vraisemblance. La mise en œuvre avec les données ATLAS de Run 2 est actuellement en cours.Item Accès libre Implémentation d’un algorithme de reconstruction itératif pour la tomodensitométrie spectrale par comptage de photonsBeaulieu, William; Bouchard, Hugo; Simard, Mikaël (2024-09)Les quantités physiques des tissus imagés par tomodensitométrie (CT) peuvent être calculées à l'aide d'algorithmes de caractérisation de tissus. Le développement de nouvelles technologies d'imagerie par tomodensitométrie spectrale a stimulé le domaine de nouvelles méthodes de caractérisation de tissus, et de multiples algorithmes existent aujourd'hui à cette fin. Afin de faciliter la comparaison de ces méthodes de caractérisation de tissus, un étudiant du laboratoire de tomodensitométrie spectrale Lambda-lab a récemment développé la librairie Python lambda-lab, une librairie de calcul permettant d'établir un environnement de simulation robuste et fidèle à la réalité pour la tomodensitométrie spectrale. Or, cette librairie de calcul n'inclut qu'un seul type de méthodes de caractérisation de tissus, soit les méthodes de type post-reconstruction. La comparaison de ces méthodes avec des méthodes de type pré-reconstruction est donc impossible actuellement dans la librairie. Afin de résoudre ce problème, ce projet a pour but d'implémenter l'algorithme SIRAS (Algorithme de Reconstruction Statistique pour le CT à comptage de photons), une méthode de caractérisation de tissus pré-reconstruction développée au Lambda-Lab, qui a été conçue pour apporter les bénéfices des méthodes pré-reconstructions aux données bruitées des CT à comptage de photons (SPCCT). Chaque partie de l'algorithme nouvellement implémenté est validée dans un environnement réaliste pour SPCCT à l'aide de méthodes rigoureuses. L'algorithme est implémenté sous la forme d'un paquet Python et intégré à la librairie lambda-lab. Une optimisation de sa performance en termes de temps de calcul est également réalisée, et un gain en rapidité de 3 à 20 fois est obtenu dépendamment de la fonction optimisée. Finalement, une étude comparative est réalisée afin d'observer l'impact des paramètres de régularisation sur la performance de l'algorithme en termes de précision et d'exactitude des paramètres physiques reconstruits. Des résultats similaires à ceux obtenus dans l'implémentation originale de l'algorithme sont obtenus dans l'étude réalisée. Les résultats de cette dernière, combinées aux résultats des différentes validations réalisées, attestent de la qualité excellente de l'implémentation réalisée. La nouvelle implémentation réalisée dans ce travail sera éventuellement testée sur les images réelles produites par le micro-SPCCT de la compagnie MARS Bioimaging, disponible au laboratoire Lambda-lab.Item Accès libre Modélisation Monte-Carlo d'un appareil de traitement par radiothérapie à très haut débit de doseAudet, Samuel; Lalonde, Arthur; Bouchard, Hugo (2024-09)La radiothérapie à débit de dose ultra-élevée (UHDR), ou radiothérapie FLASH (RT-FLASH), suscite l'intérêt des chercheurs à travers le monde depuis quelques années pour son efficacité à traiter des tumeurs tout en réduisant les effets indésirables aux tissus sains. Même s'il est théoriquement possible d'obtenir des faisceaux UHDR avec n'importe quel type de particule, des défis techniques limitent cette technologie à l'utilisation de faisceaux de protons et d'électrons. Comme les faisceaux d'électrons sont beaucoup plus accessibles, la majorité des recherches et applications sur la RT-FLASH se font avec ce type de faisceau. Cependant, vu l'absence de protocole de dosimétrie de référence appliqué aux faisceaux UHDR et un nombre limité de détecteurs utilisables avec ce type de débit, il peut être difficile de mener des études précliniques précises sur la RT-FLASH. Le calcul de dose par simulation Monte-Carlo (MC) est considéré comme le moyen le plus fiable et précis en ce qui concerne la dosimétrie dans un contexte non standard. Avec l'utilisation de débit de dose UHDR, on se retrouve dans un scénario physique limite, dans lequel différents phénomènes, normalement négligeables en contexte standard, peuvent avoir lieu dans les matériaux irradiés ainsi que dans l'appareil de traitement. L'absence de système de filtration des faisceaux dans certains appareils UHDR complexifie d'autant plus le problème, nécessitant l'utilisation de modèle MC complexe. Dans le cadre de ce mémoire, on propose d'améliorer les approches de modélisation MC traditionnelles pour prendre en compte les particularités des faisceaux FLASH. En particulier, la modélisation de l'accélération des électrons à l'intérieur du guide d'onde et la considération des variations temporelles ont permis d'obtenir un modèle d'énergie de la source qui améliore la performance du modèle MC. Cette nouvelle approche est entièrement basée sur des arguments physiques, contrairement aux approches disponibles dans la littérature.Item Accès libre Étude de décharges Ar-NH3 en simple et double fréquence à la pression atmosphériqueRobert, Raphaël; Stafford, Luc; Massines, Françoise (2023-08)L’objectif de cette thèse est d’acquérir une meilleure connaissance des décharges à barrières diélectriques basse fréquence et double fréquence BF-RF (50 kHz – 5 MHz), en Ar-NH3 à la pression atmosphérique, notamment à travers l’étude de leurs propriétés spatio-temporelles. Dans ce contexte, des mesures d’émission et d’absorption spectroscopiques, résolues dans l’espace et /ou le temps, incluant des cartographies sur un cycle BF (20 µs) résolues à l’échelle de la RF (7 ns) ainsi que des mesures électriques ont été confrontées avec un modèle fluide 1D. Dans un premier temps, la comparaison de l’évolution de la densité d’argon métastable entre le modèle et la mesure a mis en évidence l’influence des photons VUV sur l’émission secondaire et donc sur l’auto-entretien de la décharge basse fréquence et double fréquence. En double fréquence, l’étude de l’effet de l’amplitude de la tension RF démontre l’influence du niveau d’ionisation RF sur le claquage . Plus l’amplitude de la tension RF est importante, plus la densité du plasma RF est élevée et plus la tension appliquée au gaz nécessaire pour obtenir le mode diminue. Ainsi, la densité d’électrons augmente, alors que la densité des espèces formées par des électrons de haute énergie (Ar(1s) et Ar(2p)) décroit. Ensuite, la dissymétrie du courant à l’échelle RF est expliquée par la présence continue d’une gaine cathodique oscillante à l’échelle de la fréquence RF. Ainsi, nous avons montré que le transport des charges est contrôlé par la tension BF dans la gaine et par la tension RF dans le volume. Enfin, la physico-chimie de ces décharges en mélange Penning Ar-NH3 a été explorée à travers la caractérisation des produits de décomposition de NH3 visibles en spectroscopie d’émission optique, et en particulier, l’émission liée à la désexcitation du H2(a) observée à autour de 200 nm. En couplant expérience et modélisation, un nouveau mécanisme de formation de H2(a) en post-décharge a été proposé. En s’appuyant sur le modèle 1D, le degré de dissociation de NH3 a été estimé et les mesures en fonction du temps de résidence de NH3 dans le plasma ont, en particulier, montrées que la décharge homogène peut se propager le long des lignes de flux sans changer de régime.