Génie – Thèses
URI permanent de cette collectionhttps://hdl.handle.net/11143/218
Parcourir
Dépôts récents
Item Accès libre Valorisation in-situ des engins fantômes et des rejets de la transformation des produits de la mer aux Îles-de-la-Madeleine pour l'élaboration de matériaux fonctionnels(Université de Sherbrooke, 2025) Belmokhtar, Zakariae; Robert, Mathieu; Elkoun, SaïdCette étude s’inscrit dans une démarche de valorisation locale des déchets plastiques issus de l’industrie de la pêche, notamment les filets en polyamide 6 (PA6), les cordages en polyoléfines (PE/PP), ainsi que des coproduits marins tels que les coquilles de mollusques et le bois des cages à homards. L’objectif global est de développer des matériaux composites 100 % recyclés,performants, et adaptés à des applications dans les secteurs de la construction et de l’automobile, en s’appuyant sur des procédés simples, à faible impact environnemental et transférables aux contextes insulaires. Dans une première phase, les cordages usagés ont été caractérisés par spectroscopie FTIR, diffraction des rayons X (DRX) et calorimétrie différentielle à balayage (DSC), révélant un mélange de polyéthylène haute densité et de polypropylène, avec des signes de photodégradation et d’oxydation en surface. Des panneaux de revêtement ont été fabriqués par moulage par thermocompression, et soumis à des essais de flexion trois points, impact Charpy. Ces panneaux recyclés présentent une résistance mécanique modérée relativement aux panneaux du commerce, mais une bonne processabilité. Dans un second temps, plusieurs formulations ont été développées en ajoutant à la matrice de cordages recyclés soit 30% de fibres de bois, soit 30% de poudre de coquilles de mollusques, soit un mélange équilibré des deux charges (15% bois + 15% coquilles). L’analyse comparative a révélé que le composite combinant les deux types de charges présentait les performances les plus équilibrées : augmentation de plus de 200% du module en flexion, réduction de 38% de l’absorption d’eau, et propagation de flamme significativement ralentie. Le module de stockage mesuré par DMA a également été augmenté, indiquant une rigidité améliorée. Enfin, dans une troisième partie, des composites destinés à des applications automobiles ont été développés à partir de filets de pêche en PA6 recyclé, renforcés par des fibres naturelles de panic érigé (Panicum virgatum) à des teneurs allant de 0 à 30 % en poids. Les échantillons ont été produits par extrusion suivie d’injection, et caractérisés par des essais de traction, analyse thermique (DSC), analyse mécanique dynamique (DMA), indice de fluidité (MFR) et microscopie électronique à balayage (MEB). À 30 % de fibres, les composites ont présenté une amélioration de 23 % de la résistance à la traction et de 126 % du module de Young, atteignant 93 % des performances d’un PA6 vierge de grade automobile. Cependant, la ductilité a fortement diminué, et la fluidité à l’état fondu a été réduite de 19,35 à 8,63 g/10 min. Les observations MEB ont montré une bonne dispersion des fibres jusqu’à 20 %, mais une agglomération à 30 %, expliquant les limites en performance à haute teneur. Les résultats obtenus valident la faisabilité technique et environnementale de transformer localement des déchets plastiques marins en composites rigides performants, en tenant compte des contraintes de transformation et d’optimisation des formulations. Ce travail ouvre la voie à une filière insulaire de recyclage et d’écoconception, reposant sur des ressources secondaires abondantes, des procédés accessibles, et des matériaux répondant aux exigences des secteurs du bâtiment et des transports.Item Accès libre Développement d’un outil pour l’optimisation du dimensionnement et de la gestion des systèmes multi-sources avec batteries : application aux tours de télécommunication (OSETTA)(Université de Sherbrooke, 2025) Ghafiri, Soufiane; Trovao, Joao; Abbes, DhakerThe telecommunications industry faces a dual challenge: expanding digital access while reducing its environmental footprint. Currently, this sector accounts for 3% of global energy consumption and generates approximately 430 M tCO2 per year, representing 1% of global emissions. Transforming its energy infrastructure is therefore essential, especially since base stations, which ensure network connectivity, are responsible for 57% of the sector’s electricity consumption. At the same time, Internet access remains unevenly distributed, particularly in countries like Canada, where the digital divide remains a concern. This connectivity gap hinders the socio-economic development of these regions and underscores the urgency of a more accessible and sustainable telecom infrastructure. At the same time,Internet access remains unevenly distributed, particularly in countries like Canada, where the digital divide remains a concern. In 2022, only 64% of rural Canadian households had an Internet connection of 50/10 Mbps, compared to more than 99% in urban areas. The situation is even more critical in Indigenous communities living on reserves, where only 41.53% have access to 5G and 42.9% to a 50/10 Mbps connection. However, the sector’s energy supply still largely relies on conventional sources. Currently, 46% of the energy consumed comes from renewable sources, while 43% is supplied by the conventional power grid, and 11% is produced by diesel generators. Despite this share of renewable energy, less than 1% is generated directly on-site, as operators favor power purchase agreements. This model presents signifcant challenges, especially given the anticipated growth in sites located in unstable or of-grid networks, whose numbers are expected to increase by 22% by 2030, reaching 109,000 unstable grid sites and 24,000 of-grid sites. Aware of these issues, major telecommunications operators have set ambitious targets: reducing their emissions by 50% by 2030 and achieving carbon neutrality by 2050 while continuing eforts to bridge the digital divide. In this context, nanogrid solutions are emerging as a promising alternative to power infrastructure in low-connectivity areas. By combining photovoltaic panels, LFP (lithium iron phosphate) batteries, and diesel generators, these systems optimize the integration of renewable energy while reducing dependence on fossil fuels. However, these initiatives face geographic and climatic constraints, particularly in regions where solar irradiation is below 3.5 to 5 kW h/m2/day, limiting the potential for solar energy exploitation. Overcoming these obstacles will require technological innovations and planning adapted to local realities to ensure an efective and inclusive energy transition. This research project is set within this context, aligning with the vision of major Canadian operators such as Rogers and Bell Canada, which have committed to reducing their emissions by 50% by 2030, using 2019 as the reference year. To achieve this goal, these operators have begun deploying renewable energy-powered stations to supply electricity to infrastructure in remote areas. The primary objective of this project is to develop a tool that enables telecom operators to optimize the sizing and management of hybrid nanogrid (combining photovoltaic panels, batteries, and diesel generators) to power base stations in these isolated regions. The chosen approach focuses on both optimal system sizing and management while minimizing economic and environmental costs. One of the innovative aspects of this research is the integration of bifacial photovoltaic panels, an emerging technology expected to represent approximately 20 % of the global photovoltaic market by 2030, up from just 5% in 2020, with an estimated installed capacity of 100 GW. These modules ofer 10–20% higher efciency than conventional monofacial panels due to their ability to capture light refected by the ground and surrounding surfaces, thereby optimizing energy production for of-grid stations. Another major challenge addressed by this research is the impact of snow accumulation on solar panel performance. Depending on weather conditions, snow cover can cause an energy yield reduction ranging from 3.5% to 100%. It is therefore essential to integrate these efects into the modeling and management of nanogrids to ensure a reliable power supply, even in harsh winter conditions. The contributions of this research are structured around three main areas: 1. Detailed system modeling to better understand interactions between diferent energy sources and base station consumption. 2. Optimization of energy management, considering uncertainties related to nanogrid production and base stations energy demand. 3. Coordination between design and energy management through a joint optimization approach aimed at maximizing the integration of renewable sources. At the end of this study, an optimized sizing tool for hybrid systems will be developed, facilitating the planning and energy management of base stations powered by nanogrids. By achieving these objectives, this project will directly contribute to greenhouse gas reduction policies and the goal of carbon neutrality by 2050. It thus represents a strategic advancement for the telecommunications sector, balancing digital expansion with energy transition.Item Accès libre Valorisation du méthane par conversion directe pour la production de vecteurs énergétiques à faible intensité carbone(2025) Barbosa Ramalho, Taynara Ewerlyn; Rego De Vasconcelos, BrunaLes émissions de méthane continuent d'augmenter chaque année, avec 60% liées aux activités humaines, principalement dans les secteurs de l'agriculture et du pétrole et gaz. Face aux objectifs environnementaux établis par plusieurs pays pour réduire les émissions de gaz à effet de serre, dans lequel le méthane est inclus, il est de plus en plus urgent de développer de technologies alternatives pour la valorisation du méthane. Dans ce contexte, l'objectif de ce projet était d'évaluer la faisabilité de stratégies catalytiques pour la conversion directe du méthane en vecteurs énergétiques d'intérêt industriel, tels que les produits oxygénés-C1, l'hydrogène et le carbone solide. Les études expérimentales développées à cette fin sont divisées en deux parties et ont été définies afin d'explorer des aspects encore peu pris en compte dans la littérature pertinente. Dans la première partie, les performances des catalyseurs Cu, Co et Ni/Al2O3 ont été évaluées dans l'oxydation directe du méthane en produits oxygénés-C1 (méthanol, formaldéhyde et acide formique). Dans cette étude, l'activité catalytique de catalyseurs classiques à faible coût et de préparation simple a été étudiée en utilisant la voie de réaction par étapes, qui consiste en l'activation initiale du catalyseur, suivie de l'oxydation du méthane et de la désorption subséquente des produits oxygénés-C1. Dans la deuxième étape, une méthodologie de synthèse a été proposée pour les catalyseurs Cu et Ni/Hydroxyapatite en utilisant un système de microémulsion inverse. Des matériaux nanométriques à haute dispersion métallique et stabilité thermique ont été obtenus et leur activité catalytique a été validée par le procédé de décomposition catalytique du méthane pour produire de l'hydrogène à faible intensité carbone et du carbone structuré. Les résultats du projet ont démontré le potentiel des technologies d'oxydation directe du méthane en produits oxygénés-C1 et de la décomposition catalytique du méthane en tant que moyens alternatifs de valorisation du méthane pour une conversion directe en vecteurs énergétiques à faible teneur en carbone. Ces résultats peuvent être utilisés comme point de départ pour le développement de projets futurs visant à contribuer à l'avancement de ces technologies.Item Accès libre Energy-efficient driving using artificial intelligence for electric vehicles(2025) Adnane, Marouane; Khoumsi, Ahmed; Trovao, JoaoAbstract : Electric Vehicles (EVs) have emerged as a crucial solution to reduce emissions and transition towards sustainable transportation. However, reducing energy consumption of EVs (ECEV) remains a significant challenge, particularly as EVs become more complex with multiple energy sources and motors. Energy Management Strategies (EMSs) are essential for improving the performance and efficiency of EVs by coordinating the flow of energy between various components. The scientific community has proposed several EMSs to reduce ECEV. However, traditional EMSs often rely on predetermined rules that struggle to adapt to dynamic, real-time driving conditions. These traditional EMSs typically require complete knowledge of the travel route in advance, a scenario that is impractical in real-world driving, thereby limiting their ability to optimize energy consumption effectively. To address these issues, researchers have increasingly turned to Artificial Intelligence (AI), particularly Machine Learning (ML) algorithms, to develop advanced EMSs. Despite their potential, many existing ML-based EMSs lack the flexibility to be applied across different EV configurations or road conditions. Moreover, many are designed specifically for hybrid vehicles, making them unsuitable for dual-source or dual-motor EVs. In this thesis, the main contribution is the development of ML-based EMSs to enhance energy efficiency, reduce battery degradation, and optimize power distribution in dual energy source EVs (DSEVs) and torque distribution in dual-motor EVs (DMEVs). To this end, we first present an up-to-date, comprehensive review of ML-based studies on ECEV management which provides the foundation for this work, highlighting the current state of ML-based approaches for managing ECEV and identifying gaps in existing solutions. Building on these insights, two ML-based methods are developed to design EMSs aimed at reducing energy consumption in DSEVs. Furthermore, a real-time comparative analysis of the two designed ML-based EMSs is conducted using Signal Hardware-In-the-Loop (S-HIL) simulations, offering insights into selecting the most suitable EMS for specific applications. Finally, based on the comparison results, our second ML-based EMS design method, previously developed for DSEVs, is adapted to off-road DMEVs. Our three ML-based EMSs are designed to operate autonomously, making real-time decisions without requiring prior knowledge of driving conditions, ensuring adaptability and efficiency even in unpredictable scenarios. The findings of this thesis demonstrate that our three ML-based EMSs can significantly reduce ECEV, leading to more efficient energy use and longer battery lifespans. This work contributes to the growing field of intelligent energy management in EVs, offering innovative, adaptable ML-based solutions to address both present and future challenges in EVs.Item Accès libre Serviceability performance of fiber-reinforced self-consolidated concrete (FR-SCC) beams and bridge deck slabs reinforced with GFRP and BFRP bars(2025) Nyaz, Eman; Benmokrane, Brahim; Yahia, AmmarAbstract : Deflection and crack width under service loads are crucial factors that dictate the flexural design of elements reinforced with fiber-reinforced polymer (FRP) bars, primarily due to their relatively low elastic modulus. This study investigated the impact of incorporating fibers on the serviceability performance of self-consolidating concrete (SCC) beams and one-way bridge deck slabs reinforced with glass FRP (GFRP) and basalt FRP (BFRP) BFRP bars. Twelve full-scale concrete beams—each measuring 3100 mm in length, 200 mm in width, and 300 mm in height—were fabricated and tested until failure under four-point bending cyclic loading. The test parameters included polypropylene (PP) fiber volume (0%, 0.5%, and 0.75%), fiber combination (macro PP fiber and a mix of macro PP and micro basalt fibers), as well as GFRP longitudinal reinforcement ratio (0.78%, 1.18, and 1.66%). Additionally, twelve full-scale one-way bridge deck slabs—representing typical North American slab-on-girder bridges—were tested. The slabs measured 3700 mm in length and 1000 mm in width. They were tested to failure under a concentrated load replicating the footprint of a standard CL-625 truck wheel load (87.5 kN), as specified in the current Canadian Highway Bridge Design Code. The tested variables included BFRP longitudinal reinforcement ratio (1.17% and 0.81%), reinforcement type (BFRP and steel), PP fiber volume (0%, 0.5%, and 0.75%), fiber combinations (macro PP fibers and a hybrid of macro PP and micro basalt fibers), and slab thickness (175, 200, and 250 mm). The test results, including failure modes, cracking behavior, deflection responses, crack widths, as well as concrete and reinforcement strains, were presented and analyzed for both beams and slabs. The test results revealed that increasing PP fiber volume and reinforcement ratio improved the serviceability and flexural performance of beams and bridge deck slabs under by effectively restraining crack width in addition to reducing deflections at both service and ultimate limit states. Furthermore, the combination of micro basalt fibers with macro PP fibers notably enhanced the serviceability parameters of beams and bridge deck slabs, surpassing specimens reinforced solely with macro PP fibers. Lastly, a theoretical prediction as per North American codes and design guidelines was conducted, including deflection and crack width, and these results were subsequently compared to the experimental findings.Item Accès libre Développement de modules micro-CPV compacts à l'aide de technologies de packaging avancées à partir de cellules solaires performantes(2024) Jouanneau, Corentin; Hamon, Gwenaëlle; Darnon, Maxime; Danovitch, DavidL'énergie solaire offre une solution durable aux défis énergétiques et environnementaux actuels. Les cellules multi-jonctions à base de matériaux III-V constituent la technologie photovoltaïque offrant les plus hautes efficacités parmi l'ensemble des technologies solaires. Malheureusement, ces cellules sont coûteuses. Pour limiter les coûts de cette technologie, une optique de concentration peut être placée au-dessus des cellules, permettant ainsi de réduire la quantité de matériaux III-V nécessaire. Cette stratégie, appelée photovoltaïque à concentration (CPV), permet également d'augmenter l'efficacité de conversion des cellules solaires. Le CPV souffre de limitations telles que les pertes résistives et thermiques, ainsi qu'un manque de compacité, ce qui empêche son déploiement à grande échelle. En réponse à ces limites, la miniaturisation du CPV, appelée micro-CPV, se développe depuis plusieurs années. La réduction de la taille des cellules en-dessous du millimètre permet de diminuer les pertes résistives, de simplifier la gestion thermique et d'augmenter la compacité des modules. Afin de bénéficier des avantages de cette technologie, des défis liés à la micro-fabrication, au packaging et à l'optique doivent être relevés. Ces travaux de thèse explorent ces trois domaines à travers l'objectif suivant : fabriquer un module micro-CPV compact avec une optique de concentration légère à partir de micro-cellules solaires à hautes performances en générant peu de pertes de matériaux III-V. La réduction de la taille des cellules entraîne une augmentation de l'impact des recombinaisons périmétriques, ce qui diminue la tension en circuit ouvert (Voc) et donc l'efficacité de conversion. Des cellules sub-millimétriques présentant une faible sensibilité aux recombinaisons périmétriques avec des Voc supérieurs à la littérature (à notre connaissance) ont été fabriquées. Un bilan de pertes liées aux recombinaisons non radiatives pour chacune des sous-cellules (InGaP/InGaAs/Ge) a également été réalisé. Il a permis de démontrer que la sous-cellule en InGaP est la plus impactée par les recombinaisons périmétriques. La réduction de la taille des cellules entraîne également des défis de packaging. Le wirebonding, traditionnellement utilisé pour le CPV, nécessite de larges busbars générant d'importantes pertes par ombrage pour des cellules sub-millimétriques. Une nouvelle méthode de connexion des cellules a été développée, permettant de limiter les pertes par ombrage. Au cours de ces travaux de thèse, une optique légère et compacte a été conçue, fabriquée et caractérisée. Cette optique a été utilisée pour réaliser un prototype de mono-module d'une épaisseur d'environ 2 cm. Des caractérisations extérieures de ce prototype ont permis de montrer que les pertes liées à l'intégration en module sont de moins de 20%.Item Accès libre Conception d'une prothèse épirétinienne numérique alimentée par un lien optique infrarouge pour le traitement de la rétinite pigmentaire et de la dégénérescence maculaire liée à l'âge(2025) Lemaire, William; Fontaine, Réjean; Roy, SébastienLa dégénérescence maculaire liée à l'âge et la rétinite pigmentaire représentent deux causes majeures de pertes de vision, avec des options thérapeutiques limitées. Des prothèses récemment approuvées pour ces affections ont prouvé leur capacité notable à générer des perceptions visuelles artificielles en stimulant électriquement les neurones. Cependant, les implants de première génération nécessitent des câbles traversant le globe oculaire pour l'alimentation et les données, entraînant une chirurgie coûteuse, complexe et susceptible aux infections. L'acuité visuelle rétablie deumeure également limitée, car les méthodes de stimulation utilisées traitent la rétine de manière simplifiée, négligeant l'organisation complexe de cette membrane sensorielle. Pour pallier les défis reliés aux câble percutanés et à l'acuité visuelle, cette thèse présente l'optimisation de l'architecture électronique des implants rétiniens pour la neurostimulation et le neuroenregistrement. Elle présente : 1) la conception d'un circuit intégré optimisé spécifiquement pour une liaison sans-fil infrarouge transpupillaire, 2) l'intégration de ce circuit dans une prothèse rétinienne et sa validation ex vivo, 3) la conception d'un circuit d'enregistrement à fort taux de compression pour cartographier les cellules ganglionnaires. Ces systèmes tiennent compte des contraintes chirurgicales, de biocompatibilité et des limites des liaisons sans fil en termes de bande passante et d'énergie pour un dispositif implantable. La thèse présente une architecture d'implant épirétinien numérique alimenté par un lien optique infrarouge et la première démonstration de la génération d'une réponse des cellules ganglionnaires avec une telle architecture. Elle introduit également le premier système de neuroenregistrement intégrant un convertisseur analogique événementiel et un algorithme de compression numérique, offrant un taux de compression élevé tout en maintenant une faible consommation énergétique. La réalisation de ce projet de recherche supporte non seulement la technologie utilisée pour une prochaine génération d'implants épirétiniens plus sûrs, accessibles et efficaces, mais soutiendra également le développement d'une meilleur compréhension du système neuronal et apportera des traitements pour des maladies neurologiques et sensorielles intraitables à ce jour.Item Accès libre Comportement en cisaillement de ponceaux rectangulaires en béton armé avec des barres en polymère renforcé de fibre (PRF)(2025) Elnady, Ahmed; Benmokrane, BrahimLes ponceaux en béton armé sont l’un des éléments clés de la construction des autoroutes, facilitant le passage de l’eau et des eaux de drainage sous les routes et les voies ferrées. La structure des ponceaux joue également un rôle essentiel dans la gestion des risques d’inondation en tant qu’outil intégral de prévention des inondations qui protège les villes et les vies humaines. Les ponceaux sont soumis à des expositions agressives; l’eau qui coule et le sol environnant représentent un environnement difficile pour la structure du ponceau. L’eau peut contenir des acides, des déchets industriels, des produits chimiques et des chlorures. De plus, dans des régions comme l’Amérique du Nord, l’utilisation de sels de déglaçage accélère la corrosion de l’armature en acier. Cette étude a porté sur le comportement structurel et les performances de seize ponceaux rectangulaires en béton en vraie grandeur soumis à des charges concentrées verticales. Treize spécimens avaient une travée de 1500 mm, une flèche de 1500 mm, une épaisseur de dalle de 150 mm et une épaisseur de paroi de 150 mm. Les trois autres spécimens avaient une travée de 1800 mm, une flèche de 1500 mm et une épaisseur de dalle et de mur de 180 mm. Tous les ponceaux rectangulaires avaient des arêtiers aux raccordements entre les dalles et les murs, qui avaient les mêmes dimensions que les murs latéraux. La longueur du joint était de 1219 mm pour tous les spécimens et la couverture de béton a été maintenue constante à 25 mm. Les paramètres examinés étaient le ratio de renforcement longitudinal-FRP (0,83 %, 1,25 % et 1,67 %), le matériau de renforcement (PRFV, PRFB et acier), l’emplacement de la charge concentrée, la résistance à la compression du béton, le matériau d’assise de l’essai et l’effet de taille. Les résultats des essais ont été analysés en termes de résistance au cisaillement dans les deux directions, de mode de défaillance, de fléchissement de la dalle supérieure, de déplacement latéral des parois latérales et de déformations du béton et des armatures. L’effet de chaque paramètre sur le comportement a été évalué et discuté. Une étude théorique a été menée pour modifier l’équation de l’action du cisaillement bidirectionnel de la norme CAN/CSA S6:19 afin de prendre en compte les caractéristiques du matériau de renforcement PRF. L’équation modifiée a montré de bonnes prédictions de la capacité du cisaillement bidirectionnel expérimental des ponceaux en béton testés. En outre, une autre approche théorique a été menée de manière innovante pour proposerune nouvelle formule permettant de prédire avec précision la capacité de cisaillement dans les deux directions de la dalle supérieure des ponceaux rectangulaires en béton renforcés par des PRF. La formule proposée a montré d’excellentes prédictions de la capacité de cisaillement expérimentale dans les deux directions. En outre, la formule proposée a été développée pour prédire la capacité de cisaillement dans les deux directions des dalles en béton renforcé par des PRFV avec retenue des bords, représentant les dalles de pont en béton renforcé par des PRFV. Les analyses théoriques ont été soutenues par un modèle de régression linéaire et évaluées par des moyens statistiques.Item Accès libre Enhancing evaluation metrics and performance for random sampling-based path planners(Université de Sherbrooke, 2025) Ocampo Jimenez, Jorge; Suleiman, WaelCollaborative robots must perform effectively in real-world applications, which often involve navigating complex scenarios under strict timing constraints. Achieving such tasks requires fast and optimal path planning to ensure efficient and safe navigation. Recent advances in deep neural network models have been proposed to enhance the speed and reduce the computational cost of classical path planning algorithms. However, generative models still primarily learn continuous functions. Additionally, implementing these improvements requires significant tuning by practitioners, as the approximations provided by generative models are not entirely accurate. This introduces a new challenge of optimizing additional parameters to address such scenarios. In this work, we propose a methodology to evaluate and transform working space scenarios into a continuous domain, leveraging this transformation to reduce user-side parameter optimization efforts. This approach accelerates the discovery of collision-free paths in high-dimensional path planning problems. Our experiments demonstrate promising results in evaluating and accelerating path planning tasks in previously unknown environments.Item Accès libre Enlèvement des contaminants organiques en traces d’effluents hospitaliers par des biocatalyseurs à base de laccase de Trametes hirsuta(Université de Sherbrooke, 2025-04-02) Alokpa, Komla; Cabana, HubertMalgré leur faible contribution en volume aux eaux usées municipales, les effluents hospitaliers peuvent y apporter des charges élevées en contaminants problématiques tels que les résidus pharmaceutiques, les radioéléments, les agents pathogènes (bactéries, virus, protozoaires et champignons), les solvants, les résidus de métaux lourds. Cette thèse s’est penchée sur la remédiation d’eaux usées hospitalières par la laccase (E.C. 1.10.3.2) fongique de Trametes hirsuta dans une perspective évolutive. En particulier, l’étude s’est focalisée sur l’enlèvement des contaminants organiques en traces (Trace organic contaminants [TrOCs]). Ainsi, l’oxydation catalytique de la laccase a été étudiée sur sept composés pharmaceutiques à savoir, acétaminophène, ibuprofène, naproxène, kétoprofène, acide méfénamique, indométacine et carbamazépine. L’enlèvement d’autres TrOCs détectés dans l’effluent hospitalier par le biais d’une analyse non ciblée (UPLC/MS) a été également suivi. Le déploiement des biotechnologies environnementales basées sur l’utilisation d’enzymes telles que la laccase en conditions non idéalisées et représentatives des matrices réelles (p. ex. eaux usées hospitalières) nécessite des procédés robustes. En ce sens, la laccase a été immobilisée sur des supports siliceux via l’adsorption et la liaison covalente. En vue d’optimiser le processus d’immobilisation, l’impact de la charge d’enzyme, du pH, de la température, de la durée, et de la concentration des agents de réticulation (liaison covalente) sur le rendement d’immobilisation, l’activité enzymatique et la stabilité du biocatalyseur a été déterminé, en utilisant un design expérimental du type Box-Behnken et une analyse multivariée. Les biocatalyseurs formés par immobilisation se sont montrés plus stables que la laccase libre par rapport au pH, à la température et vis-à-vis de dénaturants chimiques tels que le méthanol, l’acétone, l’EDTA, le chlorure de zinc, l’azoture de sodium et de l’effluent hospitalier. De plus, l’immobilisation par liaison covalente avec le glutaraldéhyde comme agent de réticulation s’est avérée la meilleure stratégie en termes de rendement d’immobilisation, d’activité enzymatique et de stabilité du biocatalyseur. À partir des paramètres d’immobilisation statistiquement optimales, un nouveau biocatalyseur a été formé par liaison covalente sur la silice attachée à un garnissage en polyéthylène. Ce dernier a été utilisé comme matériau constitutif du lit d’un réacteur à lit garni développé pour le traitement en continu d’un effluent hospitalier. Lors de ce traitement, un modèle cinétique a été développé pour étudier l’élimination de l’acétaminophène comme substrat phénolique modèle de la laccase, en tenant compte du taux de conversion et de l’inactivation de biocatalyseur. Globalement, le modèle a permis de prédire efficacement l’enlèvement de l’acétaminophène. De plus, l’ensemble du système de traitement s’est avéré efficace pour l’enlèvement des TrOCs dans des configurations séquentielle et continue et a montré une robustesse satisfaisante. En outre, le traitement a permis de réduire la toxicité de l’effluent sur le microcrustacé Daphnia magna. Finalement, ce travail a abordé la compétitivité économique des bioprocédés enzymatiques à base de laccase dans le secteur du traitement des eaux usées. L’étude a montré que le déploiement de cette biotechnologie environnementale n’est pas hors de portée. Cependant, cela exigera la mise en œuvre de mesures de réduction des coûts telles que l’amélioration de la productivité et le recours à l’ingénierie génétique pour la production de laccases possédant des propriétés biochimiques souhaitées.Item Accès libre Thermal management system for Li-ion batteries using two-phase flow thermal ground planes(Université de Sherbrooke, 2025-04-01) Nikkhah, Alihossein; Fréchette, LucL'électrification peut aider à réduire les émissions de gaz à effet de serre en fonction du mix énergétique. À cet égard, les véhicules électriques (VE) ont le potentiel de réduire les émissions lorsqu'ils sont alimentés par des sources propres telles que l'hydroélectricité, le solaire, le nucléaire, etc. Bien que la fabrication des VE ait une empreinte carbone initiale en raison de la batterie Li-ion, cet impact peut être compensé au fil du temps par rapport aux moteurs à combustion interne. Un facteur important dans la longévité des batteries est la gestion thermique efficace des cellules Li-ion, qui sont le type de cellule de batterie le plus couramment utilisé dans les VE. Les systèmes de gestion thermique des batteries (BTMS) sont évalués par la température des cellules, l'uniformité de la température, la compacité, la facilité de maintenance, la rentabilité, etc. Bien que les méthodes de refroidissement liquide, comme les plaques froides et l'immersion, soient les approches les plus courantes pour extraire la chaleur générée dans la batterie, les approches de refroidissement par air pourraient être plus économiques puisqu'il n'y a ni moteur, ni pompe, ni raccords hydrauliques, ni tuyauterie, ni radiateur, et possiblement pas de pompe à chaleur. Cependant, en raison de la faible conductivité thermique et de la capacité thermique massique de l'air par rapport aux liquides, la méthode de refroidissement par air seule n'est pas aussi efficace que les méthodes de refroidissement liquide pour extraire la chaleur générée par la batterie et maintenir l'uniformité de la température. Combiner des méthodes de refroidissement par air pour la dissipation de la chaleur avec des éléments hautement conducteurs thermiques, tels que les plans thermiques (TGPs) pour l'extraction de la chaleur, promet un système de refroidissement efficace et économique. Les TGPs consistent en des caloducs plats en 2D dans lesquels un écoulement diphasique circule pour transporter la chaleur. Cette thèse examine la performance d'un BTMS basé sur le caloduc capillaire (WHP), WHP-BTMS, comme alternative au BTMS à plaque froide (CP-BTMS) pour extraire la chaleur générée. À cet égard, un module de batterie refroidi par le bas, composé de cellules cylindriques, est considéré comme une étude de cas. Un modèle de circuit thermique électrique (TECM) avec un transfert de chaleur unidimensionnel a été développé pour capturer les températures des cellules et leur distribution dans les BTMS CP-BTMS et WHP-BTMS à des fins de comparaison. Le modèle a évalué la performance de la batterie à des taux de décharge de 1C, 2C et 3C. L’estimation de la chaleur générée dans une cellule est une étape clé de la modélisation des BTMS. Elle comprend deux composantes principales : la chaleur entropique et la chaleur ohmique, la première étant plus complexe à quantifier. Une nouvelle approche est proposée pour estimer la chaleur entropique en utilisant uniquement les données de température des cellules à deux taux de décharge, offrant ainsi une alternative nettement plus rapide aux méthodes conventionnelles. Pour valider le modèle, les résultats ont été comparés à des données expérimentales obtenues avec une plaque froide. Les résultats montrent que, lorsqu’ils sont bien conçus, les TGP peuvent atteindre une résistance thermique aussi faible que 0,05 °C/W, représentant 5 % de la résistance thermique totale du BTMS. Ainsi, la température maximale des cellules et les écarts de température entre elles restent inférieurs à 2 °C par rapport à un système à plaque froide. Les caloducs pulsés (PHP), dépourvus de couche capillaire, apparaissent comme une solution plus simple et économique et méritent une étude approfondie pour une application en BTMS. Une analyse numérique fondamentale a été menée sur un ménisque oscillant dans un capillaire afin d’étudier le dépôt de film liquide et son rôle dans les échanges de masse. Les résultats indiquent que le film liquide améliore le transfert thermique uniquement lorsqu’il reste suffisamment mince pour participer à l’évaporation nette lors du recul du ménisque. Dans le cas contraire, il introduit une résistance thermique qui réduit l’efficacité du transfert de chaleur. Cette observation est cruciale pour l’optimisation des PHP en tant qu’alternatives potentielles aux WHP, mettant en évidence la nécessité de contrôler l’épaisseur du film pour améliorer leurs performances thermiques.Item Accès libre Conception d'un robot social d'assistance intelligent comme plateforme expérimentale en interaction humain-robot(Université de Sherbrooke, 2025-04-01) Maheux, Marc-Antoine; Michaud, FrançoisCes dernières années, les robots sociaux d'assistance ont gagné en popularité, entre autres pour prendre soin des personnes âgées ou assister les enfants dans leurs apprentissages. Les recherches actuelles se concentrent sur l'impact de ce type de robots tout comme leur acceptabilité et leur utilisabilité dans les applications visées en fonction du type d'utilisateur. Cependant, leur adaptabilité reste assez limitée puisqu'ils sont programmés pour réaliser des tâches spécifiques. La plupart ont des capacités restreintes en matière de perception et d'interaction, tant sur le traitement des informations recueillies que l'intelligence qu'ils démontrent. Ceci les rendent difficilement déployables dans des environnements non contrôlés, qui impliquent entre autres la limitation de l'utilisation de l'infonuagique et soulève des enjeux de protection de la vie privée et de fiabilité. À cette fin et initié en 2019, le présent projet porte sur la conception du robot T-Top, un nouveau robot social d'assistance intelligent. T-Top combine sur une même plateforme des capacités de perception visuelle lui permettant de percevoir des objets, des personnes et de se localiser dans l'environnement, de perception auditive localisant les sources sonores, de sept degrés de liberté pour générer des mouvements permettant de susciter des interactions, ainsi que d'un écran tactile et de haut-parleurs pour communiquer. L'utilisation de l'architecture décisionnelle HBBA (Hybrid Behavior-Based Architecture), de techniques d'optimisation et d'un puissant ordinateur embarqué permettent à T-Top de se soustraire de l'infonuagique et d'implémenter des modalités évoluées de prise de décisions pour développer son intelligence. Un des requis est de pouvoir déployer des réseaux de neurones à apprentissage profond pour la reconnaissance audio-vidéo en environnements réel sur un ordinateur embarqué, tout en gardant disponible des ressources de calculs pour la mise en place d'autres algorithmes pour l'intelligence-machine. La plateforme expérimentale étant conçue dans l'optique d'être utilisée avec des personnes âgées dans leur milieu de vie, la première phase des travaux consista à concevoir le robot via une approche itérative et incrémentale, permettant de valider l'intégration des capacités matérielles et logicielles pour son utilisation dans un tel contexte. La seconde phase porta sur son utilisation pour la mise en œuvre de scénarios avancés d'interaction humain-robot. Afin de démontrer que la plateforme est en mesure d'être utilisée dans la réalisation d'approches d'intelligence-machine novatrices, la troisième phase porta sur le développement d'une approche d'apprentissage symbolique construite à partir d'interactions situées avec des personnes. Les travaux présentés démontrent la satisfaction des requis visés pour le robot T-Top, ouvrant la porte à une série d'expérimentation d'interaction humain-robot permettant d'exploiter de multiples modalités perceptuelles, d'intelligence artificielle et d'apprentissage machine, contribuant à élever le niveau d'intelligence robotique déployable en milieux réels.Item Accès libre Évolution spatiotemporrelle de l’endommagement et des mécanismes de fracturation du cône de rupture des ancrages post-tensionnés(Université de Sherbrooke, 2025-04-01) Eshraghi, Arash; Rivard, PatriceAbstract: High-capacity post-tensioned anchors (PTA) have been widely used for the reinforcement of different types of structures such as dams, bridge foundations, and towers. As reported in the literature, applying anchorage significantly reduces the costs of construction and maintenance. Despite the advances in rock mechanics over the last 8 decades that the anchors have been used, there has been little improvement in their design over the last 30 to 40 years. Researchers have defined 4 general types of failure mechanisms: a) anchor failure, b) failure of the grout-anchor bond, c) failure of the rock-grout bond, and d) failure within the rock mass (cone shape failure). However, pull-out failure (cone type) is often the dominant failure mode when the pull-out cones have close spacings, considerably overlap, and the anchor depth is short. It has been indicated in the literature that rock mass properties such as joint persistence, joint spacing, and orientation may affect the failure mechanism. The properties of the intact rock are also believed to play an important role in the failure. It is accepted that failure in rock mass occurs due to the interconnectedness of joints and/or failure of rock bridges among discontinuities. Failure in the intact rock could be the main issue where PTAs are installed in sound rock foundations. This research project investigates the spatiotemporal evolution of damage in the cone-shaped failure mechanism. Through a series of controlled pull-out experiments on grouted anchors in concrete, mimicking rock-like material, this work evaluates the spatiotemporal evolution of damage using acoustic emission (AE) source localization and a proposed active ultrasonic monitoring approach. The experiments reveal that crack propagation begins at loads much lower than peak loads, showing asymmetric patterns influenced by material defects and weaknesses. The study also introduces a novel methodology for AE source classification, accounting for wave propagation effects using Support Vector Regression (SVR) and Gaussian Mixture Model (GMM) clustering to classify AE sources into shear, tensile, and mixed modes. Results indicate that while tensile mode predominates near the fracture surface in cone-shaped failures, mixed-mode sources are prevalent along the grout-concrete interface, providing insights for optimizing structural designs and maintenance strategies.Item Accès libre Real-time data compression using FPGA-based edge machine learning for instrumentation(Université de Sherbrooke, 2025-03-26) Rahimifar, Mohammad Mehdi; Corbeil Therrien, AudreyAbstract : In the past decade, advancements in radiation and photonic detectors have driven dramatic increases in data generation rates, with modern experiments producing terabytes per second. Notable examples include the LINAC Coherent Light Source II (LCLS-II) at SLAC National Accelerator Laboratory and the CERN Large Hadron Collider (LHC), both of which require advanced data acquisition systems to manage vast data streams in real-time. Current data transmission technologies, such as PCIe and Ethernet, face challenges in meeting these demands due to limitations in speed, power consumption, and scalability. As transmission channels and processing units increase, so too do energy costs, physical footprints, and overall system complexity. The purpose of this thesis is to design an efficient FPGA-based EdgeML Data Acquisition (DAQ) system capable of compressing data in real-time without compromising performance or data integrity. This work aims to overcome the limitations of existing DAQ systems through three main objectives: 1) Developing optimized ML models that accurately extract essential data features, ensuring high data fidelity; 2) Implementing these models on FPGAs to achieve sub-microsecond latency in real-time data processing, allowing for rapid analysis at the edge; and 3) Building a full DAQ system that integrates FPGA-based ML techniques for data compression, transmission, and storage. Additionally, the thesis introduces a user-friendly latency and resource prediction tool that simplifies the deployment of FPGA-based ML models by providing accurate estimates of processing delays and hardware resource usage. This tool is designed for accessibility, enabling users with limited hardware expertise to effectively configure and optimize ML models on FPGA platforms. By offering insights into latency and resource demands, the tool assists users in selecting suitable model configurations and balancing performance with resource constraints, facilitating more efficient use of FPGA capabilities in complex data acquisition systems. By offering a flexible, scalable, and power-efficient solution, this research tackles the growing demands of high-speed, high-volume data processing in scientific instrumentation. The proposed FPGA-based system not only minimizes latency and power consumption but also improves scalability and data management at the edge, supporting ongoing efforts to efficiently process massive data streams from advanced detectors and large-scale scientific experiments.Item Accès libre Vers la réalisation d’un implant rétinien neuromorphique : approche par réseaux de neurones à décharges(Université de Sherbrooke, 2025-03-24) Besrour, Marwan; Fontaine, Réjean; Boukadoum, MounirCette thèse aborde la restauration visuelle chez les personnes atteintes de pathologies rétiniennes en combinant neurosciences et ingénierie neuromorphique. Elle débute par une présentation des enjeux théoriques et pratiques qui justifient l’exploration de solutions implantables capables de reproduire le fonctionnement de la rétine. Les travaux s’appuient d’abord sur la génération de données simulées, obtenues en soumettant des modèles rétiniens à des stimuli optiques variés. Cette étape vise à refléter la diversité des signaux biologiques observables, afin de disposer d’ensembles de référence suffisamment riches pour l’entraînement et la validation de réseaux de neurones à décharges. La thèse propose ensuite l’élaboration d’un réseau de neurones impulsionnels de type fuite-intégration et décharge, adapté aux contraintes d’un implant rétinien. Son architecture incorpore une modélisation des dynamiques temporelles pour capturer la séquence des potentiels d’action générés par les cellules ganglionnaires. Les performances du réseau, évaluées sur des ensembles de données issues de bases telles que MNIST et CIFAR-10, démontrent qu’une quantification à 4 bits des poids synaptiques peut maintenir une précision satisfaisante, tout en réduisant la complexité matérielle. Le document présente également la réalisation d’un circuit intégré en technologie CMOS 28 nm, dont la brique élémentaire est un neurone analogique-numérique basse consommation, occupant une faible surface et consommant quelques femtojoules par décharge. Les essais post-silicium indiquent une cohérence entre les profils de décharge simulés et mesurés, validant la faisabilité d’un processeur neuromorphique dédié à la restitution d’un codage rétinien réaliste. Le contrôleur numérique, chargé de configurer le réseau et de gérer la synchronisation des signaux, montre une robustesse face aux variations de procédé, de tension et de température. Les résultats obtenus témoignent de l’efficacité d’une architecture mixte analogique numérique pour les prothèses rétiniennes. Ils ouvrent la voie à des prolongements axés sur la stimulation ciblée de cellules rétiniennes, l’extension du modèle à d’autres types de neurones et l’optimisation des circuits pour des applications biomédicales plus larges. La thèse conclut que l’adoption d’un réseau de neurones à décharges, associé à un processeur neuromorphique, représente une solution prometteuse pour restaurer partiellement la perception visuelle tout en répondant aux exigences d’échelle et de consommation imposées par un implant. Elle suggère enfin que les avancées en architecture neuromorphique, conjuguées à une compréhension approfondie du codage sensoriel, peuvent contribuer de manière significative à l’amélioration des dispositifs de restauration visuelle.Item Accès libre Élaboration d'une nouvelle architecture pour anodes en silicium poreux dans les batteries lithium-ion, intégrant une approche économique et écologique via l'utilisation de silicium grade solaire(Université de Sherbrooke, 2025-03-20) Abdelouhab, Sofiane; Boucherif, Abderraouf; Machon, DenisLe silicium est l’un des matériaux d’anode les plus prometteurs pour les batteries Li-ion, notamment pour répondre à la demande croissante de stockage d’énergie sous forme de microbatteries pour les appareils mobiles et autonomes. Cependant, le développement de telles batteries est entravé par des défaillances mécaniques et électrochimiques résultant de l’expansion massive du volume du Si et de la croissance continue de l’interphase de l’électrolyte solide (SEI). Cette thèse se consacre à l'amélioration des batteries lithium-ion en se focalisant sur les anodes en silicium. L'objectif principal est le développement d'une nouvelle architecture d'anode, baptisée "panel sandwich like", visant à atténuer l'expansion volumique du silicium et la croissance de la SEI. Appliquée sur une puce, cette structure offre des performances électrochimiques exceptionnelles, avec des capacités surfaciques élevées jusqu'à 10 mAh/cm² et une durée de vie prolongée jusqu'à 1000 cycles. En parallèle, la thèse explore le potentiel du silicium de grade solaire comme alternative économique. Ces travaux ouvrent des perspectives novatrices pour le stockage d'énergie, soutenant la transition mondiale vers les énergies renouvelables. La contribution significative de cette recherche repose sur la proposition d'une solution économique et technologique pour surmonter les défis du silicium en tant que matériau anodique. La structure "panel sandwich like" simplifie la fabrication des batteries tout en offrant des performances électrochimiques exceptionnelles. En outre, l'exploration du silicium de grade solaire représente une avancée novatrice, ouvrant la voie à des anodes plus abordables. En conclusion, cette thèse jette les bases pour des recherches futures, notamment l'application potentielle de la structure "panel sandwich like" sur différents types de silicium et l'optimisation continue des formulations d'anodes. Ces développements offrent des opportunités d'innovation et de croissance continue dans le domaine du stockage d'énergie, soutenant ainsi la transition mondiale vers les énergies renouvelablesItem Accès libre Étude de l’influence de certains paramètres sur l’administration de médicaments par ondes de choc(Université de Sherbrooke, 2025-03-20) Malekidelarestaqi, Mahyar; Brouillette, MartinAu fil des ans, de nouveaux médicaments ont été mis au point pour différentes problématiques de santé, mais certains médicaments ne peuvent pas être délivrés efficacement à leurs cibles par les méthodes d’administration conventionnelles. D’autres méthodes d’administration ont été proposées pour améliorer l’efficacité de certains médicaments. L’administration de médicaments par ondes de choc (en anglais : Shock wave-mediated drug delivery, SWDD) est une méthode physique étudiée depuis trois décennies. Malgré les progrès technologiques, l’efficacité de la SWDD reste faible et n’a pas encore trouvé d’application clinique. L'internalisation du médicament dans les cellules cibles tout en préservant leur viabilité définit l’efficacité de la SWDD. Les paramètres mécaniques, y compris la cavitation et les caractéristiques des ondes de choc, comme l’amplitude et le nombre de cycles d’exposition, influencent la SWDD. Pour améliorer l'efficacité de cette méthode, nous avons mené une étude paramétrique avec des cellules confinées dans un petit volume. Les ondes de choc, générées à l’aide d’un éclateur électrique à haute tension, ont vu leurs paramètres modulés par des changements de tension, d’espacement et de distance à la cible. Le nombre d’expositions était également réglable, et les ondes ont été capturées optiquement avec un système Schlieren. Le profil de pression a été obtenu à l’aide d’un hydrophone à fibres optiques. Deux séries d’expériences ont été réalisées, axées sur l’internalisation du fluorochrome et la transfection, et évaluées par cytométrie de flux. La microscopie confocale a été utilisée pour valider qualitativement la cytométrie. L’essai du bleu Trypan a évalué la viabilité des cellules avec un compteur de cellules automatisé, et la prolifération cellulaire a été analysée par imagerie automatisée, traitement d'image et analyse statistique. Les expériences \emph{in vitro} ont été menées sur des cellules HEK 293. L’isothiocyanate de fluorescéine-dextran (10 kDa, FD10) a été utilisé comme substitut du médicament pour l’internalisation du fluorochrome, et le plasmide ADN pEGFPN1 pour la transfection. Les résultats ont montré une tendance similaire pour l’internalisation et la transfection, contrastant avec la littérature. Initialement, une augmentation des expositions aux ondes de choc a amélioré l’internalisation/transfection tout en maintenant une haute viabilité cellulaire, mais au-delà d’un certain point, cela a diminué la viabilité sans bénéfices supplémentaires pour la transfection/l'internalisation. Ces deux séries d'expériences n'étaient pas complètement alignées, ce qui indique que les conditions optimales pour l'internalisation du fluorochrome ne peuvent pas être directement extrapolées à la transfection. L'essai de prolifération a montré que le traitement par ondes de choc n'a pas d'effets durables sur la croissance des cellules viables traitées. La nouveauté de ce projet de doctorat réside dans trois aspects : un dispositif expérimental compact mais polyvalent, des expérimentations couvrant un large éventail d’expositions aux ondes de choc combinées à de nouvelles méthodes d’analyse quantitative, et des résultats qui divergent de ceux rapportés dans la littérature.Item Accès libre Étude de l’influence des paramètres de topologie sur les performances des réservoirs de neurones binaires(Université de Sherbrooke, 2025-03-03) Calvet, Emmanuel; Rouat, Jean; Reulet, BertrandLes réseaux de neurones artificiels ont marqué le début d’une nouvelle ère pour l’intelli- gence artificielle, offrant des performances remarquables dans divers domaines. Cependant, cette avancée s’accompagne d’une consommation énergétique importante, posant des défis environnementaux et opérationnels notables. Cette thèse explore comment les réservoirs de réseaux de neurones aléatoires (RBN) peuvent représenter une alternative en maintenant des performances élevées. Structurée en quatre chapitres principaux, la thèse débute par une présentation des concepts théoriques nécessaires pour comprendre la dynamique des RBN. Le premier chapitre établit les fondamentaux, permettant d’appréhender le fonctionnement de ces réseaux ainsi que les principes sous-jacents. Le deuxième chapitre s’attache à évaluer l’impact de la balance excitation-inhibition sur la dynamique et les performances des RBN. Nos analyses révèlent une relation mathématique clé, montrant que cette balance est essen- tielle et conduit à deux types distincts de transitions de phases. Il apparaît toutefois que le régime critique, malgré sa réputation d’optimalité, n’est pas toujours le plus performant, sa performance variant selon la dominance de l’excitation ou de l’inhibition. Le troisième chapitre se concentre sur l’influence des paramètres topologiques, tels que la taille du réseau et le degré de connectivité, sur les performances des RBN. Les résultats indiquent que le degré de connectivité est un facteur crucial, influençant directement la difficulté de conception et les performances des réseaux. Enfin, le dernier chapitre synthétise les résultats obtenus et discute des implications pour la conception future des RBN. Il propose des principes directeurs et ouvre de nouvelles perspectives de recherche visant à optimiser encore davantage ces systèmes. Cette thèse se situe à l’intersection de plusieurs disciplines — physique statistique, neurosciences computationnelles, et intelligence artificielle — et apporte des contributions essentielles à l’ingénierie des réseaux de neurones. Elle propose une compréhension approfondie de la relation entre connectivité et performance dans les modèles de RBN, ce qui permettrait une meilleure exploitation de ce modèle dans des réservoirs physiques, reconnus pour leur faible consommation énergétiqueItem Accès libre Development of a low-emissions micro-mixing combustor for highly recuperated gas turbines(Université de Sherbrooke, 2025-03-03) Landry-Blais, Alexandre; Picard, MathieuAbstract : The continuous rise in energy consumption requires the use of more efficient power sources if we are to slow down climate change. One of the most energy-intensive sectors of activity is transport, representing more than 40% of the world’s CO2 emissions and up to 70% of NOx emissions, a heavily regulated pollutant that is harmful for both humans and the environment. Although electrification can reduce these emissions, not all vehicles can be electrified due to battery weight limitations, such as long-haul transport and aircraft. Clean, reliable, efficient, and lightweight power sources are thus required for these applications. To this end, the Université de Sherbrooke has developed a novel gas turbine architecture, the Inside-out Ceramic Turbine (ICT). In a recuperated configuration, the ICT can achieve an efficiency of ~40%, an increase of over 15 points compared to simple cycle turbines for a similar power density of ~3 kW/kg. However, to achieve this performance, the combustor inlet temperature increases to values well above the autoignition point of most fuels, leading to reliability issues with premixed combustion or high NOx emissions with non-premixed combustion. Micro-mixing is a promising approach to achieve both the requirements of high reliability and low emissions, but has yet to be demonstrated at operating conditions relevant to a recuperated ICT engine, namely high inlet temperatures and with fuels other than hydrogen. The main objective of this thesis is thus to demonstrate low NOx emissions, stable combustion, and fuel flexibility at these operating conditions using micro-mixing combustion. Simple analytical models allowed to build a fundamental understanding of micro-mixing combustion, showing that minimizing the mixing time of the stoichiometric flame sheet in the fuel jet is key in achieving low NOx emissions. This is, however, limited by a blowout limit under which combustion in the flame sheet cannot be sustained, resulting in possible instabilities due to combustion occurring downstream of the fuel jets at premixed conditions. These assumptions are supported by experimental measurements, showing premixed levels of NOx emissions at low mixing timescales, but also the occurrence of combustion instabilities under low reactivity or fast mixing conditions. A Damköhler number is proposed to explain these observations, showing good correlation for both NOx emissions and combustion stability: the smaller the Damköhler number (i.e., fast mixing relative to the reaction time), the smaller NOx emissions are but the risk of instabilities increases. Based on these results, a path to improve the NOx/stability trade-off is proposed where fuel preheating is maximized to increase its reactivity. The results achieved show lower occurrence of instabilities for similar NOx levels, offering a promising approach to improve this technology. The original contributions of this work are: 1) identifying the driving parameters of micromixing combustion using simple analytical models, 2) demonstrating low NOx and stable combustion with multiple fuels, notably liquid fuels, at high inlet temperatures and 3) providing potential solutions that improve the NOx/stability trade-off typically observed in premixed gas turbine combustors.Item Accès libre Numerical characterization of rotor broadband noise sources in a high bypass-ratio turbofan(Université de Sherbrooke, 2025-02-24) Kholodov, Pavel; Moreau, StéphaneAbstract : The role of the rotor noise becomes more important with the recent developments of the turbofan engines. It can compete with the rotor-stator interaction noise due to increased rotor diameter and the tip speed. Yet, there are little studies devoted to the estimation of the rotor noise sources, and there are no detailed numerical simulation that would allow quantifying the role of diffeerent rotor noise sources. It is linked to the complex flow behavior that can be simulated only with high-fidelity numerical methods. The other factor is the large computational resources needed to resolve the flow around the rotor. The current thesis aims at filling the lack of information on the rotor noise sources by achieving high-fidelity numerical simulations in a realistic configuration of the High Bypass Ratio (HBR) turbofan rotor. It employs wall-modeled and wall-resolved Large Eddy Simulation (LES) method, which is capable of resolving most of the turbulent spectrum, and consequently to capture the broadband noise sources around the rotor. The wall-resolved LES in a realistic turbofan rotor is achieved for the first time. The effects of the wall resolution, the numerical scheme and the boundary conditions on the acoustics propagation are studied in several LES cases. The LES results are compared with the engineering-standard Reynolds Averaged Navier-Stokes (RANS) method, which requires moderate computational resources compared to LES, but lacks the turbulence resolution and hence needs analytical models to compute the noise sources. The rotor flow is computed for subsonic and transonic operating conditions for both methods. The results are validated on an experimental benchmark in terms of both aerodynamics and acoustics. A good agreement with the experimental results is demonstrated, as well as the superiority of the current results over those available in the literature. The identification of the particular rotor noise sources is made by using multiple post-processing methods, part of which was implemented during the research. The rotor is studied by computing the overall sound radiation as well as semi-analytical modeling of each noise source. Such an analysis allows quantifying both relative strength and frequency range of each noise source, and highlighting the most important of them. It is shown that the tip noise source is most effective in the low-to-middle frequency range, while in the middle-to-high frequency range the tip and the trailing-edge noise compete with each other. These two noise sources are shown to be the dominant ones in the overall rotor noise.