Génie – Mémoires
URI permanent de cette collectionhttps://hdl.handle.net/11143/219
Parcourir
Dépôts récents
Item Accès libre Ponçage de murs en gypse avec un bras robot collaboratif(2025) D'Amours, Philippe; Ferland, François; Girard, AlexandreL’automatisation fait partie de la solution pour faire face au manque de main-d’œuvre au Canada. Ce manque se fait particulièrement sentir dans le milieu de la construction, mais il peut-être difficile pour ce milieu d’intégrer l’automatisation à cause de l’environnement variable et du fait que les compagnies de construction sont souvent à leur premier pas en termes d’automatisation. Pour s’assurer qu’un premier projet d’automatisation soit un succès, il est important de choisir la bonne tâche à automatiser. Dans ce cas, la tâche de ponçage est pertinente pour l’automatisation car elle demande une grande quantité de travail manuel. Elle porte aussi des risques de blessures musculosquelettiques à cause du travail répétitif et le ponçage du plâtre cause une grande quantité de poussière incommodante qui oblige les travailleurs à porter des masques durant le travail. Ces conditions laissent entrevoir un retour intéressant sur l’investissement en temps humain et une bonne acceptabilité sociale. Des travaux préliminaires ont été faits avec un algorithme de vision pour localiser les joints dans l’espace du robot. Une caméra RGB-D stéréo et des projecteurs proches ultra-violets permettent d’illuminer le joint et de l’associer au nuage de points correspondant. L’automatisation de la tâche est faite avec une ponceuse orbitale sur un bras robotique collaboratif monté sur une plateforme mobile. Un septième axe linéaire est ajouté au robot pour atteindre le sommet des murs et des plafonds. Pour valider la qualité du robot, il faut s’assurer qu’il ponce la même profondeur que les plâtriers. Avec un numériseur laser, la profondeur du plâtre enlevé est évaluée en mesurant la différence avant et après le ponçage. Les mesures de la profondeur du plâtre avant et après le ponçage nous montrent que les plâtriers poncent en moyenne 0,09 mm avec une déviation standard de 0,05 mm. Les résultats montrent donc une limite supérieure à 0,19 mm pour les plâtriers et, après les ajustements, le robot ponce en moyenne 0,10 mm avec une déviation standard de 0,04 mm. Donc, on estime une limite de 0,18 mm pour le robot, ce qui permettrait à celui-ci de poncer de façon similaire aux plâtriers, mais avec légèrement moins de ponçage pour s’assurer de ne pas endommager le mur.Item Accès libre Détermination du degré de déstructuration des argiles(2025) Poissant, Mélanie; Karray Benhassen, Mourad; Grenier, SimonCe projet de recherche fait la démonstration, en utilisant la vitesse de propagation des ondes de cisaillement, de la relation permettant de connaître le degré de déstructuration d’échantillons constitués des argiles de la Mer de Champlain, un dépôt présent sur une grande partie du territoire habité au Québec. Des ondes de cisaillement sont générées à l’aide d’éléments piézoélectriques de type P-RAT, développés par l’Université de Sherbrooke, au cours d’essais de consolidation oedométrique. La courbe Vs – log ’v est utilisée pour déterminer la contrainte de préconsolidation lors des essais. Des échantillons ont été prélevés avec différents types d’échantillonneurs. L’effet du type d’échantillonneur sur le degré de déstructuration ainsi que sur les résultats d’essais ont été comparés, de même que l’effet de la position au sein même des échantillonneurs. Des essais de cisaillement direct et des essais triaxiaux en compression ont également été effectués pour évaluer l’effet de la qualité des échantillons sur la résistance au cisaillement.Item Accès libre Passage de simulation au réel pour l’apprentissage par renforcement en robotique collaborative(2025) Ferrara, Jérémy; Suleiman, WaelDans le domaine de la robotique, le transfert de politiques d’apprentissage par renforcement (RL) de la simulation vers le monde réel reste un défi majeur. Ce défi est d’autant plus complexe lorsque l’on utilise du RL profond (DRL) basé sur des images, car les écarts visuels entre simulation et réalité perturbent fortement l’efficacité des politiques apprises. Ce projet de recherche explore ces défis en se concentrant sur les tâches de préhension robotique basé sur la vision et la réduction de l’écart de transfert entre la simulation et la réalité communément appelé sim-to-real gap pour assurer un transfert fluide entre ces deux environnements. Nous proposons une approche en deux phases : un modèle initial sans images pour valider la fonctionnalité, suivi d’un modèle basé sur les images intégrant des données visuelles pour améliorer la précision de la préhension. L’architecture d’apprentissage repose sur QT-Opt (Q-learning avec Optimisation de la Politique par Deep Q-Learning), une méthode de Q-learning profond optimisé conçue pour stabiliser l’entraînement de politiques complexes à partir d’expériences précédentes. Les modèles sont entraînés pour apprendre des actions optimales de préhension à partir de paires état-action dans des contextes simulés et réels. Pour stabiliser l’apprentissage, plusieurs réseaux de neurones combinés sont utilisés afin de résoudre les problèmes de gradients instables. Nous incorporons également la méthode d’entropie croisée (Cross Entropy Method, CEM) pour l’optimisation des actions dans les tâches en contrôle continu. De plus, nous exploitons la méthode d’apprentissage par renforcement à démarrage rapide appelée Jump-Start Reinforcement Learning (JSRL) pour améliorer la convergence, en utilisant l’agent sans images préalablement entraîné lors de la première phase pour guider les premières décisions du modèle et renforcer l’efficacité de l’exploration. Les résultats expérimentaux mettent en évidence l’efficacité des différentes fonctions de récompense ainsi que l’impact du positionnement des caméras sur les performances des modèles. Enfin, nous explorons l’utilisation de réseaux de neurones génératifs pour réduire les écarts visuels entre les images simulées et réelles, augmentant ainsi la robustesse en environnement réel.Item Accès libre Catalytic co-pyrolysis of lignocellulosic biomass, waste motor oil, and plastic residues: a sustainable pathway to high-quality renewable fuels(2024) Villegas Gutierrez, Juan Pablo; Lavoie Jean-MichelL'augmentation de la demande énergétique mondiale pose d'importants défis environnementaux, nécessitant le développement d’alternatives durables et efficaces aux combustibles fossiles. La biomasse lignocellulosique, telle que les résidus de maïs, constitue une matière première renouvelable viable pour la production de biocarburants en raison de son abondance, de son caractère non comestible et de son impact minimal sur les systèmes de production alimentaire. Cependant, les contraintes inhérentes à l’huile pyrolytique conventionnelle, telles qu’une teneur élevée en oxygène, une faible densité énergétique et des coûts de production élevés, limitent la faisabilité commerciale des carburants dérivés de la biomasse. Ce travail aborde ces problématiques à travers la co-pyrolyse catalytique, qui consiste à mélanger des résidus de maïs (CS), de l’huile moteur usagée (WMO) et des déchets plastiques agricoles (APW). La réaction est catalysée par un système à double catalyseur composé de zéolite de type Y et d’hydroxyde de calcium. L’objectif principal de cette recherche était d’évaluer la faisabilité de la production d’huiles pyrolytiques de haute qualité par co-pyrolyse catalytique du WMO, de l’APW et du CS sous différentes conditions catalytiques. L’étude se concentre sur la compréhension des interactions synergiques entre les matières premières et les catalyseurs afin de réduire la teneur en oxygène, d’augmenter la densité énergétique et d’optimiser la fraction liquide. L’utilisation d’un système à double catalyseur a conduit à des améliorations significatives de la qualité des produits. Les meilleurs résultats ont été obtenus avec des configurations contenant 2 % en poids de zéolites et 5 % en poids de Ca(OH)₂. Les fractions liquides présentaient de faibles rapports oxygène/carbone et des rapports H/C élevés, indiquant une augmentation de la teneur en hydrocarbures. Le WMO a joué un double rôle en tant que donneur d’hydrogène et solvant, permettant une désoxygénation et un craquage plus efficaces. Cela a abouti à une huile pyrolytique aux propriétés physico-chimiques uniques, pouvant être transformée et extraite en une variété de sous-produits, y compris des carburants fossiles liquides. De plus, l’ajout d’APW a augmenté la disponibilité en hydrogène, améliorant ainsi la valeur calorifique et la stabilité des produits liquides. La technique a considérablement réduit la production de sous-produits solides et gazeux, mettant en évidence son efficacité et ses avantages environnementaux. Cette étude souligne le potentiel de la co-pyrolyse catalytique comme une voie prometteuse pour la production de carburants renouvelables de haute qualité, tout en répondant aux défis conjoints de la gestion des déchets et de la production d’énergie durable. Les résultats fournissent des informations précieuses pour l’optimisation des proportions des matières premières, des concentrations de catalyseurs et des conditions de réaction, ouvrant ainsi la voie à des technologies de production de biocarburants évolutives et durables.Item Accès libre Planification de trajectoire 3D d’un drone autonome d’inspection de lignes électriques à haute tension(2025) Poissant, David-Alexandre; Ferland, François; Lussier Desbiens, AlexisL’inspection de conducteurs à haute tension à l’aide d’un drone s’avère être une tâche délicate, même pour un pilote professionnel. Les manoeuvres sont complexes et la main-d’oeuvre spécialisée dans ce domaine se fait rare. Ainsi, l’intérêt d’avoir un système d’inspection autonome grandit pour les compagnies comme Hydro-Québec. Une planification de trajectoire 3D évitant les collisions et suivant un trajet optimal est nécessaire pour qu’un drone soit complètement autonome. Les algorithmes traditionnels souffrent de temps d’exécution élevé ou de trajet non optimal. D’autres méthodes existent, comme celles inspirées de la biologie et du comportement animal ou celles par apprentissage machine. Entre autres, les méthodes d’apprentissage supervisées et par renforcement sont souvent utilisées dans des situations de planification de trajectoire de drone. En revanche, l’apprentissage supervisé nécessite d’être entrainé auparavant et l’apprentissage par renforcement nécessite beaucoup de données. Ainsi, les approches combinant plusieurs algorithmes de planification pour bénéficier des avantages de chacun sont intéressantes. Durant une mission d’inspection, les conditions de vol sont sujettes à évoluer. Une perte GPS, des rafales de vent soudaines et un niveau de batterie devenant critique sont des phénomènes changeant la définition d’optimalité en temps réel et les méthodes actuelles de planification de trajectoire ne répondent pas à ces changements. La contribution principale de cette recherche est une approche de planification 4D à plusieurs objectifs, adaptative et consciente de la consommation d’énergie. Cette méthode contribue à la littérature existante dans le domaine de la robotique adaptative, de l’optimisation à plusieurs objectifs et de l’estimation de consommation d’énergie au long d’une trajectoire pour un quadrirotor. Ainsi, cette recherche présente la méthodologie entreprise pour répondre au problème de planification de trajectoire dans le cadre de mission d’inspection de ligne électrique, ainsi que des pistes d’amélioration pour des travaux futurs. Il est aussi démontré que l’algorithme proposé est en mesure de planifier des trajectoires couvrant plus de 95% de la plage de valeurs définies par une méthode d’analyse quasi optimale, tout en estimant la puissance requise avec une erreur moyenne de 14%. Cette étude présente des résultats complétés dans plusieurs environnements de simulation et une validation en situation réelle de vol.Item Accès libre Mise à l’échelle d’un procédé de fabrication sur tranche de 200 mm de jonctions Josephson en Al/AlOx/Al avec la méthode Manhattan pour les qubits supraconducteurs(2025) Drouin, Francis; Hofheinz, MaxCe mémoire se concentre sur la fabrication de jonctions tunnel Josephson (JJ) en Al/AlOx/Al en utilisant la méthode de fabrication Manhattan. Les JJs sont des composantes essentielles des circuits supraconducteurs quantiques, notamment des qubits supraconducteurs et des amplificateurs paramétriques. Ces dispositifs sont au cœur des recherches actuelles en informatique quantique, ce qui souligne l'importance d'obtenir des procédés de fabrication reproductibles à grande échelle. L’objectif principal de ce projet a été de développer un procédé de fabrication fiable et reproductible pour des JJs en aluminium sur des tranches de 200 mm. Le projet a permis la mise en place d’un procédé de fabrication de base de JJ en Al/AlOx/Al utilisant la lithographie électronique au sein des installations de l’Institut Interdisciplinaire d’Innovation Technologique (3IT). Des étapes critiques telles que la déposition de l’aluminium, l’oxydation contrôlée pour former la barrière tunnel et le soulèvement ont été mises en place afin d’assurer la stabilité des jonctions. En parallèle, des outils de caractérisation des dispositifs ont été développés pour évaluer les performances électriques à la fois à température ambiante et en conditions cryogéniques des dispositifs, ainsi que pour mesurer les dimensions physiques des jonctions avec précision. Un effort significatif a été réalisé pour automatiser les outils de caractérisation. Cela a permis d'accélérer la caractérisation, ce qui est nécessaire pour de si gros échantillons, et de fiabiliser les résultats obtenus. Les résultats expérimentaux ont révélé des variations significatives de reproductibilité entre les tranches et d’uniformité sur une même tranche, principalement liées aux variations des dimensions des JJs. Ces variations ont un impact direct sur les caractéristiques électriques des JJs, notamment leur résistance et leur énergie de couplage. Des efforts ont été concentrés sur l’amélioration de l’uniformité des dimensions des dispositifs en travaillant sur les paramètres de la lithographie. Pour ce faire, une série de calculs analytiques ont été mis en place pour lier les variations de dimensions des JJs avec la lithographie et le dépôt de l’aluminium. En conclusion, ce projet a établi une base solide pour la fabrication de JJs en Al/AlOx/Al sur des tranches de grandes dimensions. Cependant, des travaux futurs seront nécessaires pour affiner les procédés de fabrication et garantir une meilleure uniformité des dispositifs à l’échelle industrielle. Ces améliorations seront cruciales pour répondre aux exigences de performance des dispositifs quantiques de prochaine génération.Item Accès libre Conception d’un microréacteur électrique pour le reformage du méthane adapté à la production de masse par collage par diffusion(2025) Dufresne, Jacob; Picard, Mathieu; Fréchette, LucL’hydrogène est largement vu comme un important vecteur de décarbonation, notamment pour les industries de la métallurgie, des carburants avancés et des produits chimiques spécialisés. La production d’hydrogène à ce jour est pourtant responsable de près de 3% des émissions globales de gaz à effet de serre. Cela est dû à sa production par reformage du méthane, chauffé par combustion. Une alternative consiste à remplacer le chauffage par combustion par un chauffage électrique qui permettrait de couper de moitié les émissions liées à ce procédé chimique. C’est l’avenue visée par l’équipe de l’Université de Sherbrooke, qui a développé une architecture de microréacteurs chauffés électriquement et hautement intégrés. Ces microréacteurs permettent d’être 10 fois plus compact que le procédé conventionnel et largement plus efficace énergétiquement. La barrière à leur adoption est toutefois principalement économique, puisque leurs coûts de fabrication restent trop élevés et la capacité de production trop faible pour compétitionner avec les réacteurs standards. L’objectif du projet de recherche est de concevoir, fabriquer et valider, sous un angle technicoéconomique, un microréacteur respectant l’architecture développée qui soit adapté à la production de masse. Pour ce faire, les méthodes de fabrication potentielles ont été évaluées et le collage par diffusion de plaques fabriquées par gravure photochimique a été retenu comme procédé ayant le plus de potentiel. Un modèle de microréacteur respectant les limites de ces méthodes et le design des microréacteurs de l’Université de Sherbrooke a été conçu puis fabriqué. Une validation expérimentale des prototypes a été effectuée, permettant de valider leur tenue en pression d’opération et à une température de 900 °C. Les aspects économiques du processus de fabrication ont été analysés, révélant qu’à une échelle de production de 100 réacteurs, le coût unitaire atteignable était de 107 CAD, soit 16% de plus que l’objectif de 92 CAD et plus de onze fois moins coûteux que l’impression 3D (DMLM) à 1197 CAD. Les opportunités de réduction de coûts à l’échelle du millier de réacteur offrent toutefois une lumière positive sur la capacité à rejoindre, voire dépasser, ce coût cible.Item Accès libre Conception de l'interface réseautique d'un système d'acquisition de données pour un réseau de capteurs à grande échelle reliés par fibre optique(2025) Lessard, Gabriel; Pratte, Jean-François; Charlebois, SergeCertaines expériences en physique des particules telles que nEXO et ARGO, s’appuient sur une grande surface recouverte de photodétecteurs dans un gaz noble liquéfié (4.6 m2 pour nEXO). Ces deux expériences utilisent ce volume de gaz noble refroidi afin d’étudier la désintégration double-bêta sans neutrinos et la matière sombre respectivement. L’électronique dans le cryostat doit pouvoir lire l’information des détecteurs et acheminer les données produites au système d’acquisition de données à l’aide d’un système de communication opérant à des températures cryogéniques. Ces températures sont déterminées par la température du gaz noble utilisé, soit de 165 K pour le xénon liquide et de 87 K pour l’argon liquide. Comme la production de chaleur est critique dans un cryostat, le mode de communication doit opérer à basse puissance. Le système de communication choisi doit soutenir un grand nombre de détecteurs en produisant le moins de chaleur possible. La communication par fibre optique peut répondre à ces besoins et présente d’autres qualités incluant la possibilité de communication sur de longues distances à haut débit, l’isolation galvanique qu’elle procure entre les circuits et la radiopureté des matériaux utilisés. Toutefois, ce mode de communication doit être interfacé vers les serveurs de traitement et de stockage pour de telles expériences. Un module de communication optique est en développement dans le groupe de recherche en appareillage médical 3D et nécessite une telle interface. Celle-ci doit pouvoir connecter aisément les modules de communication à des ordinateurs conventionnels faisant le traitement et le stockage des données produites. Ces ordinateurs communiquent typiquement par un réseau Ethernet et nécessitent un système servant d’interface entre le réseau optique du cryostat et les serveurs de traitement de données. Cette interface doit donc être en mesure de s’adapter aux différentes échelles de ces expériences et à l’important volume de données produit. Ce projet a comme visée de réaliser cette interface Ethernet afin de pouvoir déployer un système d’acquisition de données modulaire pouvant acquérir un volume d’au moins 1 Gb/s par module, soit le débit du module de communication développé en parallèle à ce projet. Cette maîtrise vise à définir l’architecture complète du système, développer le code FPGA de l’interface et en démontrer l’intégration dans un système d’acquisition de données. À la suite de ces travaux, le groupe de recherche aura à sa disposition un système pouvant accélérer la mise en marche d’expériences en physique des particules. Ces expériences de grande envergure ont le potentiel d’amener à de grandes découvertes nous permettant de mieux comprendre la physique de l’Univers et de revoir le modèle de la physique moderne.Item Accès libre Conception d’un circuit intégré émetteur-récepteur permettant la mise en réseau de détecteurs opérant à température cryogénique(2025) Prentice, Sean; Charlebois, Serge; Pratte, Jean-FrançoisLes grandes expériences de physique des particules visent à valider les hypothèses relevées par la physique moderne. Certaines de ces hypothèses portent sur l’identification de la ma- tière sombre (ARGO) et sur l’analyse de la double désintégration bêta sans neutrino (nEXO). Ces expériences nécessitent des chambres à dérive comprenant des systèmes d’instrumenta- tion submergés dans un gaz noble liquéfié. De plus, les systèmes d’instrumentation doivent couvrir des surfaces de quelques mètres carrés allant jusqu’à des centaines de mètres carrés de photodétecteurs afin d’augmenter la probabilité de détection d’événements. Les expériences nEXO et ARGO imposent des contraintes majeures quant à la conception de leurs systèmes d’instrumentation. L’électronique à concevoir doit à la fois être radiopure, opérer à tempéra- ture cryogénique et avoir une consommation de puissance minimale afin d’éviter l’ébullition du gaz noble liquéfié. Les grandes surfaces de photodétecteurs génèrent une quantité exor- bitante de données. Pour répondre à cet enjeu, le GRAMS3D de l’Université de Sherbrooke conçoit un système de communication optique cryogénique gigabit. Les systèmes à base de fibres optiques possèdent plusieurs avantages par rapport aux solutions standards utilisant des câbles de cuivre, ces avantages seront discutés plus en détails dans le contenu de ce document. Le module de communication optique à concevoir pour ce projet est composé de deux cir- cuits intégrés, un circuit CMOS et un circuit de photonique sur silicium. Puisque ce projet se fait avec trois autres étudiants, l’objectif du mandat confié se limite à la conception de la partie numérique du circuit intégré CMOS. Ce circuit intégré doit posséder les fonctions d’un émetteur-récepteur gigabit permettant de conditionner des signaux numériques provenant de photodétecteurs et de les transmettre sur une fibre optique. Il se doit d’aussi respecter des pro- tocoles de communications pour permettre son intégration dans un système de communication Ethernet utilisant des solutions commerciales. Pour les expériences nEXO et ARGO, des archi- tectures à base de sérialiseurs-désérialiseurs et d’encodeurs de données seront analysées afin de se conformer aux exigences de débits de données, de taux d’erreur binaire et de consommation de puissance. La réalisation des expériences nEXO et ARGO permettront par la suite de valider les hypo- thèses de double désintégration bêta sans neutrino et de déterminer l’existence de la matière sombre. L’explication de ces phénomènes permettra de perfectionner le modèle standard de la physique des particules et aidera à analyser certains phénomènes méconnus de l’Univers qui nous entoure.Item Accès libre Mise en œuvre d'un procédé de lixiviation-purification des NMC 811(2025) Diop, Astou; Soucy, Gervais; Veilleux, JocelynCompte tenu des enjeux économique et écologique, le recyclage des batteries lithium- ion riches en nickel est devenu un défi environnemental et sociétal. C’est dans ce contexte que s’inscrit ce projet de recherche dont l’objectif principal est de développer un procédé de lixiviation/purification efficace pour le recyclage des LiNi0,8Mn0,1Co0,1O2 (NMC 811). Tout d'abord, le procédé expérimental a commencé par l'étude des impacts de la concentration en acide sulfurique (0,5 - 3M), de la concentration en peroxyde d’hydrogène (0 - 10 % v/v) et du ratio solide/liquide (20 - 100 g/L) sur la lixiviation des métaux du NMC 811 vierge. Au cours de ces expériences, les évolutions du potentiel d’oxydoréduction (ORP) et du potentiel hydrogène (pH) ont été suivies. Ainsi, une meilleure lixiviation du NMC 811 vierge est obtenue avec des taux de lixiviation de 99,9 % pour le lithium, 97,8 % pour le nickel, 99,8 % pour le cobalt et 95,6 % pour le manganèse sous des conditions expérimentales de 1,5 M d’acide sulfurique, 1 % v/v de peroxyde d’hydrogène, 20 g/l de ratio solide/liquide, et une température de 80 °C pendant 60 minutes. Ces conditions expérimentales correspondent à un potentiel d’oxydoréduction stable de 612 mV et à un potentiel hydrogène stable de 1,21. En outre, la variation de la concentration d’acide sulfurique entre 0,5 M et 3 M permet de noter une évolution graduelle du potentiel d’oxydoréduction entre 571 et 704 mV et le potentiel hydrogène va de 1,86 à 0,90. La variation de la concentration de peroxyde d’hydrogène entre 0 % v/v et 10 % v/v induit des résultats scindés en deux groupes. L’un des groupes, constitué par des concentrations à 0 % v/v, à 0,5 % v/v et à 0,75 % v/v, présente des valeurs de potentiel d’oxydoréduction supérieures à 1100 mV; et l’autre groupe, caractérisé par des concentrations de 1 % v/v, 5 % v/v et 10 % v/v, présente des valeurs de potentiel d’oxydoréduction plus basse, inférieures à 650 mV. Les potentiels hydrogène de ces tests se situent entre 0,80 et 1,31. La variation du ratio solide/liquide de 100 g/l à 20 g/l fait évoluer le potentiel d’oxydoréduction de 1239 mV à 612 mV. Le potentiel hydrogène, lors de ces tests, varie de 3,80 à 1,21. Ensuite, la lixiviation des impuretés du NMC 811 usé synthétique a été limitée en se basant sur les diagrammes potentiel- pH (E-pH) et les paramètres de la lixiviation. Les paramètres étudiés sont : la concentration d’acide sulfurique (0,5 - 3 M), la température (20 - 80 °C) et la concentration en acide ascorbique (0,25 - 0,75 M). Les évolutions du potentiel d’oxydoréduction (ORP) et du potentiel hydrogène (pH) ont été suivies lors de ces tests. Ainsi, une meilleure pureté du matériau est obtenue avec des taux de lixiviation de 1,5 % de cuivre, 1 % de fer et 3 % d’aluminium sous des conditions expérimentales de 2 M d’acide sulfurique, 0,5 M d’acide ascorbique, 60 °C, 20 g/l et 60 minutes, tout en maintenant des taux de lixiviation de 99,8 % pour le lithium, 96,7 % pour le nickel, 98,4 % pour le cobalt et 95,1 % pour le manganèse. Ces conditions expérimentales correspondent à un potentiel d’oxydoréduction stable de 142 mV et à un potentiel hydrogène stable de 0,83. En outre, le potentiel d’oxydoréduction évolue de 1106 mV à 1303 mV lorsque la concentration d’acide sulfurique varie de 0,5 M à 3 M en l’absence de réducteur, tandis que le potentiel hydrogène passe de 1,72 à 0,98. La variation de la température de 20 °C à 80 °C induit une évolution du potentiel d’oxydoréduction de 150 mV à 190 mV et le potentiel hydrogène évolue de 1,19 à 0,76. La variation de la concentration d’acide ascorbique de 0,25 à 0,75 M fait évoluer le potentiel d’oxydoréduction de 160 mV à 138 mV. Le potentiel hydrogène de ces tests varie de 0,90 à 0,74. En résumé, ce projet présente un procédé efficace de recyclage du LiNi0,8Mn0,1Co0,1O2 (NMC 811). De plus, le suivi du potentiel d’oxydoréduction et du potentiel hydrogène a permis d’identifier les conditions expérimentales limitant la dissolution des impuretés tout en favorisant la lixiviation des principaux métaux cathodiques. En guise de travaux futurs, une précipitation carbonate du lixiviat final est proposée.Item Accès libre Étude des forces et contrainte de soulèvement des au gel via des essais in situ et en laboratoire(2024) Corriveau,Samuel; Karray Benhassen, MouradLes installations solaires photovoltaïques jouent un rôle stratégique de plus en plus important au Canada, tant sur les plans économique, social que politique, en réponse à la demande croissante d’électricité provenant de ressources renouvelables. Au cours de la dernière décennie, plusieurs parcs solaires ont été implantés en Alberta, et de nombreux autres projets sont en développement à travers le pays. En raison de leurs coûts relativement faibles et de leur grande accessibilité, les pieux battus sont couramment utilisés pour assurer la stabilité des systèmes de rayonnages (systèmes de suivi solaire). La conception géotechnique de ces fondations soulève des défis spécifiques, impliquant à la fois des considérations spatiales à grande échelle et des enjeux relatifs au gel qui influencent le dimensionnement des pieux. En effet, les phénomènes saisonniers de gel, combinés aux caractéristiques silteuses des sols de l’Alberta, engendrent un phénomène de gonflement du sol, principalement causé par la formation de lentilles de glace dans la zone de gel. Ces lentilles génèrent des forces importantes, susceptibles de provoquer un soulèvement significatif et de nuire à la fonctionnalité des systèmes de rayonnage. Pour prédire les forces de soulèvement générées par la formation de ces lentilles de glace, les ingénieurs canadiens se réfèrent généralement au manuel d’ingénierie des fondations, qui tient compte de la profondeur de gel du sol et de la contrainte d’adhérence due au gel (« Adfreeze »). Cependant, les valeurs recommandées par ce manuel restent très simplistes et ne considèrent pas d’autres paramètres géotechniques cruciaux, tels que la disponibilité de l’eau, la distribution granulométrique, la distribution des contraintes d’adhérence le long du fut ainsi la vitesse de propagation du front de gel. Dans le cadre de cette maitrise, une série d’essais in situ préliminaires et en laboratoire ont été réalisés. Pour les essais in situ, des pieux battus munis de différents capteurs (déformation, température, pression) ont été installés sur un site expérimental proche de l’université et monitorés durant un cycle complet de gel. Pour les essais en laboratoire, un modèle d’essai réduit a été créé, ou un pieu, muni de capteurs, été monitoré alors que de la glace sèche était ajoutée, visant à mimer l’effet d’un cycle de gel de façon accéléré. Cette première série d’essais in situ a démontré que les forces d’adhésion ne sont pas distribuées uniformément le long du fut et se concentrent principalement au niveau de la frange de gel. De plus, les essais en laboratoire ont montré que les contraintes d’adhérence mesurées dans le cadre d’un modèle réduit sont similaires aux valeurs recommandées par le manuel canadien et sont causés par le lien glace/pieu, mais aussi la friction des grains gelés. Cette étude montre donc que ces tests permettent de mesurés la distribution des forces d’adhérence dues au gel ainsi que leur magnitude, et ouvre la porte à ce que des expériences ultérieures de laboratoire, rapide et peu couteux, puissent fournir un grand volume des données précises sur les facteurs influençant les contraintes d’adhérence au gel.Item Accès libre Module de détection pour le rejet de la diffusion de rayons X par temps de vol de photons(2024) Gaulin, Louis-Daniel; Fontaine, RéjeanLa tomodensitométrie (TDM) et la radiographie sont des modalités d’imagerie médicale largement démocratisées pour observer l’anatomie d’un sujet étant donné leur faible coût, précision et rapidité d’acquisition. Toutefois, l’utilisation de rayons X est néfaste pour la santé et un travail est nécessaire pour minimiser la dose administrée lors de l’examen. Il a été démontré que la diffusion des photons dans le volume imagé limite les performances en radiographie et en TDM, demandant une plus grande dose de rayons X pour obtenir une image de qualité. Le Groupe de recherche en appareillage médical de Sherbrooke (GRAMS) aborde présentement cette problématique et vise à réduire l’impact des photons diffusés par la mesure du temps de vol (TdV) sans nécessiter de grilles anti-diffusantes, connues pour leur perte en sensibilité. Depuis 2017, les travaux de l’équipe ont permis de prouver le concept de rejet de la diffusion par temps de vol en simulation, en plus de développer un système de détection de rayons X résolu en temps permettant d’atteindre des performances temporelles suffisantes pour la majorité des énergies de rayons X présents dans le spectre utilisé en imagerie médicale. Toutefois, ce système ne permet pas une taille et une densité de pixels suffisants pour supporter le développement nécessaire au groupe, visant des performances de résolution spatiales similaires à la TDM conventionnelle ainsi qu’un module de détection permettant l’acquisition d’une image de moyenne taille. Le projet présenté dans ce mémoire vise donc le développement d’un module de détection supportant la progression vers des systèmes multipixels, se basant d’abord sur des détecteurs des circuits intégrés de lecture destinés à la tomographie par émission de positrons (TEP) par temps de vol. Le module de détection réalisé dans ce projet a permis l’évaluation de l’impact temporel d’une source de rayons X pulsée sur le système et démontre que ce dernier est négligeable comparé aux détecteurs. Des circuits électroniques développés pour le module de détection ont démontré la possibilité d’utiliser des circuits intégrés et détecteurs destinés à la TEP TdV avec des rayons X. Toutefois, ces composantes respectent les requis de résolution temporelle établie, soit 300 ps largeur à la mi-hauteur, pour seulement le quart des énergies présentes dans le spectre utilisé. On observe une dégradation excessive des performances temporelles aux basses énergies du spectre. Une forte marche temporelle (de l’anglais Time walk) dans le système a aussi été observée, forçant l’ajout de contraintes de compensation de ce phénomène pour le futur. Ces apprentissages sont critiques pour le projet et auront donc un impact clair pour le futur de ce dernier.Item Accès libre Caractérisation du régime de glace dans un multichenaux de la rivière L'Assomption(2025) Fouquet, Mathieu; Trudel, Mélanie; Lacey, JayDans un contexte nordique comme celui du Québec et du Canada, le débordement des cours d'eau menant aux inondations peut être causé par des embâcles de glace. Ces phénomènes se produisent à la suite de la rupture mécanique du couvert de glace lorsque les blocs résultants sont entraînés par l'écoulement et s'accumulent à l'endroit des sites morphologiquement propices à l'obstruction des glaces. Le transport de quantités de glace importantes lors d’inondations par embâcle de glace et la rapidité à laquelle ces événements peuvent se produire en font des événements parfois plus dangereux que les inondations en eaux libres. Les connaissances actuelles relatives aux inondations comportent toutefois des lacunes en ce qui a trait aux embâcles de glace. C'est pourquoi à ce jour, les aléas des inondations par embâcles de glace sont pris en compte que très sommairement dans la cartographie des zones inondables au Québec. Ainsi, ce projet de recherche vise à agrandir le répertoire de connaissances relatives aux inondations par embâcles de glace. Plus précisément, celui-ci a pour but de mieux comprendre les processus de formation et d'évolution de la glace de rivière dans les contextes morphologiques complexes des multichenaux, qui sont propices à la formation des embâcles. Pour ce faire, des campagnes de terrain ont été mises en oeuvre afin de relever des observations et des mesures permettant de caractériser la formation et l'évolution du couvert de glace dans un multichenaux de la rivière L'Assomption, soit un site où des embâcles de glace ont déjà causé des dégâts matériels. Ces données présentent que le couvert de glace des chenaux peut se former par des mécanismes communs telle l'accumulation de la glace de surface et par des mécanismes distincts qui sont fonction des conditions hydrodynamiques propres à chaque chenal. Elles présentent également que l'ordre de formation du couvert de glace, les mécanismes à l'origine de sa formation ainsi que sa composition sont sujets à varier d'une année à l'autre en fonction des événements qui mènent à sa formation ainsi qu'en fonction de la séquence de ces événements. Un modèle numérique a ensuite été conçu afin de reproduire les conditions hydrodynamiques et les formations de glace mesurées, mais fut incapable de reproduire le régime de glace observé en raison de problèmes de convergence liés aux faibles profondeurs d'eau présente à l'endroit du site d'étude. Ce modèle a par la suite été utilisé avec succès afin de modéliser la formation des embâcles au sein du multichenaux à l'étude dans le cadre de scénarios hypothétiques dont les conditions initiales sont inspirées des observations du couvert de glace. Ces résultats de modélisation présentent que les embâcles qui se forment dans un multichenaux se développent différemment de ceux se formant dans les rivières singulières en raison de la capacité du multichenaux à redistribuer les glaces entre ses chenaux. Ce projet de recherche a permis de mieux comprendre la formation et l'évolution du couvert de glace et des embâcles dans le contexte morphologique complexe d'un multichenaux. À long terme, ces travaux pourront bénéficier à l'effort de cartographie des zones inondables et à l'effort de caractérisation de l'érosion des rivières par les glaces.Item Accès libre Conception d’un lève personne au sol multifonctions capable d’effectuer des tâches de transfert et de réadaptation(Université de Sherbrooke, 2025-04-02) St-Onge, Frédérick; Girard, Alexandre; Lebel, KarinaLa capacité à effectuer un mouvement de transfert assis-debout (TAD) est essentielle pour augmenter la mobilité fonctionnelle et réduire les risques d’hospitalisation dans un contexte de réadaptation. Bien qu’il existe des dispositifs de support complet du poids corporel (transfert) à très haute impédance et des dispositifs de support partiel du poids corporel à faible impédance (réadaptation), il manque des dispositifs capables d’accomplir les deux rôles pour s’adapter à une large gamme de mobilités. Nous avons donc développé un robot d’entraînement de TAD qui permet diverses configurations d’impédance et de forces verticales/avant pour s’adapter à une large gamme de besoins d’entraînement, tout en maintenant les capacités de transfert. Des expériences avec des adultes en bonne santé (hommes et femmes) de différentes tailles et poids montrent que le robot 1) a un faible impact sur la cinématique du TAD naturelle, 2) peut fournir une compensation de gravité avec une erreur maximale inférieure à la perception humaine de la force au centre de masse et 3) peut également fournir un ressort virtuel avant pour aider au transfert du poids corporel sur les pieds au début du TAD.Item Accès libre Étude et élaboration d'un agent anti-collant prototype pour le procédé « Twin Roll Casting » de l'aluminium(Université de Sherbrooke, 2025-03-25) Hardy, Antoine; Gitzhofer, FrançoisLa lamination d’alliage d’aluminium par rouleaux compresseurs jumeaux (Twin Roll Casting) est une technologie de transformation de l’aluminium qui comporte plusieurs avantages. Elle sert notamment à augmenter la vitesse de production, diminuer les coûts de production ainsi que diminuer l’empreinte environnementale reliée à production de biens en aluminium. Cependant, le procédé comporte plusieurs contraintes. Puisque la solidification ainsi que la déformation de l’aluminium se font conjointement, des restrictions en termes d’alliage et de qualité de produit sont présents. Depuis plus de 50 ans, plusieurs paramètres-clés du procédé sont en constante amélioration pour augmenter notamment la vitesse de lamination et réduire les défauts de fini des feuilles laminées. En ce sens, le désir d’améliorer la qualité de l’aluminium, l’optimisation de l’agent anti-collant pulvérisé sur les rouleaux a été manifesté. Le projet de recherche fait partie d’un effort plus global du partenaire de recherche (Pyrotek) d’améliorer la compréhension des phénomènes et mécanismes entourant les produits soutenant la lamination de l’aluminium par rouleaux compresseurs jumeaux. L’étude se base sur l’hypothèse que la signature thermique issue de la réaction d’oxydation d’un lubrifiant industriel (Release Agent) à base de carbone à un impact majeur sur sa performance en TRC. La combustion oxydative à l’ATG-DSC couplé à l’analyse au FTIR des gaz émis sont les bases de la méthodologie pour confirmer ou infirmer l’hypothèse. La définition d’un patron de combustion réaliste et optimal à partir des résultats et propriétés intrinsèques des échantillons est utilisé comme base pour l’ajustement des échantillons. Les paramètres des échantillons étants contraint à l’approbation par la ligne de vision de la compagnie partenaire, une petite variété d’échantillon a pu être testé. La nature de la source de carbone ainsi que la modification du procédé de fabrication du lubrifiant à base de graphite ont été analysés avec les métriques de signature thermique. Ces résultats ont mené à l’essai d’un lubrifiant à base de noir de carbone ayant une signature thermique optimisé sur une ligne de production laminage d’alliage d’aluminium par rouleaux compresseurs jumeaux chez un partenaire commercial. L’échec de l’utilisation du lubrifiant en TRC causé par des problèmes de lubrification a réorienté la recherche vers l’optimisation des propriétés de la solution plus que vers les propriétés des particules. Une méthode a été monté pour analyse la tension de surface ainsi que la tension interfaciale des échantillons. Cette réorientation se base sur le principe qu’un meilleur mouillage et une meilleure dispersion des particules sur les rouleaux compresseurs permettrait d’obtenir une lubrification plus constante, un transfert thermique plus uniforme et ainsi diminuer les risques de défaut de surface sur l’aluminium laminé. L’étude du mouvement des particules en solution lors de l’évaporation du solvant pour optimiser le patron de déposition des particules a permis de diminuer les effets néfastes causés l’effet d’anneau de café (Coffee-Ring Effect). L’utilisation et l’optimisation de la concentration de différents surfactants selon les deux paramètres précédents a permis d’obtenir des gouttes de lubrifiant diffuses avec des particules uniformément dispersés à l’évaporation.Item Accès libre Influence des différentes combinaisons d’éclairage LED sur la productivité et la qualité des tomates : étude de cas de l’agriculture en serre au Québec(Université de Sherbrooke, 2025-03-19) Chhaybi, Ines; Poncet, Sébastien; Amiri, LeylaCe projet de recherche s'intéresse à l'effet de l'éclairage intracanopée par LED sur la culture des tomates en serre biologiques, en explorant l’impact de différentes niveaux et intensité d’éclairage procuré par des luminaires LED situés à diverses hauteurs dans le feuillage de la culture. L'objectif est d'optimiser la croissance et le rendement en ajustant l'intensité et la distribution de la lumière sur les plants, tout en examinant l'influence de ces traitements sur la qualité des tomates. Pour ce faire, des mesures de brix et de teneur en matière sèche sont effectuées. Quatre traitements d'éclairage ont été testés : (1) pas d'éclairage supplémentaire, (2) une couche d'éclairage intracanopée par le bas, (3) une couche d'éclairage intracanopée par le haut, et (4) deux couches d'éclairage intracanopée. Les résultats révèlent une augmentation de rendement pouvant atteindre 65 % avec deux couches d'éclairage par rapport à l'absence de lumière supplémentaire. Ces améliorations s’expliquent par une meilleure répartition de la lumière et une efficacité photosynthétique accrue des feuilles inférieures. Cette étude vise à formuler des recommandations pour encourager l'adoption de solutions écoénergétiques et durables en production serricole, en cohérence avec les objectifs de décarbonisation de l'agriculture au Québec.Item Accès libre Étude de l'effet de la polydispersité des matériaux granulaires recyclés sur l'absorption acoustique dans une large bande de fréquence(Université de Sherbrooke, 2025-02-24) Ben Amara, Islam; Panneton, Raymond; Gagné, RichardLe contexte acoustique global entraine des impacts sur le confort écologique, économique et social. Au Québec, le coût environnemental du bruit s’élève à 679 M$ selon les bilans de INSPQ. Exposés à des hauts niveaux de bruits qui dépassent les réglementations dont le développement technologique et urbain accéléré y participe, met en danger la santé écologique et mentale des populations. Pour préserver la tranquillité et le confort des espaces de vie, des traitements acoustiques avancés sont préconisés dans les milieux résidentiels. Par ailleurs, les matériaux acoustiques conventionnellement adoptées peuvent être problématiques de point de vue environnemental et économique. L’objectif de ce projet est d’explorer une alternative acoustiquement efficace mettant en valeur des résidus granulaires de verre et de perlite recyclés localement. Le développement d’une structure absorbante non conventionnelle qui s’inscrit sous une thématique fédératrice de l’université de Sherbrooke : développement de matériaux durable, a été envisagée en poursuivant un plan méthodologique spécifique. Les grandes lignes du projet peuvent être résumées en : 1. Caractérisation des mélanges granulaires monodispersés, biodispersés et polydispersés par les méthodes directes et inverses afin de déterminer leurs propriétés acoustiques et physiques (porosité, résistivité, tortuosité, longueurs caractéristiques thermiques et visqueuses). 2. Analyser la dépendance de la performance acoustique sur une large gamme de fréquences vis-à-vis des propriétés géométriques des particules recyclées, du taux de compactage et de la proportion de liant. 3. Modélisation et simulation d’une structure acoustique consolidée en identifiant le meilleur choix de mélange granulaire et en optimisant le rapport de dosage granule/ liant. Cette étape est réalisée à l’aide des logiciels de simulation Comsol et Matlab. Le comportement acoustique est analysé via le modèle de fluide équivalent Johnson-Champoux-Allard et comparé aux coefficients d’absorption obtenus à partir de mesures directes par tube d’impédance. 4. Conception et fabrication d’une brique acoustique absorbante intégrant la technologie de décroissance qui vise à améliorer le potentiel d’absorption sur une large bande de fréquences et à maîtriser les pics de résonance. Les paramètres de conception, tels que les dimensions, la profondeur du profil de décroissance et le type de décroissance, sont optimisés à l’aide de la méthode Differential Evolution pour identifier les solutions les plus performantes. 5. Étudier les performances acoustiques de matériaux granulaires recyclés liés à des mycéliums, dans l’optique de renforcer le caractère écologique de l’étude et d’explorer une approche éco-responsable de consolidation.Item Accès libre Étude de l'effet du compactage sur les couches profondes à l'aide de la vitesse des ondes de cisaillement(Université de Sherbrooke, 2025-02-10) Rdissi, Oussama; Karray Benhassen, MouradLe compactage des sols est une pratique courante en génie civil pour la construction de diverses infrastructures, ainsi que pour l’amélioration des sols naturels. Toutefois, les méthodes conventionnelles de contrôle du compactage présentent des limites, notamment leur incapacité à évaluer avec précision les propriétés mécaniques des sols en profondeur. Ces limitations peuvent conduire à une sous-évaluation de l’état des sols compactés, entraînant potentiellement des conséquences économiques importantes. Pour évaluer l’applicabilité de la vitesse des ondes de cisaillement comme paramètre de contrôle du compactage des sols et palier aux limites des méthodes existantes, un dispositif expérimental a été conçu et développé dans le cadre de ce projet de recherche. Ce système comprend une cellule de compactage cylindrique en acier et une tige métallique utilisée comme source sismique, activée par un impact latéral. Le dispositif a permis d'examiner l'effet du compactage d'une couche superficielle sur les propriétés des couches sous-jacentes du sable de Beauharnois, en mesurant les variations des vitesses des ondes de cisaillement après le compactage de trois (3) couches successives. Des capteurs d'ondes de cisaillement spécialement conçus pour ce projet ont été utilisés pour mesurer les vitesses des ondes de cisaillement. Un effet de compactage a été démontré, en particulier dans la deuxième couche où une augmentation significative de la vitesse des ondes de cisaillement de 25 à 30 % a été observée. Cependant, cet effet diminuait avec la profondeur et était presque inexistant dans la troisième couche. Les recommandations pour les travaux futurs incluent la réalisation d'essais in situ pour valider l'efficacité de la méthode proposée et assurer son application pratique sous conditions réelles de terrain. Ces améliorations contribueront à une meilleure compréhension du comportement du sol dans différentes conditions de compactage et ouvriront la voie à une méthodologie de contrôle du compactage plus précise, capable d'estimer un état plus représentatif des remblais compactés en fonction de la profondeur.Item Accès libre Croissance et caractérisation de couches de silicium delta-dopées par LT-MBE sur photodiodes à avalanche monophotonique(Université de Sherbrooke, 2025-02-04) Deshaies, Jérôme; Charlebois, Serge; Boucherif, AbderraoufLes dispositifs de photodétection à base de silicium ont une très basse efficacité dans les longueurs d’onde inférieures à 350 nm (bande NUV à VUV) puisque les porteurs photogénérés créés se retrouvent piégés dans les potentiels de surface. Cela incite les chercheurs à développer diverses méthodes afin de limiter les effets de surface et de s’approcher des limites théoriques du matériau. Le dépôt d’une couche delta-dopée en surface est démontré comme étant une méthode efficace afin d’augmenter l’efficacité de photodétection des capteurs photographiques CCD (charge-coupled device) éclairés en face arrière. Le Groupe de Recherche en Appareillage Médical de Sherbrooke (GRAMS) poursuit dans cette veine en adaptant la recette de croissance comme procédé de postfabrication en déposant la couche delta-dopée directement sur la fenêtre de détection d’une photodiode à avalanche monophotonique (SPAD - single photon avalanche photodiode). La présence de métal sur le dispositif terminé limite la température de croissance à 450 °C. La limite en température complexifie la préparation de surface pour l’épitaxie et le processus de croissance. L’impossibilité d’effectuer le recuit à haute température amène le besoin de développer un nettoyage de surface ex-situ produisant une surface exempte d’oxyde et de faible rugosité permettant la croissance d’une couche de silicium monocristalline delta-dopée. Une succession de tests itératifs a permis de déterminer l’effet de chacun des paramètres d’importance (température, vitesse de croissance, propreté de la surface, rugosité, etc.) sur la cristallinité dans leur plage d’utilisation respective. L’analyse des croissances par une combinaison de méthodes de caractérisation (diffraction des rayons X, microscope à force atomique, diffraction d’électrons de haute énergie en incidence rasante) a permis d’optimiser les paramètres de croissance vers un optimum cristallin. Des études liant les paramètres de croissance aux propriétés optoélectriques du dispositif (tension de claquage, bruit, re-déclenchement) ont été débutées afin de valider les hypothèses de l’effet du traitement sur l’intégrité et les performances du dispositif. Les premiers tests de performances de détection montrent des performances égales ou supérieures pour certaines recettes, signe positif pour la suite des mesures. En cas d’une preuve indéniable d’un gain en performance, les études de mise à l’échelle pourront suivre les lignes directrices d’optimisation en lien avec la préparation de surface (gravure) ainsi que sur les techniques de croissance (taux et température) présentées dans cette étude. De plus, la mise en oeuvre des recommandations émises concernant l’utilisation des techniques non-disponibles dans cette recherche (spin-etch, UV-Ozone) ainsi que la modification du procédé de pré-ouverture devraient profiter à la qualité cristalline et, conséquemment, à la performance.Item Accès libre Étude numérique et expérimentale du rapport entre l'amplitude de flexion inverse et l'amplitude de flexion de conducteurs de ligne de transport électrique(Université de Sherbrooke, 2025-01-23) Felippe Duarte De Oliveira, Pedro; Langlois, Sébastien; Van Dyke, PierreLes réseaux de lignes aériennes de transport d'électricité ont pour fonction de relier les sites de production d'énergie aux centres de consommation. Les conducteurs sont l'élément essentiel de ces lignes et sont soumis à différents phénomènes de vieillissement. L'un des plus grands défis de l'industrie est la vibration due au vent qui provoque l'endommagement par fatigue des conducteurs ; en conséquence, des efforts sont faits pour surveiller la gravité de ces vibrations et prévenir ainsi la défaillance précoce des composants. Actuellement, l'une des principales méthodes d'évaluation du degré de vibration d'un conducteur est la mesure de l'amplitude de flexion. Ce paramètre est par convention mesuré à 89 mm du dernier point de contact entre la pince de suspension et le conducteur. Une variante de cette méthode, qui propose un nouveau capteur plus polyvalent, permet d'obtenir indirectement l'amplitude de flexion à partir de l'amplitude de flexion inverse. La conversion d'un paramètre à l'autre se fait au moyen d'un rapport R. Cependant, le modèle théorique qui établit ce rapport a aussi ses limites et ne peut être utilisé dans des cas réels qui ne correspondent pas à ses hypothèses prédéfinies. Ainsi, le projet vise à étudier la relation entre les deux paramètres de mesure, grâce à une approche numérique basée sur le modèle des éléments finis et à travers des mesures expérimentales. En raison de la complexité des modélisations numériques, le projet propose aussi une méthode afin de relier les deux mesures par des algorithmes d'ajustement de courbe. Enfin, cette étude promet d'améliorer l'utilisation des appareils de mesure de l'amplitude de flexion inverse et d'accroître leur qualité de l'évaluation des risques de fatigue.