Projets novateurs réalisés

Explorez des milliers de projets réussis issus de la collaboration entre organisations et talents postsecondaires.

13270 Projets achevés

1072
AB
2795
C.-B.
430
MB
106
NF
348
SK
4184
ON
2671
QC
43
PE
209
NB
474
NS

Projets par catégorie

10%
Informatique
9%
Génie
1%
Génie - biomédical
4%
Génie - chimique / biologique

Défis statistiques dans la méta-analyse des données individuelles des patients

Dans une méta-analyse typique, les estimations du paramètre d’intérêt (par exemple, le rapport des chances) sont extraites de la littérature ou en contactant des chercheurs et regroupées. En revanche, pour l’IPD-MA, les données des patients sont recueillies ligne par ligne à partir de chaque étude.
Les données IPD-MA permettent aux chercheurs de définir les expositions et les résultats de manière cohérente entre les études, et d’analyser l’association d’intérêts de façon constante (par exemple, ajustant pour les mêmes facteurs de confusion), ce qui peut minimiser l’hétérogénéité. L’IPD-MA est particulièrement utile pour la synthèse d’études observationnelles. Dans les AM traditionnelles basées sur des données publiées, il est difficile d’étudier les différences entre les résultats des études, d’ajuster les différences dans les populations d’une étude à l’autre et de regrouper les effets qui ont été ajustés pour d’autres variables.
L’IPD-MA a un pouvoir plus élevé que la méta-régression pour détecter les interactions covariables-traitement, et est préférable lorsque l’objectif est d’estimer les interactions avec les covariables au niveau du patient. Les IPD-MA ne sont pas sujettes aux biais écologiques, car les données au niveau des patients ne sont pas agrégées.
Bien que dans certains cas, l’IPD-MA et la MA de données agrégées puissent donner des résultats similaires, cela est peu probable lors de l’évaluation des interactions traitement-covariées, en incorporant des relations non linéaires, lorsque les essais sont petits et qu’il y a hétérogénéité entre les essais, et particulièrement pour le regroupement d’études non randomisées qui peuvent devoir s’ajuster à plusieurs facteurs de confusion.
Pour ces raisons, les IPD-MA sont considérés comme la référence de l’AM, malgré la complexité et le coût de la collecte des données, et sont publiés de plus en plus fréquemment.

Pour l’IPD-MA, deux grandes stratégies analytiques (approches en une ou deux étapes) sont possibles; les deux préservent le regroupement des sujets au sein des études, la comparabilité des bras d’étude, et peuvent être soit fixes, soit aléatoires. Une analyse des effets fixes suppose que l’effet estimé est le même pour toutes les études; Une analyse des effets aléatoires suppose que l’effet estimé varie d’une étude à l’autre en raison des différences de populations de patients, de procédures d’étude, etc.
Une approche en une seule étape offre plus de flexibilité pour explorer les différences qui peuvent exister entre les patients dans la même étude ainsi qu’entre les études. Dans l’ensemble, la plupart des statisticiens et des méthodologistes méta-analystes s’entendent pour dire qu’une approche en une étape est meilleure et plus flexible qu’une approche en deux étapes.

Bien que le plus grand inconvénient d’un IPD-MA soit le temps et le coût pour assembler les données, notre expérience démontre que, malgré de nombreux avantages, la grande variété de méthodes utilisées et l’absence d’un plan standardisé d’analyse de données posent aussi un problème sérieux. Comparativement à la MA conventionnelle, les méthodes pour l’IPD-MA sont décrites comme plus complexes et peu connues,14 peut-être en raison de plusieurs questions ouvertes concernant le plan analytique. Ensuite, nous abordons ces points.

L’IPD-MA est la référence d’excellence de l’AM, offrant de nombreuses possibilités de modélisation sophistiquée des courbes dose-réponse, de l’effet et de l’ajustement des covariables au niveau du patient ainsi que des interactions thérapeutiques lorsqu’une approche en une seule étape est utilisée. Cependant, plusieurs défis méthodologiques subsistent. Ce projet vise à examiner ces défis méthodologiques et à proposer les meilleures stratégies d’analyse des données. Ce projet introduira les étudiants à la recherche en biostatistique qui se situe à l’intersection des statistiques et de l’épidémiologie.

Voir la description complète du projet
Superviseur du corps professoral :

Andrea Benedetti

Étudiant :

YANG SHEN

Partenaire :

Discipline :

Épidémiologie / Santé publique et politiques publiques

Secteur :

Université :

Université McGill

Programme :

Globalink

Piégeage de l’hydrogène aux carbures d’alliage à l’échelle nanométrique dans les aciers à haute résistance

L’hydrogène, lorsqu’il est dissous dans un réseau métallique ou d’alliage, peut rendre ce matériau autrement ductile cassant. Ce phénomène, à savoir la fragilisation par hydrogène (HE), a été un obstacle persistant à l’application et au développement des aciers à haute résistance. Un moyen efficace d’améliorer la résistance des aciers à haute résistance au HE est d’introduire des carbures d’alliage à l’échelle nanométrique (NAC) dans la microstructure, comme en témoignent l’augmentation de la température d’émission de l’hydrogène et la fracture retardée sous la même condition de charge d’hydrogène. Le rôle des NACs dans l’HE est souvent attribué au fait qu’ils piègent l’hydrogène. Néanmoins, comme les NAC sont de taille nanométrique, leurs effets de piégeage sur l’hydrogène sont difficiles à quantifier dans les expériences. Dans ce projet, nous utilisons des calculs de premier principe qui fournissent une manière précise d’examiner les NAC et leur interaction avec l’hydrogène en fonction de la résolution atomique. Plusieurs candidats NAC dans les aciers haute résistance seront considérés. Pour chacun d’eux, l’énergie d’adsorption de l’hydrogène et la cinétique de diffusion au niveau du NAC seront étudiées. Les rôles individuels de la déformation cohérente du réseau induit par NAC et de la structure d’interface NAC/métal seront clarifiés. De plus, des études préliminaires seront menées sur les interfaces incohérentes entre NAC et métal. Les résultats obtenus fourniront des évaluations quantitatives du rôle des NAC dans le piégeage d’hydrogène, offrant des informations importantes de bas en haut pour l’ingénierie de la microstructure des aciers à haute résistance face à l’HE.

Voir la description complète du projet
Superviseur du corps professoral :

Jun Song

Étudiant :

YUSHUAI XU

Partenaire :

Discipline :

Génie - chimique / biologique

Secteur :

Université :

Université McGill

Programme :

Globalink

Magnétométrie avec capteurs basés sur la rotation

Le stagiaire d’été participera à un projet visant à utiliser des centres de défaut unique en diamant pour cartographier les champs magnétiques générés par des circuits ferromagnétiques entraînés. Les circuits magnétiques à l’échelle nanométrique sont d’une importance cruciale pour le matériel informatique, surtout dans les applications utilisant des domaines ferromagnétiques pour encoder l’information. Par exemple, la mémoire magnétique à accès aléatoire (MRAM) pourrait potentiellement remplacer la DRAM standard tout en réduisant drastiquement la demande d’énergie. Comprendre la dynamique des circuits ferromagnétiques entraînés a donc des applications importantes tant en science fondamentale qu’en industrie. Un défi consiste à comprendre le rôle des inhomogénéités spatiales, et on chercherait donc à cartographier la magnétisation de l’appareil à l’échelle nanométrique et, idéalement, aussi à observer son évolution temporelle. Cependant, il existe peu de techniques capables de mesurer les champs magnétiques avec une bonne sensibilité et une excellente résolution spatiale et temporelle (ou, alternativement, spectrale).

Une possibilité est de fabriquer le circuit ferromagnétique à la surface d’un substrat intégré de minuscules capteurs magnétiques. En particulier, le centre de défaut de vacance d’azote (NV) dans le diamant peut être utilisé pour détecter les champs magnétiques, car son spin (qui répond aux champs magnétiques) peut être détecté par l’intensité de fluorescence du défaut. Chaque défaut peut ainsi révéler le champ magnétique à son emplacement, avec le potentiel d’une résolution spatiale à l’échelle nanométrique. De plus, en manipulant le défaut, on peut sélectionner le moment auquel il détecte le champ magnétique ou (plus couramment) la fréquence des champs magnétiques qui l’affectent. L’objectif central de ce projet est donc d’utiliser un substrat diamanté intégré à des centres NV pour cartographier la dynamique entraînée d’un circuit ferromagnétique fabriqué à la surface du diamant.

Ce projet en est à ses débuts, et le premier objectif du projet sera d’observer les caractéristiques résonantes dans la dynamique des circuits en corrélant les mesures de transport (par exemple, la résistance du circuit en fonction de la fréquence du courant alternatif qui le propulse) avec les mesures des défauts NV. Actuellement, nous avons commencé l’implantation de défauts dans des substrats diamantés et commencerons la fabrication de circuits magnétiques simples cet automne. L’été prochain, les premiers appareils seront probablement fonctionnels. Le stagiaire aidera à faire avancer ce projet en développant un aspect spécifique de l’appareil ou de l’analyse des données.

Voir la description complète du projet
Superviseur du corps professoral :

Lilian Childress

Étudiant :

Anchal Gupta

Partenaire :

Discipline :

Physique / Astronomie

Secteur :

Université :

Université McGill

Programme :

Globalink

Développement de stents en alliage de Mg biocompatibles et bidégradables pour des applications d’implants cardiovasculaires

Les maladies cardiovasculaires sont la principale cause de décès prématuré dans les pays développés comme le Canada. Beaucoup de ces maladies sont maintenant traitées par l’insertion de dispositifs médicaux (par exemple, dispositifs occlusifs intracardiaques, stents intravasculaires) implantés par approche percutanée ou peu invasive. La plupart des implants sont faits de matériaux permanents (acier inoxydable, cobalt) qui peuvent causer une érosion à long terme, des irritations, des inflammations, des perforations, des infections et un manque de croissance. De plus, l’extraction chirurgicale ou la réintervention en présence de ces dispositifs est difficile voire impossible. Des implants biodégradables (par exemple, des stents) élimineraient ces problèmes, corrigeraient la pathologie sous-jacente et « disparaîtraient » une fois le problème réglé. Les nouveaux implants en alliage Mg (stents) ciblés dans cette recherche devraient être nettement plus biocompatibles et efficaces sur le plan fonctionnel que ceux actuellement disponibles. Cela minimisera les complications post-implantation et le besoin de réintervention, améliorera la qualité de vie du patient et diminuera les coûts de soins de santé. Dans cette recherche multidisciplinaire, nous avons intégré une expertise en génie des matériaux, électrochimie, biologie cellulaire et science et pratique cliniques cardiovasculaires afin de développer des alliages optimaux de magnésium (Mg) pour la fabrication d’implants intravasculaires. Les alliages optimaux sont développés par étapes afin d’atteindre la résistance à la biocorrosion, la biocompatibilité et l’intégrité mécanique (résistance, ductilité, pliabilité). Dans cette partie de la recherche, les alliages sont testés dans un fluide à corps simulé afin d’évaluer la biocorrosion en surveillant la perte de masse et le pH de la solution. Les essais mécaniques sont réalisés par des essais de traction et de flexion à trois points.

Voir la description complète du projet
Superviseur du corps professoral :

Mihriban Pekguleryuz

Étudiant :

Karan Narang

Partenaire :

Discipline :

Génie - mécanique

Secteur :

Université :

Université McGill

Programme :

Globalink

L’impact des changements climatiques sur la santé maternelle et infantile au Canada

Le changement climatique est un phénomène assez récent et son impact sur la santé est mal compris. Les phénomènes météorologiques extrêmes deviennent de plus en plus fréquents, mais l’effet sur les populations vulnérables comme les femmes et les enfants demeure largement inconnu. Un problème particulier qui limite la recherche sur les impacts des phénomènes météorologiques extrêmes sur la santé est le manque d’indicateurs pour aider à définir les phénomènes météorologiques extrêmes. Bien que les recherches montrent que des vagues de chaleur définies comme des températures supérieures à 32 degrés Celsius pendant trois jours consécutifs au Québec peuvent raccourcir la durée de la grossesse, il fait défaut d’indicateurs permettant de saisir d’autres types de stress climatique, y compris les précipitations extrêmes ou les tempêtes hivernales. Des données sur les conditions météorologiques passées sont disponibles auprès d’Environnement Canada, mais elles n’ont pas encore été utilisées dans la recherche sur les impacts des changements climatiques sur la santé périnatale au Québec. Ce projet vise à mieux comprendre l’impact des changements climatiques sur la santé maternelle et infantile en développant des indicateurs (c’est-à-dire des variables) pour décrire les phénomènes météorologiques extrêmes au Québec, au Canada. Cela inclut le développement d’indicateurs pour mesurer les vagues de chaleur intenses, les précipitations et les tempêtes hivernales sévères, qui peuvent être utilisés pour la recherche sur la santé maternelle-enfant.

Voir la description complète du projet
Superviseur du corps professoral :

Nathalie Auger

Étudiant :

Xin Yan

Partenaire :

Discipline :

Médecine

Secteur :

Université :

Programme :

Globalink

Évaluation d’une orthèse robotique pour la réhabilitation de la locomotion chez les enfants atteints de paralysie cérébrale.

Ce projet porte sur l’utilisation d’un dispositif robotique pour la réhabilitation de la locomotion chez les enfants atteints de paralysie cérébrale. Cette recherche multidisciplinaire offrira au candidat une expérience en recherche biomécanique, avec l’utilisation de technologies à la frontière de la réadaptation clinique.

La paralysie cérébrale est le principal facteur des troubles de la locomotion chez les enfants. En Amérique du Nord, environ 3 enfants sur 1000 naissent avec ce trouble. Les méthodes actuelles de réadaptation consistent à répéter des tâches motrices comme la marche, afin de reconstruire le réseau de neurones. Les mouvements sont souvent assistés par des physiothérapeutes. Néanmoins, l’utilisation de dispositifs robotiques émerge pour aider le physiothérapeute dans la réadaptation de la locomotion.

Certaines études ont souligné que les orthèses robotisées reproduisant le schéma de marche sur un tapis roulant sont efficaces pour améliorer la locomotion chez les personnes atteintes de paralysie cérébrale. Notre centre de recherche en réadaptation pédiatrique a récemment acquis un Lokomat : un dispositif de thérapie de la marche qui permet de reproduire la marche sur un tapis roulant à l’aide d’une orthèse robotique de démarche, ce qui peut soulager le poids corporel. Bien que l’effet de la formation Lokomat chez les patients adultes soit documenté, peu d’études ont été menées sur la population d’enfants. Les bénéfices de la réadaptation pédiatrique demeurent inconnus.

Certaines études ont souligné que la cinématique de la hanche et le niveau d’activation des muscles des cuisses différaient pendant ou après l’entraînement avec Lokomat chez les enfants en bonne santé et atteints de paralysie cérébrale. Cependant, en raison du faible nombre de participants et de la fiabilité des mesures cinématiques, les résultats doivent être considérés avec prudence. De plus, à notre connaissance, l’effet de l’entraînement Lokomat sur la contribution de chaque articulation du membre inférieur lors de la marche chez les enfants atteints de paralysie cérébrale n’a jamais été étudié. Enfin, même si le Lokomat permet un soulagement du poids corporel de 0% à 100%, il n’y a aucune recommandation réelle concernant cet ajustement. Cependant, la réadaptation pourrait être optimisée grâce à un protocole d’entraînement spécifique à chaque matière.

Par conséquent, il semble pertinent de mieux comprendre les facteurs sous-jacents à la locomotion des enfants atteints de paralysie cérébrale afin d’optimiser l’entraînement Lokomat et l’efficacité de la réadaptation.
Le candidat travaillera sur deux projets dirigés par deux postdoctorants. Les objectifs sont de :
1) Évaluer la capacité du Lokomat à reproduire la cinématique de la marche effectuée par un enfant en bonne santé;
2) Déterminer les effets de l’entraînement Lokomat sur la cinématique et la cinétique articulaires, ainsi que sur les mécanismes de contrôle moteur (par électromyographie et électroencéphalographie) sous-jacents à la réapprentissage de la locomotion chez les enfants atteints de paralysie cérébrale

Les recommandations issues de cette étude bénéficieront directement à la réhabilitation de la paralysie cérébrale chez les enfants. De plus, malgré la pertinence clinique du Lokomat, cet appareil est inhabituel au Canada; une seule équipe située à l’Université de Vancouver (C.-B.) a déjà publié un article scientifique utilisant le Lokomat. Ainsi, ce projet offrira aussi au candidat l’occasion de s’impliquer dans une équipe multidisciplinaire et d’être formé à un nouvel appareil émergent de réadaptation.

Voir la description complète du projet
Superviseur du corps professoral :

Mickael Begon

Étudiant :

VERONICA CUEVAS VILLANUEVA

Partenaire :

Discipline :

Kinésiologie

Secteur :

Université :

Programme :

Globalink

Modélisation musculosquelettique pour estimer la force musculaire chez l’humain : stratégies d’optimisation C++ pour l’analyse en temps réel

Grâce à des recherches récentes en biomécanique, l’estimation des forces musculaires humaines lors d’un mouvement dynamique devient de plus en plus réalisable. L’application de ces outils peut viser à améliorer la performance sportive, à diagnostiquer les maladies musculosquelettiques et à suivre les progrès réalisés en réadaptation. Pourtant, en raison de la suractivation du corps humain (plus d’un muscle peut produire la même action), un défi scientifique subsiste.

En effet, l’estimation des forces musculaires repose sur des processus d’optimisation tels que l’optimisation statique ou le contrôle optimal. Contrairement à l’optimisation statique qui repose sur l’écoulement inverse et est sensible au bruit cinématique, le contrôle optimal suit un flux direct. Le principal avantage de la procédure en avance est que l’activation musculaire et les états cinématiques participent tous deux au processus d’optimisation, tandis que l’optimisation statique (flux inverse) repose sur l’hypothèse que la cinématique est silencieuse et parfaitement déterminée. En réalité, ce dernier est rarement, voire jamais, réalisé. En revanche, le nombre de paramètres optimisés dans une procédure de contrôle optimale augmente considérablement avec le nombre de degrés de liberté du modèle cinématique, le nombre de muscles du modèle musculaire et le nombre de nœuds temporels à optimiser. Ainsi, un processus d’optimisation peut exécuter certaines fonctions plus d’un milliard de fois pour simuler un mouvement simple. Dans cet état, chaque milliseconde perdue dans un temps de calcul inutile peut entraîner des minutes et des heures d’attente devant l’ordinateur.

L’objectif de ce projet est de surveiller en détail le nombre d’appels et le temps de calcul pris par chaque fonction et sous-fonction impliquées dans le processus d’une simulation de contrôle optimale. En vue d’ensemble du flux pour un appel de la fonction principale, les contrôles (c’est-à-dire l’excitation musculaire; les entrées de la fonction) sont convertis en forces musculaires. Ensuite, toutes les forces musculaires sont combinées pour calculer les couples articulaires à l’aide de la matrice jacobienne de contact. À partir de ces couples articulaires, les accélérations articulaires (sorties), à l’aide d’une fonction dynamique directe fournie par la Rigid Body Dynamics Library (RBDL), sont calculées. Il convient de noter que tous les calculs matriciels sont effectués à l’aide de la bibliothèque Eigen.

Lorsque la surveillance complète sera terminée et validée, le deuxième objectif de ce projet sera d’améliorer et d’optimiser les fonctions les plus lentes et/ou de réduire le nombre d’appels pour les fonctions le plus appelées afin de minimiser le temps de calcul global. Par exemple, l’inversion de la matrice de masse lors du calcul de l’accélération généralisée des articulations peut être améliorée en implémentant ou en développant des algorithmes de matrice d’inversion parcimonie, puisque cette matrice est largement clairsemée.

Ce projet fait partie d’un projet plus large sur la synthèse optimale du mouvement, où l’objectif est de reproduire à partir de zéro, d’améliorer et de proposer de nouvelles techniques personnalisées dans le mouvement sportif, telles que le plongeon et le saut, pour les athlètes de haut niveau.

Voir la description complète du projet
Superviseur du corps professoral :

Mickael Begon

Étudiant :

Samiya Nasim

Partenaire :

Discipline :

Informatique

Secteur :

Université :

Programme :

Globalink

Rôle de l’inflammation métabolique dans le comportement dépressif

L’obésité et le diabète sont des facteurs de risque importants pour les troubles de l’humeur. Le diabète double l’incidence de la dépression et jusqu’à 1 personne diabétique sur trois présente une humeur déprimée à un niveau qui diminue le fonctionnement, le contrôle glycémique, l’adhésion au traitement et augmente le risque de complications liées au diabète. La surconsommation d’aliments riches en énergie contribue de manière significative au développement de l’obésité et du diabète de type 2 (DT2). Les aliments riches en gras savoureux sont gratifiants et peuvent offrir un soulagement à court terme du stress et des états émotionnels négatifs. D’autre part, nous avons démontré qu’une consommation prolongée d’un régime riche en gras (HFD) menant à l’obésité chez la souris favorise un comportement dépressif, impliquant un apport calorique excessif comme un élément important reliant l’obésité à la dépression. L’ampleur du comportement dépressif était positivement associée à des adaptations neuroplasiques, incluant une augmentation du facteur neurotrophique dérivé du cerveau (BDNF) et du phospho-CREB dans le noyau accumbens (NAc), une région cérébrale limbique fortement liée aux déficits hédoniques et motivationnels observés dans la dépression. La régulation à la hausse du BDNF et du CREB dans le NAc sont impliqués dans l’étiologie de l’humeur déprimée et sont modulés par le facteur nucléaire kappa B (NF? B), un facteur de transcription qui joue un rôle clé dans la réponse cellulaire au stress, la production de cytokines et la neuroplasticité. Nos nouvelles données montrent qu’un apport prolongé d’un HVD saturé, mais pas d’un HFD monoinsaturé isocalorique, menant à l’obésité, à l’hyperglycémie et à l’intolérance au glucose, provoque des comportements dépressifs et des réponses neuroinflammatoires dans le NAc, incluant l’activation de NF?B.
Plusieurs lignes de preuve impliquent des réponses immunitaires dans la physiopathologie de la dépression. Les situations favorables à une inflammation systémique prolongée, comme l’obésité et le diabète de type 2, offrent une voie par laquelle les réponses neuroinflammatoires peuvent être propagées et maintenues. En effet, les réponses inflammatoires sont évidentes dans les noyaux hypothalamiques des souris nourries à haute teneur en gras et elles contribuent à l’obésité et à l’intolérance au glucose d’une manière qui dépend de l’IKK?/NF? Signalisation B. Nos nouveaux résultats démontrent que le régime de DCF saturé, en plus de favoriser l’inflammation métabolique périphérique, déclenche une neuroinflammation dans le CNA, incluant la gliose réactive (activation de la microglie des cellules immunitaires cérébrales et astrogliose), ainsi qu’une expression accrue d’IL1? et TNF?, activation de NF? Infiltration de B et leucocytes. Ensemble, nos nouvelles découvertes démontrent clairement qu’une saturation en HFD menant à l’obésité, à l’hyperinsulinémie et à l’intolérance au glucose provoque une neuroinflammation métabolique dans les noyaux du cerveau, fortement impliquée dans le contrôle de l’humeur et de la motivation. Notre objectif mondial est d’identifier les processus neuronaux par lesquels l’alimentation riche en gras, la prise de poids et le DT2 mènent à des comportements de type dépressif. Nous émettons l’hypothèse que l’alimentation saturée riche en gras et le développement de l’hyperglycémie mènent progressivement à une neuroinflammation métabolique dans le NAc, provoquant des lésions cellulaires, des changements neuroplastiques (augmentation du BDNF et du CREB) et un comportement dépressif chez un IKK?/NF? Attitude dépendant du B. Le projet proposé testera deux hypothèses spécifiques :

Voir la description complète du projet
Superviseur du corps professoral :

Stephanie Fulton

Étudiant :

Anna Franco Flores

Partenaire :

Discipline :

Psychologie

Secteur :

Université :

Programme :

Globalink

Exploitation de l’information du second ordre dans l’estimation des modèles

Avec les avancées dans l’analyse de mégadonnées, l’estimation des modèles devient un enjeu de plus en plus important. Deux principales techniques d’estimation sont courantes : la minimisation des moindres carrés et la maximisation de la vraisemblance. Ces problèmes sont généralement résolus à l’aide de techniques d’optimisation itérative, mais étant donné un modèle et une initiale, le temps nécessaire pour obtenir des estimations satisfaisantes peut être prohibitif en raison du grand nombre d’observations, surtout lorsque les non-linéarités et/ou l’hétérogénéité doivent être prises en compte. Diverses stratégies ont été proposées pour accélérer le temps d’estimation, surtout lorsque les modèles sont différentiables deux fois de façon continue. La première possibilité est d’augmenter le nombre d’observations considérées dans l’optimisation seulement lorsqu’elles sont proches de la solution, car les solutions des premières itérations seront écartées. La question demeure de savoir comment augmenter l’échantillon pendant le processus d’estimation, et comment sélectionner les observations à ajouter. La deuxième possibilité est d’exploiter la structure mathématique des problèmes, surtout lorsqu’on utilise des techniques d’optimisation reposant sur des modèles quadratiques. Dans les deux cas, si le modèle est correctement identifié, le Hessien de la fonction à l’optimisation peut être relié au produit extérieur des scores, c’est-à-dire les contributions individuelles du gradient au gradient moyen de la fonction objectif. Cependant, une mauvaise spécification du modèle peut mener à des séquences de solutions candidates non convergentes, car les modèles quadratiques construits n’approximent pas correctement la fonction objectif lorsqu’ils sont proches des valeurs réelles des paramètres à estimer. Pour contourner cette limitation, des techniques de correction hessoissienne, basées sur l’équation de la sécante, ont été proposées. Cela a conduit à l’algorithme de Gauss-Newton dans le cas du problème d’estimation des moindres carrés non linéaires, ainsi qu’à des techniques similaires pour la vraisemblance maximale. Dans ces derniers cas, nous avons cependant observé que pour des modèles complexes, les corrections basées sur des approximations hessosiennes à définis positifs, comme BFGS, peuvent très mal performer, tandis que d’autres techniques, par exemple SR1, peuvent être beaucoup meilleures. Notre intuition actuelle est que, puisque le produit extérieur des scores est déjà défini positif, contraindre les valeurs propres de la matrice de correction à être positives peut empêcher d’avoir une correction adéquate. Nous nous attendons aussi à ce qu’un effet similaire soit présent pour l’estimation au moindre carré. L’objectif du projet est de valider cette explication et de fournir des orientations plus adéquates en correction de Hesse lors de l’estimation de modèles par minimisation des moindres carrés ou estimation du maximum de vraisemblance à l’aide d’algorithmes d’optimisation non linéaire standards, c’est-à-dire des méthodes de recherche linéaire ou des algorithmes de région de confiance. Les applications aux variantes, en tant que techniques rétrospectives, seront également prises en compte. L’impact sur certaines stratégies d’échantillonnage adaptative, qui permettent de varier le nombre d’observations utilisées dans la fonction objectif à chaque itération, sera également pris en compte.

Voir la description complète du projet
Superviseur du corps professoral :

Fabian Bastin

Étudiant :

MANYUAN TAO

Partenaire :

Discipline :

Informatique

Secteur :

Université :

Programme :

Globalink

Développement durable : Environnement, économie, droits de la personne (anglais ou français) (Nouveau)

Une synthèse des enjeux sociaux, culturels et juridiques actuels liés au droit international du développement durable. Comment ces aspects s’interconnectent pour freiner ou soutenir le développement durable, surtout dans les populations particulièrement vulnérables comme les peuples autochtones.

Voir la description complète du projet
Superviseur du corps professoral :

Konstantia Koutouki

Étudiant :

Gabriela Souto Silveira

Partenaire :

Discipline :

Sciences de l’environnement

Secteur :

Université :

Programme :

Globalink

Simulation des électrocardiogrammes dans un modèle informatique du cœur et du torse

La fibrillation auriculaire est le trouble du rythme le plus fréquent chez l’humain (près de 250 000 patients au Canada). Cela entraîne souvent des complications graves comme une insuffisance cardiaque et un AVC. Le diagnostic de cette arythmie se fait principalement par l’inspection des enregistrements de signaux électriques (électrogrammes et électrocardiogrammes). Pour développer et valider de nouveaux outils diagnostiques, il est nécessaire de comprendre le lien entre ce que le cardiologue observe (ces signaux électriques) et ce qui ne va pas dans le cœur (la pathologie cardiaque sous-jacente).

Parallèlement à l’augmentation spectaculaire de la puissance informatique au cours des dernières décennies, les modèles informatiques de l’activité électrique cardiaque ont évolué, passant de petites chaînes cellulaires à une description détaillée de l’ensemble du cœur. En intégrant l’information à l’échelle moléculaire à l’ensemble de l’organe, nos modèles peuvent non seulement simuler les arythmies et étudier les mécanismes, mais aussi évaluer des approches diagnostiques et thérapeutiques. Utilisée en combinaison avec la recherche expérimentale et clinique, la modélisation informatique devrait jouer un rôle croissant dans l’interprétation des mesures biomédicales.

Nous créons des modèles virtuels tridimensionnels des oreilles humaines basés sur des données anatomiques, histologiques et électrophysiologiques. Dans ces modèles, des conditions sont mises en place qui déclenchent et maintiennent une arythmie, inspirées par des observations cliniques et des hypothèses physiologiques. Une variété de conditions sont simulées pour reproduire différents états malades de gravité croissante. L’évolution de l’activité électrique générée par le cœur lors d’une arythmie est simulée. Ensuite, les signaux électriques obtenus à partir de simulations informatiques, d’expériences animales et de patients peuvent être analysés et comparés.

Voir la description complète du projet
Superviseur du corps professoral :

Vincent Jacquemet

Étudiant :

AKSHAY ASWATH KUMAR

Partenaire :

Discipline :

Génie - informatique / électricité

Secteur :

Université :

Programme :

Globalink

Molécules d’antibiofilm actives contre les staphylococcies / Molécules antibiofilm actives contre les staphylocoques (Nouveau)

Les bactéries contenues dans les biofilms peuvent résister aux réponses immunitaires de l’hôte, et elles sont nettement plus tolérantes aux antibiotiques et désinfectants. Notre laboratoire a constaté que certains isolats de staphylocque (SNC) coagulase négatif peuvent bloquer efficacement la formation de biofilms par d’autres espèces du SNC ou de Staphylococcus aureus. Hypothèse : Certains isolats du SNC produisent des molécules d’antibiofilm qui peuvent mener au développement de nouveaux médicaments et/ou de nouvelles stratégies pour contrôler l’infection staphylococcique par dispersion ou prévention du biofilm. Objectifs : (i) déterminer le mécanisme sous-jacent à l’activité antibiofilm du SNC et (ii) le spectre d’activité sur différentes espèces bactériennes de notre collection. Méthodologie : La production de biofilms par isolats bactériens sera mesurée après croissance dans des plaques de micro-titrage et la quantification de la couche de biofilm à l’aide d’une méthode standard de coloration. Nous étudierons la capacité du SNC à sécréter des enzymes avec des activités de protéase, lipase et/ou nucléase en utilisant des méthodes microbiologiques et biochimiques standard. Nous allons étudier si le SNC peut produire des composés antibactériens, appelés bactériocines. Le spectre de l’activité des antibiofilms sera déterminé à l’aide d’une collection d’isolats du SNC et de S. aureus, ainsi que d’autres agents pathogènes de la mammite bovine tels que Steptococcus uberis, Strep. dysgalacties et E. coli. Ces molécules d’antibiofilm, utilisées seules ou en combinaison avec un agent antibactérien, pourraient représenter une nouvelle stratégie pour contrôler les infections bactériennes.

————————————–

Les biofilms bactériens représentent un problème important en santé animale et en santé humaine à cause de leur résistance accrue aux antibiotiques et aux désinfectants. Notre laboratoire a mis en évidence que certaines souches de staphylocoque à coagulase négative (SCN) pouvaient bloquer d’une manière très efficace la formation de biofilms par d’autres staphylocoques don’t S. aureus. Nous émettons l’hypothèse que ces souches de SCN produisent des molécules antibiofilm ce qui pourrait mener au développement de nouvelles drogues ou de nouvelles stratégies pour contrôler la formation de biofilm. Nos objectifs sont : 1)

Voir la description complète du projet
Superviseur du corps professoral :

Mario Jacques

Étudiant :

SNEHA DAS

Partenaire :

Discipline :

Biochimie / Biologie moléculaire

Secteur :

Université :

Programme :

Globalink