Modélisation causale dynamique - Dynamic causal modeling

  (Redirigé de la modélisation causale dynamique )

La modélisation causale dynamique (DCM) est un cadre permettant de spécifier des modèles, de les adapter aux données et de comparer leurs preuves à l' aide de la comparaison de modèles bayésiens . Il utilise des modèles d' espace d'états non linéaires en temps continu, spécifiés à l'aide d' équations différentielles stochastiques ou ordinaires . DCM a été initialement développé pour tester des hypothèses sur la dynamique neurale . Dans ce contexte, les équations différentielles décrivent l'interaction des populations neurales, qui donnent directement ou indirectement lieu à des données de neuroimagerie fonctionnelle , par exemple, l'imagerie par résonance magnétique fonctionnelle (IRMf), la magnétoencéphalographie (MEG) ou l' électroencéphalographie (EEG). Les paramètres de ces modèles quantifient les influences dirigées ou la connectivité effective entre les populations neuronales, qui sont estimées à partir des données en utilisant des méthodes statistiques bayésiennes .

Procédure

Le DCM est généralement utilisé pour estimer le couplage entre les régions du cerveau et les changements de couplage dus à des changements expérimentaux (par exemple, le temps ou le contexte). Un modèle de populations neurales en interaction est spécifié, avec un niveau de détail biologique dépendant des hypothèses et des données disponibles. Ceci est couplé à un modèle avancé décrivant comment l'activité neuronale donne lieu à des réponses mesurées. L'estimation du modèle génératif identifie les paramètres (par exemple les forces de connexion) à partir des données observées. La comparaison des modèles bayésiens est utilisée pour comparer les modèles en fonction de leurs preuves, qui peuvent ensuite être caractérisées en termes de paramètres.

Les études DCM impliquent généralement les étapes suivantes:

  1. Conception expérimentale. Des hypothèses spécifiques sont formulées et une expérience est menée.
  2. Préparation des données. Les données acquises sont prétraitées (par exemple, pour sélectionner les caractéristiques de données pertinentes et éliminer les confusions).
  3. Modèle Spécification. Un ou plusieurs modèles de transfert (DCM) sont spécifiés pour chaque ensemble de données.
  4. Estimation du modèle. Les modèles sont ajustés aux données pour déterminer leurs preuves et leurs paramètres.
  5. Comparaison de modèles. Les preuves pour chaque modèle sont utilisées pour la comparaison des modèles bayésiens (au niveau d'un seul sujet ou au niveau du groupe) pour sélectionner le (s) meilleur (s) modèle (s). La moyenne des modèles bayésiens (BMA) est utilisée pour calculer une moyenne pondérée des estimations de paramètres sur différents modèles.

Les étapes clés sont brièvement passées en revue ci-dessous.

Conception expérimentale

Les expériences de neuroimagerie fonctionnelle sont généralement basées sur des tâches ou examinent l'activité cérébrale au repos ( état de repos ). Dans les expériences basées sur des tâches, les réponses cérébrales sont évoquées par des entrées déterministes connues (stimuli contrôlés expérimentalement). Ces variables expérimentales peuvent modifier l'activité neuronale par des influences directes sur des régions cérébrales spécifiques, telles que les potentiels évoqués dans le cortex visuel précoce, ou via une modulation du couplage entre les populations neurales; par exemple, l'influence de l'attention. Ces deux types d'entrée - pilotante et modulatoire - sont paramétrés séparément dans DCM. Pour permettre une estimation efficace des effets d'entraînement et de modulation, un plan expérimental factoriel 2x2 est souvent utilisé - un facteur servant d'entrée de commande et l'autre d'entrée de modulation.

Les expériences à l'état de repos n'ont pas de manipulations expérimentales pendant la période de l'enregistrement de neuroimagerie. Au lieu de cela, des hypothèses sont testées sur le couplage des fluctuations endogènes de l'activité neuronale, ou sur les différences de connectivité entre les séances ou les sujets. Le cadre DCM comprend des modèles et des procédures d'analyse des données d'état de repos, décrits dans la section suivante.

Modèle Spécification

Tous les modèles de DCM ont la forme de base suivante:

La première égalité décrit le changement de l'activité neuronale par rapport au temps (ie ), qui ne peut pas être directement observé en utilisant des modalités d'imagerie fonctionnelle non invasives. L'évolution de l'activité neuronale au cours du temps est contrôlée par une fonction neurale avec des paramètres et des entrées expérimentales . L'activité neurale à son tour provoque les séries temporelles (seconde égalité), qui sont générées via une fonction d'observation avec des paramètres . Le bruit d'observation additif complète le modèle d'observation. Habituellement, les paramètres neuronaux sont d'un intérêt clé, qui représentent par exemple des forces de connexion qui peuvent changer dans différentes conditions expérimentales.

La spécification d'un DCM nécessite la sélection d'un modèle neuronal et d' un modèle d' observation et la définition de priors appropriés sur les paramètres; Par exemple, sélectionner les connexions à activer ou désactiver.

IRM fonctionnelle

DCM pour circuit neuronal IRMf
Le modèle neuronal dans DCM pour l'IRMf. z1 et z2 sont les niveaux moyens d'activité dans chaque région. Les paramètres A sont la connectivité effective, B est la modulation de la connectivité par une condition expérimentale spécifique et C est l'entrée motrice.

Le modèle neuronal dans DCM pour l'IRMf est une approximation de Taylor qui capture les influences causales brutes entre les régions du cerveau et leur changement en raison des entrées expérimentales (voir l'image). Ceci est couplé à un modèle biophysique détaillé de la génération de la réponse BOLD et du signal IRM, basé sur le modèle Balloon de Buxton et al., Qui a été complété par un modèle de couplage neurovasculaire. Les ajouts au modèle neuronal ont inclus des interactions entre les populations neurales excitatrices et inhibitrices et des influences non linéaires des populations neurales sur le couplage entre d'autres populations.

Le DCM pour les études sur l'état de repos a été introduit pour la première fois dans le DCM stochastique, qui estime à la fois les fluctuations neuronales et les paramètres de connectivité dans le domaine temporel, à l'aide du filtrage généralisé . Un schéma plus efficace pour les données d'état de repos a été introduit par la suite, qui fonctionne dans le domaine fréquentiel, appelé DCM pour Cross-Spectral Density (CSD). Ces deux éléments peuvent être appliqués à des réseaux cérébraux à grande échelle en limitant les paramètres de connectivité en fonction de la connectivité fonctionnelle. Un autre développement récent pour l'analyse de l'état de repos est Regression DCM implémenté dans la collection de logiciels Tapas (voir Implémentations logicielles ). Régression DCM opère dans le domaine fréquentiel, mais linéarise le modèle sous certaines simplifications, comme avoir une fonction de réponse hémodynamique fixe (canonique). Le permet une estimation rapide des réseaux cérébraux à grande échelle.

Modèles de la colonne corticale utilisés dans l'analyse EEG / MEG / LFP. Les auto-connexions sur chaque population sont présentes mais non montrées pour plus de clarté. À gauche: DCM pour ERP. À droite: Microcircuit canonique (CMC). 1 = cellules étoilées épineuses (couche IV), 2 = interneurones inhibiteurs, 3 = cellules pyramidales (profondes) et 4 = cellules pyramidales superficielles.

EEG / MEG

DCM pour les données EEG et MEG utilisent des modèles neuronaux plus biologiquement détaillés que l'IRMf, en raison de la résolution temporelle plus élevée de ces techniques de mesure. Ceux-ci peuvent être classés en modèles physiologiques, qui récapitulent la circuité neurale, et en modèles phénoménologiques, qui se concentrent sur la reproduction de caractéristiques de données particulières. Les modèles physiologiques peuvent être subdivisés en deux classes. Les modèles basés sur la conductance dérivent de la représentation de circuit équivalent de la membrane cellulaire développée par Hodgkin et Huxley dans les années 1950. Les modèles de convolution ont été introduits par Wilson & Cowan et Freeman dans les années 1970 et impliquent une convolution d'entrée pré-synaptique par une fonction de noyau synaptique. Certains des modèles spécifiques utilisés dans DCM sont les suivants:

  • Modèles physiologiques:
    • Modèles de convolution:
      • DCM pour les réponses évoquées (DCM pour ERP). Il s'agit d'un modèle de masse neuronale biologiquement plausible, prolongeant les travaux antérieurs de Jansen et Rit. Il émule l'activité d'une zone corticale à l'aide de trois sous-populations neuronales (voir photo), chacune reposant sur deux opérateurs. Le premier opérateur transforme la cadence de tir pré-synaptique en un potentiel post-synaptique (PSP), en convoluant une entrée pré-synaptique avec une fonction de réponse synaptique (noyau). Le deuxième opérateur, une fonction sigmoïde , transforme le potentiel de membrane en une cadence de déclenchement des potentiels d'action.
      • DCM pour LFP (Local Field Potentials). Étend DCM pour ERP en ajoutant les effets de canaux ioniques spécifiques sur la génération de pics.
      • Microcircuit canonique (CMC). Utilisé pour aborder des hypothèses sur les connexions ascendantes et descendantes spécifiques aux laminaires dans le cerveau, qui sous-tendent le compte de codage prédictif des architectures cérébrales fonctionnelles. La population de cellules pyramidales uniques de DCM pour ERP est divisée en populations profondes et superficielles (voir photo). Une version du CMC a été appliquée pour modéliser les données multimodales MEG et IRMf.
      • Modèle de champ neuronal (NFM). Étend les modèles ci-dessus dans le domaine spatial, modélisant les changements continus de courant à travers la feuille corticale.
    • Modèles de conductance:
      • Modèle de masse neurale (NMM) et modèle de champ moyen (MFM). Celles-ci ont le même arrangement de populations neurales que DCM pour ERP, ci-dessus, mais sont basées sur le modèle Morris-Lecar de la fibre musculaire de la bernache, qui à son tour dérive du modèle de Hodgin et Huxley de l'axone du calmar géant. Ils permettent de déduire le flux d'ions excitateurs (Na +) et inhibiteurs (Cl-) dépendants du ligand, médiée par les récepteurs glutamatergiques et GABAergiques rapides. Alors que le DCM pour l'IRMf et les modèles de convolution représentent l'activité de chaque population neuronale par un seul nombre - son activité moyenne - les modèles de conductance incluent la densité complète (distribution de probabilité) de l'activité au sein de la population. L'hypothèse de champ moyen utilisée dans la version MFM du modèle suppose que la densité de l'activité d'une population dépend uniquement de la moyenne d'une autre. Une extension ultérieure a ajouté des canaux ioniques NMDA voltage-dépendants.
  • Modèles phénoménologiques:
    • DCM pour couplage de phase. Modélise l'interaction des régions du cerveau comme des oscillateurs faiblement couplés (WCO), dans lesquels le taux de changement de phase d'un oscillateur est lié aux différences de phase entre lui-même et les autres oscillateurs.

Estimation du modèle

L'inversion ou l'estimation du modèle est implémentée dans DCM à l'aide de Bayes variationnelle sous l' hypothèse de Laplace . Cela fournit deux quantités utiles: la probabilité log marginale ou la preuve du modèle est la probabilité d'observer les données sous un modèle donné. En général, cela ne peut pas être calculé explicitement et est approché par une quantité appelée énergie libre variationnelle négative , appelée en apprentissage automatique la limite inférieure de preuve (ELBO). Les hypothèses sont testées en comparant les preuves de différents modèles en fonction de leur énergie libre, une procédure appelée comparaison de modèles bayésiens.

L'estimation du modèle fournit également des estimations des paramètres , par exemple les forces de connexion, qui maximisent l'énergie libre. Lorsque les modèles ne diffèrent que par leurs a priori, la réduction du modèle bayésien peut être utilisée pour dériver les preuves et les paramètres de modèles imbriqués ou réduits de manière analytique et efficace.

Comparaison de modèles

Les études de neuroimagerie étudient généralement les effets qui sont conservés au niveau du groupe ou qui diffèrent entre les sujets. Il existe deux approches prédominantes pour l'analyse au niveau du groupe: les effets aléatoires de sélection du modèle bayésien (BMS) et les Bayes empiriques paramétriques (PEB). Effets aléatoires BMS postule que les sujets diffèrent en termes de modèle qui a généré leurs données - par exemple en tirant un sujet au hasard dans la population, il peut y avoir 25% de chances que leur cerveau soit structuré comme le modèle 1 et 75% de chances qu'il soit structuré comme modèle 2. Le pipeline d'analyse pour la procédure d'approche BMS suit une série d'étapes:

  1. Spécifiez et estimez plusieurs DCM par sujet, où chaque DCM (ou ensemble de DCM) incarne une hypothèse.
  2. Effectuer un BMS à effets aléatoires pour estimer la proportion de sujets dont les données ont été générées par chaque modèle
  3. Calculez les paramètres de connectivité moyens entre les modèles à l'aide de la moyenne des modèles bayésiens. Cette moyenne est pondérée par la probabilité postérieure pour chaque modèle, ce qui signifie que les modèles avec une plus grande probabilité contribuent davantage à la moyenne que les modèles avec une probabilité plus faible.

Alternativement, les Bayes empiriques paramétriques (PEB) peuvent être utilisées, qui spécifient un modèle hiérarchique sur les paramètres (par exemple, les forces de connexion). Il évite la notion de modèles différents au niveau des sujets individuels et suppose que les gens diffèrent par la force (paramétrique) des connexions. L'approche PEB modélise des sources distinctes de variabilité des forces de connexion entre les sujets à l'aide d'effets fixes et de la variabilité inter-sujets (effets aléatoires). La procédure PEB est la suivante:

  1. Spécifiez un seul DCM «complet» par sujet, qui contient tous les paramètres d'intérêt.
  2. Spécifiez un modèle linéaire général bayésien (GLM) pour modéliser les paramètres (la densité postérieure complète) de tous les sujets au niveau du groupe.
  3. Testez les hypothèses en comparant le modèle au niveau du groupe complet à des modèles au niveau du groupe réduit où certaines combinaisons de connexions ont été désactivées.

Validation

Les développements dans DCM ont été validés à l'aide de différentes approches:

  • La validité faciale établit si les paramètres d'un modèle peuvent être récupérés à partir de données simulées. Ceci est généralement effectué parallèlement au développement de chaque nouveau modèle (par exemple).
  • La validité de concept évalue la cohérence avec d'autres méthodes analytiques. Par exemple, le DCM a été comparé à la modélisation d'équations structurelles et à d'autres modèles de calcul neurobiologiques.
  • La validité prédictive évalue la capacité de prédire les effets connus ou attendus. Cela a inclus des tests contre iEEG / EEG / stimulation et contre des traitements pharmacologiques connus.

Limitations / inconvénients

DCM est une approche basée sur des hypothèses pour étudier les interactions entre des régions d'intérêt prédéfinies. Il n'est pas idéalement adapté aux analyses exploratoires. Bien que des méthodes aient été mises en œuvre pour rechercher automatiquement sur des modèles réduits ( réduction du modèle bayésien ) et pour modéliser des réseaux cérébraux à grande échelle, ces méthodes nécessitent une spécification explicite de l'espace modèle. En neuroimagerie, des approches telles que l' analyse d' interaction psychophysiologique (IPP) peuvent être plus appropriées pour une utilisation exploratoire; en particulier pour découvrir les nœuds clés pour une analyse DCM ultérieure.

Les méthodes bayésiennes variationnelles utilisées pour l'estimation du modèle dans DCM sont basées sur l'hypothèse de Laplace, qui traite les paramètres postérieurs comme gaussiens. Cette approximation peut échouer dans le contexte de modèles hautement non linéaires, où les minima locaux peuvent empêcher l'énergie libre de servir de limite étroite sur les preuves du modèle logarithmique. Les approches d'échantillonnage fournissent l'étalon-or; cependant, ils prennent du temps et ont généralement été utilisés pour valider les approximations variationnelles dans DCM.

Implémentations logicielles

DCM est implémenté dans le progiciel Statistical Parametric Mapping , qui sert d'implémentation canonique ou de référence ( http://www.fil.ion.ucl.ac.uk/spm/software/spm12/ ). Il a été réimplémenté et développé dans la collection de logiciels Tapas ( https://www.tnu.ethz.ch/en/software/tapas.html ) et la boîte à outils VBA ( https://mbb-team.github.io / VBA-toolbox / ).

Lectures complémentaires

Les références