diff --git a/chapters/HTS.tex b/chapters/HTS.tex index 8b5ead9..c8edc10 100644 --- a/chapters/HTS.tex +++ b/chapters/HTS.tex @@ -22,7 +22,7 @@ Pour les modèles incluant le carré du temps comme variable explicative (en eff \subsection{Modélisation mixte quadratique} Les coefficients des modèles retenus sont présentés dans le tableau~\ref{hts-tab:coefs}. Concernant les effets fixes, la PIC, l'AMP et le ratio P2/P1 décrivent une trajectoire quadratique. Les coefficients fixes des autres descripteurs de forme (TPP et PSI) ne sont pas significativement non-nuls. Les effets aléatoires au niveau de l'individu ne sont pas conservés pour la PIC et l'AMP. La variance sur la réponse à l'injection, décrite par les effets aléatoires sur le temps et le carré du temps, est principalement captée au niveau "bolus". En revanche, une dichotomie s'observe sur les variations de ligne de base, captées par les écarts types des effets aléatoires sur les intercepts. Ces écarts types sont plus importants au niveau "bolus" pour la PIC et pour l'amplitude, mais plus importants au niveau "individu" pour les trois indicateurs de morphologie (PSI, TTP, P2/P1). -\begin{table}[h] +\begin{table}[h!] \centering \resizebox{\columnwidth}{!}{% \begin{tabular}{|c|ccc|ccc|ccc|}\toprule @@ -45,6 +45,7 @@ Les coefficients des modèles retenus sont présentés dans le tableau~\ref{hts- \label{hts-tab:coefs} \end{table} +Les effets \subsection{Réponse à l'injection de HTS selon la PIC et le ratio P2/P1 initiaux} diff --git a/chapters/mecanique.tex b/chapters/mecanique.tex index ecd76ba..9352005 100644 --- a/chapters/mecanique.tex +++ b/chapters/mecanique.tex @@ -1,5 +1,5 @@ \section{Outils d'analyse du signal} -Les composantes du signal de PIC peuvent être isolées au moyen de méthodes de différentes méthodes de décomposition. Dans la littérature, deux grandes familles d'algorithmes sont identifiables. La première correspond aux décompositions linéaires issues de la transformée de Fourier ; la seconde, plus récente, regroupe la décomposition en modes empiriques (\textit{Empirical Mode Decomposition}, EMD) et ses dérivés. Pour la suite, on considère un signal $s \in L^{2}({\mathbb{R})}$. +Les composantes du signal de PIC peuvent être isolées au moyen de différentes méthodes de décomposition. Dans la littérature, deux grandes familles d'algorithmes sont identifiables. La première correspond aux décompositions linéaires issues de la transformée de Fourier ; la seconde, plus récente, regroupe la décomposition en modes empiriques (\textit{Empirical Mode Decomposition}, EMD) et ses dérivés. Pour la suite, on considère un signal $s \in L^{2}({\mathbb{R})}$. \subsection{Décompositions linéaires} @@ -13,7 +13,7 @@ Celle-ci est discrétisée de la façon suivante dans un contexte de calcul num \hat{s}(\xi) = \sum_{n=0}^{M-1}exp(-i2\pi n\xi /M), \xi \in [\![0;M-1]\!] \end{equation} où $M \geq N$ est généralement choisi parmi les puissances de 2 par soucis d'efficacité calculatoire. - \par L'analyse de Fourier est historiquement un outil de choix pour l'analyse du signal de PIC~\cite{czosnyka2004monitoring}, du fait que ses nombreuses composantes interviennent à des échelles de temps distinctes. De plus, le passage au domaine fréquentiel demande peu de ressources calculatoires(complexité temporelle de l'algorithme de transformée de Fourier rapide en $O(Nlog(N)$). L'analyse fréquentielle est tout particulièrement utilisée pour caractériser les interactions entre le signal de PIC et d'autres signaux de monitorage par l'étude de transfert spectrales(\textit{transfer fonction analysis}, TFA). Ces méthodes font notamment l'objet d'une riche littérature traitant de l'autorégulation cérébrale (voir section~\ref{autoregulation}). + \par L'analyse de Fourier est historiquement un outil de choix pour l'analyse du signal de PIC~\cite{czosnyka2004monitoring}, du fait que ses nombreuses composantes interviennent à des échelles de temps distinctes. De plus, le passage au domaine fréquentiel demande peu de ressources calculatoires(complexité temporelle de l'algorithme de transformée de Fourier rapide en $O(Nlog(N)$)). L'analyse fréquentielle est tout particulièrement utilisée pour caractériser les interactions entre le signal de PIC et d'autres signaux de monitorage par l'étude de transfert spectrales(\textit{transfer fonction analysis}, TFA). Ces méthodes font notamment l'objet d'une riche littérature traitant de l'autorégulation cérébrale (voir section~\ref{autoregulation}). \par Cependant, certaines précautions doivent être prises lors de l'analyse du spectre obtenu \cite{huang1998empirical}. Les fréquences calculées étant issues d'une base algébrique de fonctions sinusoïdes, seules les interactions linéaires entre les différentes composantes du signal de PIC peuvent être fidèlement décrites. De plus, le signal décomposé est supposé stationnaire, c'est-à-dire qu'à chaque instant $t$: \begin{enumerate} \item{$E(\|s(t^2)\|) < \infty$,} @@ -23,7 +23,7 @@ Celle-ci est discrétisée de la façon suivante dans un contexte de calcul num où $Cov(\cdot)$ désigne la fonction covariance. En pratique, si ces propriétés sont difficilement vérifiables formellement, les artefacts calculatoires liés aux problèmes de stationnarité sont limités en combinant plusieurs spectres fréquentiels estimés sur une fenêtre de temps glissante (méthode de Welch)~\cite{garcia2013spectral}. La sensibilité des résultats à la fenêtre de temps utilisée nécessite alors de définir certains standards de façon à rendre comparables les résultats de différentes études~\cite{meel2014between}. \subsubsection{Décomposition en ondelettes} -La transformée continue en ondelettes (\textit{wavelets}, CWT) est une extension à l'analyse de Fourier plus robuste à l'étude de signaux non-stationnaire, en proposition une décomposition du signal dans le plan temps-fréquences. Formellement, un coefficient $\tilde(s)$ est calculé à chaque instant $t$ et pour un facteur d'échelle $a$: +La transformée continue en ondelettes (\textit{wavelets}, CWT) est une extension à l'analyse de Fourier plus robuste à l'étude de signaux non-stationnaire, en proposant une décomposition du signal dans le plan temps-fréquences. Formellement, un coefficient $\tilde(s)$ est calculé à chaque instant $t$ et pour un facteur d'échelle $a$: \begin{equation} \tilde{s}(a, t) = \frac{1}{\sqrt{\|a\|}}\int_{\mathbb{R}}s(t)\psi(\frac{\tau - t}{a}) \, d\tau \end{equation} @@ -33,7 +33,7 @@ où $\psi$ désigne la fonction ondelette utilisée. Le signal d'origine est alo Les algorithmes de décomposition en modes (ADM) regroupent une vaste famille d'algorithmes dérivés de la publication originale de Huang \textit{et al.} introduisant la décomposition en modes empiriques (\textit{Empirical Mode Decomposition}, EMD)\cite{huang1998empirical}. L'idée proposée est de décomposer un signal donné en oscillations élémentaires qui ne soient pas issus d'une base vectorielle prédéfinie \textit{a priori}, comme dans le cas de la transformée de Fourier et de ses différentes généralisations. Ce changement de paradigme a pour objectif de développer un outil adapté à l'étude de signaux non-stationnaires (c'est-à-dire, d'espérance et de variance variables dans le temps) et/ou résultant de la combinaison non-linéaire de différentes composantes. Ainsi, ces algorithmes extraient de façon itérative des fonctions de mode intrinsèques (\textit{intrinsic mode functions}, IMFs) du signal de base, oscillations élémentaires spécifiques à un signal respectant les propriétés suivantes : \begin{enumerate} \item Le nombre d'extrema et le nombre de traversées de l'axe des abscisses doivent différer au plus de 1 (ou, par équivalence : tous les maxima locaux doivent être strictement positifs et tous les minima locaux doivent être strictement négatifs). - \item En tout point, la moyenne de l'enveloppe définie par les maxima locaux et les minima locaux être égale à 0. + \item En tout point, la moyenne de l'enveloppe définie par les maxima locaux et les minima locaux doit être égale à 0. \end{enumerate} Dans la pratique, une IMF est donc une fonction pseudo-périodique localement symétrique par rapport à l'axe des abscisses, dont la durée et l'amplitude des oscillations peuvent varier au cours du temps. En gardant à l'esprit que les ADMs sont conçus pour l'étude de signaux non-stationnaires, ces propriétés sont utiles par la suite pour définir les notions d'amplitude et de fréquences locales, voire instantanées, que les définitions classiques ne peuvent couvrir du fait du principe d'indétermination temps-fréquence. Cependant, cette flexibilité implique la perte de certaines propriétés des méthodes linéaires. Dans le cas général, pour deux signaux $s$ et $z$ et un $ADM$ quelconque, $ADM(s + z) \neq ADM(s) + ADM(z)$. L'unicité de la décomposition en IMFs n'est pas non plus assurée : plusieurs décompositions valides peuvent être obtenues à partir d'un même signal. Enfin, l'orthogonalité des IMFs extraites et la conservation de l'énergie du signal initial dépendent des ADMs. @@ -66,9 +66,9 @@ Dans la pratique, une IMF est donc une fonction pseudo-périodique localement sy \end{algorithm} Bien que jamais mise en défaut en pratique, la convergence de la procédure d'extraction d'une IMF n'a jamais pu être démontrée, limitant de fait l'étude des propriétés mathématiques de l'EMD~\cite{ge2018theoretical}. Ces travaux précurseurs ont cependant donné lieu à de très nombreuses extensions, notamment dans les domaines complexes, multivariés et multidimensionnels~\cite{barbosh2020empirical}. L'EMD a été adoptée dans différents domaines d'application impliquant des signaux non-stationnaires et/ou des systèmes non-linéaires, de la sismologie~\cite{chen2022seismic} à l'étude d'électroencéphalogrammes~\cite{munoz2018localization}. En ce qui concerne l'analyse du signal de PIC, l'EMD a principalement été utilisée en tant que pré-traitement pour la suppression d'irrégularités ponctuelles~\cite{martinez2021empirical}~\cite{dai2020intracranial}. Certaines évolutions de l'algorithme original visent à contourner des limitations de l'EMD bien identifiées dans la littérature, publication originale comprise. Parmi les problématiques les plus saillantes~\cite{de2022survey}, il convient de citer: \begin{itemize} - \item Le mélange des modes (\textit{mode mixing}) : ce problème correspond aux situations où deux composantes de fréquences distinctes sont contenues dans une même IMF. Rilling et Flandrin~\cite{rilling2007one} ont étudié formellement le problème pour deux composantes sinusoïdales en faisant varier les ratios d'amplitude et de fréquences. Pour ce modèle en particulier, en notant $a$ le ratio des amplitudes et $f$ le ratio des fréquences, la capacité de séparation de l'EMD est limitée à des couples d'oscillations pour lesquelles $f$ < ~0.6 et $a < 1/f$. Différentes corrections ont été proposées pour limiter ce problème de façon empirique. En particulier, l'EMD d'ensemble (\textit{Ensemble EMD}, E-EMD) consiste à répéter plusieurs fois l'algorithme de $sift$ en perturbant légèrement le signal initial au moyen d'un bruit aléatoire, et de prendre les IMFs médianes des différentes décompositions obtenues. + \item Le mélange des modes (\textit{mode mixing}) : ce problème correspond aux situations où deux composantes de fréquences distinctes sont contenues dans une même IMF. Rilling et Flandrin~\cite{rilling2007one} ont étudié formellement le problème pour deux composantes sinusoïdales en faisant varier les ratios des amplitudes et des fréquences entre les deux signaux. Pour ce modèle en particulier, en notant $a$ le ratio des amplitudes et $f$ le ratio des fréquences, la capacité de séparation de l'EMD est limitée à des couples d'oscillations pour lesquelles $f$ < ~0.6 et $a < 1/f$. Différentes corrections ont été proposées pour limiter ce problème de façon empirique. En particulier, l'EMD d'ensemble (\textit{Ensemble EMD}, E-EMD) consiste à répéter plusieurs fois l'algorithme de $sift$ en perturbant légèrement le signal initial au moyen d'un bruit aléatoire, et de prendre les IMFs médianes des différentes décompositions obtenues. \item Le fractionnement des modes (\textit{mode splitting}) : une même composante fréquentielle peut être fractionnée sur plusieurs IMFs adjacentes si les conditions d'acceptation d'une IMF sont trop contraignantes~\cite{xu2016study}. De nombreux critères ont été proposés dans la littérature, comme la différence dans le nombre d'extrema entre deux itérations~\cite{huang2003confidence} ou l'orthogonalité avec le signal avant extraction~\cite{huang1998empirical}. Cependant, comme l'existence d'une limite explicite vers laquelle tendrait le processus d'extraction n'a pas été prouvée, il reste peu aisé d'exhiber un critère d'arrêt optimal. - \item Les effets des extrémités : le calcul des enveloppes, basé sur une interpolation entre les différents extrema, est perturbé au début et à la fin du signal. L'erreur introduite, difficile à quantifier, dépend des implémentations du calcul des enveloppes. Les différentes solutions proposées consistent globalement à étendre le signal à ses extrémités de manière plus ou moins complexe~\cite{zare2023end}. + \item Les effets des extrémités : le calcul des enveloppes, reposant sur une interpolation entre les différents extrema, est perturbé au début et à la fin du signal. L'erreur introduite, difficile à quantifier, dépend des implémentations du calcul des enveloppes. Les différentes solutions proposées consistent globalement à étendre le signal à ses extrémités de manière plus ou moins complexe~\cite{zare2023end}. \end{itemize} \paragraph{Fréquences instantanées.} Les propriétés vérifiées par les IMFs ont été choisies de façon à définir des fréquences instantanées par le biais de la transformée de Hilbert, s'affranchissant ainsi du principe d'incertitude temps-fréquence inhérent à l'analyse de Fourier et ses dérivés. La transformée de Hilbert $H$ est définie telle que : @@ -85,7 +85,7 @@ La transformée de Hilbert prolonge un signal réel $X$ en un signal analytique \begin{equation} s(t) = \text{Re}{\sum_{k=1}^{n}a_{k}(t)e^{i\phi(t)}} \end{equation} -où Re désigne la fonction partie réelle. Par analogie avec la transformée de Fourier, il est possible de définir un spectre bivarié temps-fréquence, ou spectre de Hilbert tel que pour une temps $t$ et une fréquence $\omega$ : +où Re désigne la fonction partie réelle. Par analogie avec la transformée de Fourier, il est possible de définir un spectre bivarié temps-fréquence, ou spectre de Hilbert, tel que pour une temps $t$ et une fréquence $\omega$ : \begin{equation} H(\omega, t) = \sum_{k=1}^{n}a_{k}(t)e^{i\int\omega_{k}(t)\,dt} \end{equation} @@ -130,9 +130,9 @@ Le processus de (F)IF peut être adapté au signal étudié en jouant sur les co \int_{\mathbb{R}} \hat{s}(\xi)\chi_{\{\hat{w}(\xi=0)\}}e^{i2\pi\xi x} \,d\xi \end{equation} où $\hat{s}$ désigne la transformée de Fourier du signal $s$ et $\hat{w}$ la transformée de Fourier du filtre $w$. La limite décrite dans l'équation \ref{eq:IMF} est garantie pour un filtre pair, positif, à support compact dans $\mathbb{R}$ et de somme 1. -La décomposition est rendue non-linéaire par la définition d'un nouveau filtre à chaque début d'extraction d'une IMF. Si le choix des coefficients et de la taille du filtre revient à l'utilisateur, les auteurs recommandent de calculer la taille $L$ d'un filtre à partir de l'espacement moyen entre deux extrema consécutifs selon la formule : $L = 2\lfloor \nu \frac{\text{taille du signal}}{\text{nombre d'extrema}} \rfloor$, où $\nu$ est un paramètre à déterminer, généralement entre 1 et 2~\cite{cicone2022multivariate}. Différentes propriétés du processus de (F)IF ont pu être étudiées théoriquement. En particulier: +La décomposition est rendue non-linéaire par la définition d'un nouveau filtre à chaque début d'extraction d'une IMF. Si le choix des coefficients et de la taille du filtre revient à l'utilisateur, les auteurs recommandent de calculer la taille $L$ d'un filtre à partir de l'espacement moyen entre deux extrema consécutifs selon la formule : $L = 2\lfloor \nu \frac{\text{taille du signal}}{\text{nombre d'extrema}} \rfloor$, où $\nu$ est un paramètre à déterminer, généralement entre 1 et 2~\cite{cicone2022multivariate}. Différentes propriétés du processus de (F)IF ont pu être étudiées théoriquement. En particulier~: \begin{itemize} - \item Séparation des fréquences : pourvu que la taille du filtre soit choisie de façon appropriée, le procédure de FIF peut séparer deux signaux sinusoïdaux purs de fréquences aussi proches que souhaité tant que $f < 1 - \frac{1}{n}$, où $f$ est le ratio des fréquences et $n$ la longueur des signaux en nombre de périodes. + \item Séparation des fréquences : pourvu que la taille du filtre soit choisie de façon appropriée, le procédure de FIF peut séparer deux signaux sinusoïdaux purs de fréquences aussi proches que souhaité tant que $f < 1 - \frac{1}{n}$, où $f$ est le ratio des fréquences et $n$ la longueur des signaux en nombre de périodes. \item Conservation de l'énergie : la transformée de Fourier vérifie, dans le cas discret, la propriété $\sum_{n=0}^{N-1} \|s(n)\|^{2} = \frac{1}{N}\sum_{\xi} \|\hat{s}(\xi)\|^{2}$ (Théorème de Parseval-Plancherel). En comparaison, la procédure de (F)IF conserve l'énergie de Fourier de norme 1: $E_{1}(s) = \sum_{\xi}\hat{s}(\xi)$ \cite{cicone2024new}. \item Orthogonalité des IMFs : comme pour l'EMD et ses dérivées, l'exacte orthogonalité ne peut pas être garantie dans le cas général, les IMFs n'étant pas générées dans un espace vectoriel prédéfini. Différentes analyses numériques montrent cependant qu'en pratique, les IMFs extraites par EMD comme par IMFs sont quasi-orthogonales, le choix de la taille des filtres pouvant même faire l'objet d'une optimisation à ce sujet~\cite{chen2023filter}. \item Effets des extrémités : la procédure de FIF suppose une périodicité du signal à ses extrémités~\cite{cicone2021numerical}. Dans le cas contraire, des artefacts de calcul apparaissent de façon quantifiable aux bornes des IMFs extraites, en particulier dans les basses fréquences. Les auteurs préconisent d'étendre le signal à ses extrémités en jouant sur des symétries de façon à introduire une périodicité aux bornes du signal traité~\cite{cicone2020study}. @@ -149,17 +149,17 @@ L'IMFogramme (\textit{Imfrogram}) est une représentation obtenue sur le plan (t \section{Monitorage de la compliance cérébrale} \label{CC} -La compliance cérébrale correspond à la relation pression-volume régnant au sein de la boîte crânienne. En d'autre termes, la compliance cérébrale décrit la capacité du système à modérer l'augmentation de la PIC en réponse à une augmentation du volume cérébral ~\cite{ocamoto2021intracranial}. Ce concept est décrit dans la littérature scientifique par le biais de nombreux termes plus ou moins synonymes : différents auteurs parlent ainsi de "compliance intracrânienne" (\textit{intracranial compliance}), de "réserve compensatoire" (\textit{compensatory reserve}), ou simplement de "relation pression-volume" (\textit{pressure-volume relationship}). De plus, certaines études préfèrent travailler sur le concept inverse d'élastance intracrânienne (\textit{intracranial elastance}). Différents mécanismes de compliance cérébrale peuvent être mis en jeu selon l'échelle de temps, la gravité et le type d'atteinte du système cérébrospinal. \`A des échelles de temps courtes, les volumes LCS, de sang et de liquide interstitiel constituent des réserve de compliance rapidement disponibles \cite{kim2009monitoring}. Dans le cas de traumatismes graves et d'hématomes volumineux, la compensation est également effectuée par une diminution conjointe du volume des neurones et des astrocytes dans différentes régions du parenchyme cérébral~\cite{kalisvaart2020update}. Dans le cas d'HTIC chroniques, un amincissement de la voûte crânienne peut également survenir~\cite{benson2023monro}. Ce dernier mécanisme de compensation à longue échelle de temps contrevient donc à la doctrine de Monroe-Kellie, selon laquelle la boîte crânienne abrite un volume incompressible. Quant à la caractérisation de la compliance cérébrale à échelle macroscopique, la relation pression-volume issue du modèle de Marmarou~\cite{marmarou1975compartmental} fait aujourd'hui consensus dans la pratique clinique : +La compliance cérébrale correspond à la relation pression-volume régnant au sein de la boîte crânienne. En d'autre termes, la compliance cérébrale décrit la capacité du système à modérer l'augmentation de la PIC en réponse à une augmentation du volume cérébral ~\cite{ocamoto2021intracranial}. Ce concept est décrit dans la littérature scientifique par le biais de nombreux termes plus ou moins synonymes : différents auteurs parlent ainsi de "compliance intracrânienne" (\textit{intracranial compliance}), de "réserve compensatoire" (\textit{compensatory reserve}), ou simplement de "relation pression-volume" (\textit{pressure-volume relationship}). De plus, certaines études préfèrent travailler sur le concept inverse d'élastance intracrânienne (\textit{intracranial elastance}). Différents mécanismes de compliance cérébrale peuvent être mis en jeu selon l'échelle de temps, la gravité et le type d'atteinte du système cérébrospinal. \`A des échelles de temps courtes, les volumes de liquide cérébrospinal, de sang et de liquide interstitiel constituent des réserves de compliance rapidement disponibles \cite{kim2009monitoring}. Dans le cas de traumatismes graves et d'hématomes volumineux, la compensation est également effectuée par une diminution conjointe du volume des neurones et des astrocytes dans différentes régions du parenchyme cérébral~\cite{kalisvaart2020update}. Dans le cas d'HTIC chroniques, un amincissement de la voûte crânienne peut également survenir~\cite{benson2023monro}. Ce dernier mécanisme de compensation à longue échelle de temps contrevient donc à la doctrine de Monroe-Kellie, selon laquelle la boîte crânienne abrite un volume incompressible. Quant à la caractérisation de la compliance cérébrale à échelle macroscopique, la relation pression-volume issue du modèle de Marmarou~\cite{marmarou1975compartmental} fait aujourd'hui consensus dans la pratique clinique : \begin{equation} \label{exp} PIC = (p_{b} - p_{0})e^{E \Delta V}+p_{0} \end{equation} -Où $p_{b}$ et $p_{0}$ sont des constantes de référence, $E$ désigne l'élastance intracrânienne (soit l'inverse de la compliance), et $\Delta V$ désigne une variation de volume. Il est à noter que le modèle a historiquement été développé pour modéliser la pression du LCS lors de tests diagnostiques d'hydrocéphalie (voir section~\ref{direct}). Toutefois, l'équation~\eqref{exp} reste pertinente lorsqu'elle est appliquée à différents compartiments du système cérébrospinal~\cite{domogo2023mechanistic}. En pratique, la courbe pression-volume est classiquement divisée en trois zones (voir figure~\ref {fig:langfitt}). La première correspond à la zone de compensation (d'où l'appellation "réserve compensatoire"), où la PIC est quasi-invariante aux changements de volume. Au-delà d'un premier seuil, la PIC augmente de façon exponentielle avec le volume, tel que décrit par l'équation~\eqref{exp}. Cette relation devient caduque au-delà d'un second seuil, où l'hypertension provoque des dommages mécaniques irrémédiables aux tissus concernés. L'information de la compliance cérébrale peut être pertinente dans la prise en charge des deux grandes familles de pathologies où la mesure de la PIC est recommandable, à savoir les lésions cérébrales traumatiques et les hydrocéphalies. Dans le premier cas, la connaissance de la compliance cérébrale permet de caractériser plus précisément les atteintes du système cérébrospinal~\cite{zeiler2018impaired}, d'identifier les patients les plus à risque d'HTIC~\cite{shahsavari2011cerebrovascular}, et ainsi d'adapter la durée et le niveau de sédation. La compliance cérébrale est également un facteur prognostique~\cite{calviello2018compensatory}. Dans le cas de l'hydrocéphalie, l'information de la compliance cérébrale, en plus de sa valeur diagnostique, est un facteur de décision quant à la pose d'un dispositif de dérivation du LCS~\cite{gholampour2023intracranial}. +où $p_{b}$ et $p_{0}$ sont des constantes de référence, $E$ désigne l'élastance intracrânienne (soit l'inverse de la compliance), et $\Delta V$ désigne une variation de volume. Il est à noter que le modèle a historiquement été développé pour modéliser la pression du LCS lors de tests diagnostiques d'hydrocéphalie (voir section~\ref{direct}). Toutefois, l'équation~\eqref{exp} reste pertinente lorsqu'elle est appliquée à différents compartiments du système cérébrospinal~\cite{domogo2023mechanistic}. En pratique, la courbe pression-volume est classiquement divisée en trois zones (voir figure~\ref {fig:langfitt}). La première correspond à la zone de compensation (d'où l'appellation "réserve compensatoire"), où la PIC est quasi-invariante aux changements de volume. Au-delà d'un premier seuil, la PIC augmente de façon exponentielle avec le volume, tel que décrit par l'équation~\eqref{exp}. Cette relation devient caduque au-delà d'un second seuil, où l'hypertension provoque des dommages mécaniques irrémédiables aux tissus concernés. L'information de la compliance cérébrale peut être pertinente dans la prise en charge des deux grandes familles de pathologies où la mesure de la PIC est recommandable, à savoir les lésions cérébrales traumatiques et les hydrocéphalies. Dans le premier cas, la connaissance de la compliance cérébrale permet de caractériser plus précisément les atteintes du système cérébrospinal~\cite{zeiler2018impaired}, d'identifier les patients les plus à risque d'HTIC~\cite{shahsavari2011cerebrovascular}, et ainsi d'adapter la durée et le niveau de sédation. La compliance cérébrale est également un facteur pronostique~\cite{calviello2018compensatory}. Dans le cas de l'hydrocéphalie, l'information de la compliance cérébrale, en plus de sa valeur diagnostique, est un facteur de décision quant à la pose d'un dispositif de dérivation du LCS~\cite{gholampour2023intracranial}. \begin{figure}[h!] \centering \includegraphics[width=10cm]{mecanique/langfitt.png} - \caption{Relation pression-volume au sein de la boîte crânienne et morphologie des pulsations cardiaques associées. PIC: pression intracrânienne} + \caption{Relation pression-volume au sein de la boîte crânienne et morphologie des pulsations cardiaques associées. PIC~: pression intracrânienne} \label{fig:langfitt} \end{figure} @@ -183,7 +183,7 @@ Du fait de ses différentes composantes physiologiques caractérisées à des é \label{fig:fft} \end{figure} -Bien que faciles à implémenter, ces méthodes se heurtent à l'hypothèse de stationnarité du signal exigée par la transformée de Fourier. Celle-ci est contournée en décrivant l'évolution temporelle du contenu fréquentiel par le biais d'une fenêtre glissante, mais dont le choix de la taille peut être sujet à débat. Une autre limite mathématique réside dans les différentes interactions non-linéaires entre les déterminants du signal de PIC, alors que la transformée de Fourier est par définition une combinaison linéaire de différentes sinusoïdes. Enfin, il peut être malaisé de relier ces différents indices spectraux à des mécanismes physiologiques sous-jacents, rendant difficiles leur adoption par le corps médical. +Bien que faciles à implémenter, ces méthodes se heurtent à l'hypothèse de stationnarité du signal exigée par la transformée de Fourier. Celle-ci est contournée en décrivant l'évolution temporelle du contenu fréquentiel par le biais d'une fenêtre glissante, mais dont le choix de la taille peut être sujet à débat. Une autre limite mathématique réside dans les différentes interactions non-linéaires entre les déterminants du signal de PIC, alors que la transformée de Fourier est, par définition, une combinaison linéaire de différentes sinusoïdes. Enfin, il peut être malaisé de relier ces différents indices spectraux à des mécanismes physiologiques sous-jacents, rendant difficiles leur adoption par le corps médical. \subsubsection{Amplitude du signal de PIC} \par En considérant que la fraction du volume sanguin d'éjection systolique (VES) transmise au cerveau reste constante, on peut montrer en utilisant le modèle de Marmarou que (i) l'amplitude des pulsations d'origine cardiaque est inversement proportionnelle à la compliance cérébrale, et (ii) qu'il existe une relation linéaire entre amplitude et PIC, dont le coefficient est également proportionnel à la compliance cérébrale \cite{czosnyka2012modeling}. L'information apportée par l'amplitude de la composante cardiaque a donc été largement étudiée dès la fin des années 1970. Historiquement, le premier protocole proposé en 1977~\cite{szewczykowski1977fast} consistait à rechercher la limite des capacités de compensation (c'est-à-dire le passage de la zone I à II courbe de Langfitt, voir figure~\ref{fig:langfitt}) en la présence d'une cassure sur la droite Amplitude - PIC réalisée pour des patients hydrocéphales au bloc opératoire. Cependant, l'amplitude des pulsations cardiaques peut être également utilisée comme un indicateur partiel de la compliance cérébrale dans le cadre d'un monitorage en continu~\cite{wagshul2011pulsating}. Du fait de la difficulté à découper algorithmiquement les pulsations cardiaques sur un signal de PIC univarié, les modalités de calcul de l'amplitude ont donné lieu à un débat dans la littérature au milieu des années 2000 entre les partisans du domaine fréquentiel et du domaine temporel. Il a notamment été montré que l'utilisation d'une transformée de Fourier pouvait sous-estimer de 2 à 3 mmHg la véritable amplitude des pulsations, du fait de la non-vérification des hypothèses préalables à l'analyse de Fourier~\cite{holm2008frequency}. Depuis, l'algorithme de Scholkmann modifié publié en 2018 semble s'être imposé comme une méthode standard dans le domaine temporel~\cite{bishop2018multi}. Concernant la pratique clinique, il a été montré que l'amplitude du signal de PIC était un prédicteur de la mortalité chez le patient cérébrolésé~\cite{uryga_analysis_2023}. En 2011, une étude randomisée en simple aveugle sur 97 patients atteints de HSA a montré que les patients traités pour viser une amplitude inférieure à 5 mmHg présentaient de meilleurs \textit{outcomes} que ceux traités pour maintenir la PIC inférieure à 20 mmg~\cite{eide2011randomized}. En 2024, une étude portant sur 60 patients traumatisés crâniens rapporte pour un tiers d'entre eux des épisodes de variations cycliques de l'amplitude (nommées \textit{spindle waves}), positivement corrélées avec le devenir du patient~\cite{zhu2023spindle}. @@ -202,7 +202,7 @@ Si l'algorithme MOCAIP n'a jamais été utilisé dans un contexte clinique en te %applications cliniques -\par Une solution pour s'affranchir de la détection exacte des positions de P1, P2 et P3 consiste à attribuer un score à l'allure générale des pulsations par apprentissage supervisé. Cette possibilité implique de définir rigoureusement des critères de classification, répétable et reproductible par des experts lors du processus d'annotation des exemples d'entraînement. La publication des premiers travaux liés au \textit{Pulse Shape Index} (PSI) en 2021~\cite{mataczynski2021end} a permis d'affiner une première ébauche proposée en 2016~\cite{nucci2016intracranial}. Le PSI correspond à la moyenne d'un score de classification calculé indépendamment sur chacune des pulsations cardiaques d'une fenêtre cinq minutes mise à jour toute les dix secondes. La classification retenue, appelée par la suite classification de Wroclaw, consiste en quatre classes de pulsations allant de "T1 - normal" à "T4 - pathologique", auxquelles s'ajoute une classe "A+E - Artefact / Erreur" (voir figure~\ref{fig:PSI}). La robustesse de la classification de Wroclaw a été validée par l'annotation indépendante de 3 médecins sur un échantillon de 20 000 exemples. La réalisation d'un \textit{benchmark} parmi plus d'une dizaine d'algorithmes d'apprentissages supervisés, allant des forêts aléatoires à différentes architectures de réseaux récurrents, a permis de sélectionner une architecture de réseaux de neurones à résidus (\textit{Residual Neural Network}, RNN) comme référence pour le calcul du PSI. La précision revendiquée au moment de la publication est de 86.00\%. Un PSI plus élevé a été associé avec la présence lésions cérébrales visibles au scanner~\cite{kazimierska2023relationship} ainsi qu'avec une mortalité plus élevée~\cite{uryga_analysis_2023}. +\par Une solution pour s'affranchir de la détection exacte des positions de P1, P2 et P3 consiste à attribuer un score à l'allure générale des pulsations par apprentissage supervisé. Cette possibilité implique de définir rigoureusement des critères de classification, répétable et reproductible par des experts lors du processus d'annotation des exemples d'entraînement. La publication des premiers travaux liés au \textit{Pulse Shape Index} (PSI) en 2021~\cite{mataczynski2021end} a permis d'affiner une première ébauche proposée en 2016~\cite{nucci2016intracranial}. Le PSI correspond à la moyenne d'un score de classification calculé indépendamment sur chacune des pulsations cardiaques d'une fenêtre cinq minutes mise à jour toutes les dix secondes. La classification retenue, appelée par la suite classification de Wroclaw, consiste en quatre classes de pulsations allant de "T1 - normal" à "T4 - pathologique", auxquelles s'ajoute une classe "A+E - Artefact / Erreur" (voir figure~\ref{fig:PSI}). La robustesse de la classification de Wroclaw a été validée par l'annotation indépendante de 3 médecins sur un échantillon de 20 000 exemples. La réalisation d'un \textit{benchmark} parmi plus d'une dizaine d'algorithmes d'apprentissages supervisés, allant des forêts aléatoires à différentes architectures de réseaux récurrents, a permis de sélectionner une architecture de réseaux de neurones à résidus (\textit{Residual Neural Network}, RNN) comme référence pour le calcul du PSI. La précision revendiquée au moment de la publication est de 86.00\%. Un PSI plus élevé a été associé à la présence de lésions cérébrales visibles au scanner~\cite{kazimierska2023relationship} ainsi qu'avec une mortalité plus élevée~\cite{uryga_analysis_2023}. \begin{figure}[h!] \centering @@ -214,7 +214,7 @@ Si l'algorithme MOCAIP n'a jamais été utilisé dans un contexte clinique en te \section{Autorégulation cérébrale} \label{autoregulation} -La régulation du débit sanguin cérébral (DSC) est d'une importance toute particulière au bon fonctionnement du cerveau, dans la mesure où cet organe, pourvu de très faibles réserves en oxygène~\cite{powers1985cerebral}, absorbe au repos 15 à 20\% du volume d'éjection systolique~\cite{williams1989reference}. Le DSC peut être exprimé comme le ratio de la PPC et de la résistance vasculaire cérébrale(RVC), fonction de la vasoconstriction des artérioles cérébrales, selon la formule $DSC = \frac{PPC}{RVC}$. La littérature distingue généralement quatre grands mécanismes de régulation du DSC, fonctionnant de façon simultanée et redondante: +La régulation du débit sanguin cérébral (DSC) est d'une importance toute particulière au bon fonctionnement du cerveau, dans la mesure où cet organe, pourvu de très faibles réserves en oxygène~\cite{powers1985cerebral}, absorbe au repos 15 à 20\% du volume d'éjection systolique~\cite{williams1989reference}. Le DSC peut être exprimé comme le ratio de la PPC et de la résistance vasculaire cérébrale(RVC), fonction de la vasoconstriction des artérioles cérébrales, selon la formule $DSC = \frac{PPC}{RVC}$. La littérature distingue généralement quatre grands mécanismes de régulation du DSC, fonctionnant de façon simultanée et redondante~: \begin{itemize} \item Neurogénique. Le DSC peut être régulé par des neurotransmetteurs comme le NO$_{2}$, l'acétylcholine ou la sérotonine. Ce couplage neurovasculaire, largement médié par l'activité des astrocytes, permet une adaptation locale du DSC à l'activité neuronale~\cite{phillips2016neurovascular}. @@ -229,7 +229,7 @@ Selon les auteurs, l'autorégulation cérébrale (AC) désigne soit la régulati \item Le plateau d'autorégulation n'est pas parfaitement horizontal ; les mécanismes d'AC ne compensent qu'une partie des variations de PPC. Ses limites ne correspondent pas à des cassures nettes. Par rapport à la publication originale de Lassen, sa largeur est fortement réduite (de l'ordre de la dizaine de mmHg). Il est à noter que la largeur ainsi que la position du plateau sont très variables d'un patient à l'autre, mais aussi d'une pathologie à l'autre~\cite{howells2025vasomotion}. \item La limite inférieure du plateau correspond à la pression où les mécanismes de vasoconstriction ne permettent plus de compenser le faible différentiel de pression : le DSC dépend alors directement de la PPC. Cette limite inférieure d'autorégulation est généralement désignée sous le nom de LLA (\textit{Lower Limit of Autoregulation}). \item Une limite supérieure est progressivement introduite~\cite{paulson1990cerebral}. Celle-ci correspond à la PPC où les sphincters responsables de la vasoconstriction n'exercent pas une force suffisante pour diminuer l'écoulement du sang. Cette limite supérieure d'autorégulation est généralement désignée sous le nom de ULA (\textit{Upper Limit of Autoregulation}). -\item Une seconde cassure inférieure, située en-dessous de la LLA, est parfois mentionnée dans la littérature~\cite{czosnyka2022pro}. Il s'agit de la pression de fermeture critique (\textit{Critical Closing Pressure}, CrCP), correspondant à une PPC où le différentiel de pression s'annule au sein-même du lit vasculaire cérébral. +\item Une seconde cassure inférieure, située en-dessous de la LLA, est parfois mentionnée dans la littérature~\cite{czosnyka2022pro}. Il s'agit de la pression de fermeture critique (\textit{Critical Closing Pressure}, CrCP), correspondant à une PPC où le différentiel de pression s'annule au sein même du lit vasculaire cérébral. \end{itemize} \begin{figure}[h!] @@ -244,7 +244,7 @@ Certains auteurs distinguent l'AC statique, correspondant à des adaptations de \subsection{Caractérisation dans le domaine temporel} -L'étude de l'AC chez les patients cérébrolésés fait l'objet d'un riche corpus d'études rétrospectives reposant sur le calcul d'indices caractéristiques dans le domaine temporel. Les plus utilisés d'entre eux sont des corrélations glissantes entre deux signaux de monitorage, l'un correspondant à la PPC, potentiellement approximée par la PA, et le second à un dérivé du DSC : PIC, VSC, pression partielle en oxygène, \textit{etc}. Le rationnel derrière la définition de ces indices est décrit par la courbe de Lassen : dans la zone d'autorégulation fonctionnelle, les variations de DSC sont amorties par les mécaniques d'AC, et sont donc peu dépendantes des variations de PPC. La corrélation entre la CPP et le dérivé du DSC est donc proche de 0. Au contraire, lorsque les mécanismes d'AC sont détériorés, les variations de PPC sont transmises passivement au DSC. La corrélation s'approche alors de 1. Un seuil pathologique est associé à chacun de ces indices, généralement autour de 0.3, au-delà duquel l'AC est considérée comme inopérante. Ces indices de corrélation glissante sont étroitement liés à la définition d'une valeur de PPC pour laquelle les mécanismes d'AC sont les plus fonctionnels. Cette valeur PPC optimale, notée PPC\textsubscript{opt}, est située entre les deux bornes du plateau d'autorégulation (\textit{i.e.}, la ULA et la LLA). L'algorithme de détermination de la PPC\textsubscript{opt} consiste à tracer le portrait de phase de l'indice d'autorégulation en fonction de la PPC. Une régression quadratique permet alors d'identifier la valeur de PPC\textsubscript{opt} qui minimise l'indice d'autorégulation, et donc maximise l'AC. Les limites du plateau d'autorégulation sont situées aux croisements de la courbe parabolique (désignée dans le littérature sous le nom de \textit{U-shape curve}) avec la droite horizontale d'équation $y$ = 0.3 (ou tout autre seuil considéré comme pathologique). Le schéma de détermination de la PPC\textsubscript{opt} est présenté Figure~\ref{fig:cppopt}. +L'étude de l'AC chez les patients cérébrolésés fait l'objet d'un riche corpus d'études rétrospectives reposant sur le calcul d'indices caractéristiques dans le domaine temporel. Les plus utilisés d'entre eux sont des corrélations glissantes entre deux signaux de monitorage, l'un correspondant à la PPC, potentiellement approximée par la PA, et le second à un dérivé du DSC : PIC, VSC, pression partielle en oxygène, \textit{etc}. Le rationnel derrière la définition de ces indices est décrit par la courbe de Lassen : dans la zone d'autorégulation fonctionnelle, les variations de DSC sont amorties par les mécaniques d'AC, et sont donc peu dépendantes des variations de PPC. La corrélation entre la CPP et le dérivé du DSC est donc proche de 0. Au contraire, lorsque les mécanismes d'AC sont détériorés, les variations de PPC sont transmises passivement au DSC. La corrélation s'approche alors de 1. Un seuil pathologique est associé à chacun de ces indices, généralement autour de 0.3, au-delà duquel l'AC est considérée comme inopérante. Ces indices de corrélation glissante sont étroitement liés à la définition d'une valeur de PPC pour laquelle les mécanismes d'AC sont les plus fonctionnels. Cette valeur PPC optimale, notée PPC\textsubscript{opt}, est située entre les deux bornes du plateau d'autorégulation (\textit{i.e.}, la ULA et la LLA). L'algorithme de détermination de la PPC\textsubscript{opt} consiste à tracer le portrait de phase de l'indice d'autorégulation en fonction de la PPC. Une régression quadratique permet alors d'identifier la valeur de PPC\textsubscript{opt} qui minimise l'indice d'autorégulation, et donc maximise l'AC. Les limites du plateau d'autorégulation sont situées aux croisements de la courbe parabolique (désignée dans le littérature sous le nom de \textit{U-shape curve}) avec la droite horizontale d'équation $y$ = 0.3 (ou tout autre seuil considéré comme pathologique). Le schéma de détermination de la PPC\textsubscript{opt} est présenté Figure~\ref{fig:cppopt}. \begin{figure}[h!] \centering @@ -259,19 +259,17 @@ Parmi ces indices d'autorégulation glissante, il convient de citer : \paragraph{Le Mx (\textit{Mean Flow Index})}. Il correspond à la corrélation glissante entre la CPP et la VSC moyenne~\cite{czosnyka1996monitoring}. La notation \textit{Mxa} est utilisée lorsque la CPP est approximée par la PA. Le seuil pathologique de Mx est généralement situé à 0.3~\cite{lang2002continuous}. Toutefois, dans le cas du Mxa, certains auteurs ont proposé le seuil de 0.45~\cite{schmidt2003symmetry}. Dans la mesure où le Mxa ne nécessite aucun monitorage invasif, cet indice a pu être étudié pour un large éventail de pathologies dépassant le cadre de la neuro-réanimation~\cite{olsen2022reliability}. Dans le cas du TC, différentes études rétrospectives montrent une corrélation significative entre le Mx et la mortalité des patients, et entre le Mx et l'état clinique de sortie~\cite{budohoski2012monitoring}~\cite{schmidt2016autoregulation}. Contrairement aux indices présentés ci-dessous, les paramètres de calcul du Mx ne font pas consensus dans la littérature~\cite{olsen2022reliability}, ce qui pose problème lors de la comparaison des résultats de différentes études, bien que des recommandations sur les paramètres de la fenête glissante tendent à émerger~\cite{kostoglou2024time}. \paragraph{Le PRx (\textit{Pressure Reactivity Index})}. Cet indice est défini comme la corrélation glissante entre les signaux PA et de PIC~\cite{czosnyka1997continuous}. Le standard qui s'est imposé dans la littérature consiste à calculer le PRx à partir des deux signaux échantillonnés à 0.1 Hz sur une fenêtre glissante de 30 valeurs (soit 5 minutes) actualisée toutes les 10 secondes~\cite{tsigaras2023pressure}. Le PRx est un indice basé sur les variations de volume cérébral. Lorsque les mécanismes d'AC sont fonctionnels, une augmentation de la PA provoque une vasoconstriction des artérioles cérébrales de façon à maintenir un DSC constant. Cette vasoconstriction cause une diminution du volume du sanguin cérébral, qui se traduit par une baisse de la PIC. À compliance cérébrale constante, un PRx maintenu nul ou négatif est donc le reflet d'une AC fonctionnelle. Selon les auteurs, le seuil pathologique est fixé entre 0.2 et 0.3~\cite{svedung2023autoregulatory}~\cite{trukhan2022effect}~\cite{needham2017cerebral}. Le PRx est l'indice d'AC le plus fréquemment utilisé en neuro-réanimation~\cite{depreitere2021cerebrovascular}. En effet, le monitorage continu de la PIC et de la PA constituent des standards dans le traitement de patients cérébrolésés~\cite{carney2017guidelines}, et le calcul du PRx ne nécessite aucune intervention supplémentation du praticien une fois les capteurs de PIC et de PA mis en place. Cette facilité d'acquisition des données permet un suivi continu du PRx et de sa PPC\textsubscript{opt} associé. Toutefois, l'allure du portrait de phase entre la PPC et le PRx ne permet systématiquement la détermination d'une PPC\textsubscript{opt}. Différents critères de qualité de la régression quadratique ont été définis (étendue des valeurs de PRx et de PPC observées, R$^{2}$ de la régression quadratique) de façon à s'assurer du sens physique de la valeur de PPC\textsubscript{opt} obtenue. Les auteurs du PRx et développeurs du logiciel de référence ICM+ (Cambridge Enterprise Ltd.) revendiquent aujourd'hui l'affichage d'une PPC\textsubscript{opt} dans plus de 90\% du temps de monitorage~\cite{beqiri2021optimal} contre 55\% du temps initialement~\cite{aries2012continuous}. Cette amélioration est la conséquence de différents artefacts de calcul progressivement développés entre 2002 et 2024~\cite{tsigaras2023pressure}. Comme le calcul de la PPC\textsubscript{opt} repose uniquement sur des variations spontanées de la PPC, un minimum de 4h de monitorage est nécessaire avant l'affichage d'une valeur de PPC\textsubscript{opt}. -\par Du fait de la relative facilité d'acquisition des données, de nombreuses études rétrospectives ont analysé les corrélations entre le PRx, l'écart à la PPC\textsubscript{opt} calculé et le devenir des patients cérébrolésés. Une asymétrie de tolérance de l'écart aux cibles de PPC semble se dégager. Ainsi, le pourcentage du temps de monitorage passé en-dessous de la LLA estimée au moyen du PRx a été significativement corrélé à une plus forte mortalité et à de moins bons \textit{outcomes}~\cite{donnelly2017individualizing}. D'autres études montrent des résultats similaires pour le temps passé en-dessous de la PPC\textsubscript{opt}~\cite{kramer2019continuous}~\cite{bogli2025cerebral}. En 2021, l'étude prospective COGiTATe~\cite{tas2021targeting} incluant 60 patients testait la sécurité du protocole de définition de la PPC\textsubscript{opt} définie au moyen du PRx. Les participants étaient répartis aléatoirement en deux cohortes. Pour la première d'entre elles (le groupe contrôle), la PPC était maintenue entre 60 et 70 mmHg, selon les recommandations actuelles~\cite{carney2017guidelines}, tandis que la seconde(le groupe d'intervention) bénéficiait d'une cible de PPC personnalisée par le biais du calcul d'une PPC\textsubscript{opt}. L'étude s'est conclue sur un plus faible taux de mortalité parmi le groupe d'intervention, ainsi qu'un meilleur score GOS à 6 mois, sans pour autant que ces différences ne soient significative. COGiTATe a cependant permis de confirmer la sécurité du protocole basé sur la PPC\textsubscript{opt} ; en effet, les scores d'intensité thérapeutiques (TIL) se sont révélés comparables dans les deux cohortes. Par la suite, certaines nuances sur le protocole de définition de la PPC\textsubscript{opt} ont été apportées par des études rétrospectives. En particulier, chez les patients de plus de 65 ans, un PRx négatif n'est pas corrélé avec un meilleur \textit{outcome}~\cite{lenell2024cerebrovascular}. Le protocole classique de définition de la PPC\textsubscript{opt} semble également perdre de sa pertinence pour les patients présentant de sévères contusions~\cite{svedung2024should}. +\par Du fait de la relative facilité d'acquisition des données, de nombreuses études rétrospectives ont analysé les corrélations entre le PRx, l'écart à la PPC\textsubscript{opt} calculé et le devenir des patients cérébrolésés. Une asymétrie de tolérance de l'écart aux cibles de PPC semble se dégager. Ainsi, le pourcentage du temps de monitorage passé en-dessous de la LLA estimée au moyen du PRx a été significativement corrélé à une plus forte mortalité et à de moins bons \textit{outcomes}~\cite{donnelly2017individualizing}. D'autres études montrent des résultats similaires pour le temps passé en-dessous de la PPC\textsubscript{opt}~\cite{kramer2019continuous}~\cite{bogli2025cerebral}. En 2021, l'étude prospective COGiTATe~\cite{tas2021targeting} incluant 60 patients testait la sécurité du protocole de définition de la PPC\textsubscript{opt} définie au moyen du PRx. Les participants étaient répartis aléatoirement en deux cohortes. Pour la première d'entre elles (le groupe contrôle), la PPC était maintenue entre 60 et 70 mmHg, selon les recommandations actuelles~\cite{carney2017guidelines}, tandis que la seconde(le groupe d'intervention) bénéficiait d'une cible de PPC personnalisée par le biais du calcul d'une PPC\textsubscript{opt}. L'étude s'est conclue sur un plus faible taux de mortalité parmi le groupe d'intervention, ainsi qu'un meilleur score GOS à 6 mois, sans pour autant que ces différences ne soient significatives. COGiTATe a cependant permis de confirmer la sécurité du protocole basé sur la PPC\textsubscript{opt} ; en effet, les scores d'intensité thérapeutiques (TIL) se sont révélés comparables dans les deux cohortes. Par la suite, certaines nuances sur le protocole de définition de la PPC\textsubscript{opt} ont été apportées par des études rétrospectives. En particulier, chez les patients de plus de 65 ans, un PRx négatif n'est pas corrélé avec un meilleur \textit{outcome}~\cite{lenell2024cerebrovascular}. Le protocole classique de définition de la PPC\textsubscript{opt} semble également perdre de sa pertinence pour les patients présentant de sévères contusions~\cite{svedung2024should}. -\paragraph{Les indicateurs dérivés du PRx.} Différentes variantes du PRx ont été définies dans des contextes particuliers. En premier lieu, plusieurs versions du PRx à plus basse résolution (\textit{(ultra) low-frequency PRx, (U)L-PRx}), utilisant des valeurs de PIC et de PA moyennées de 1 à 5 min, pour des fenêtres de temps allant de 10 à 120 min, ont été proposées dans la littérature~\cite{hong2024critical}. L'objectif affiché est de réduire l'espace de stockage nécessaire au calcul des mesures d'AC. Ces L-PRx présentent un pouvoir pronostic moindre que le PRx classique, mais toujours significatif~\cite{riemann2020low}. Deux dérivés du PRx proposent d'exploiter l'amplitude du signal de la PIC : le PAx (corrélation PA - AMP) et le RAC (corrélation PPC - AMP). L'intérêt des ces indices, bien que moins discriminants que le PRx dans l'identification de la LLA~\cite{zeiler2018validation}, réside dans la possibilité d'utiliser un monitorage non-invasif de la PIC pour le calcul de l'AMP~\cite{hassett2023assessment}. Une version du PRx basée sur la transformée en ondelettes (\textit{wavelet PRx}, wPRx) a été également été étudiée. Le wPRx correspond au cosinus du déphasage mesuré entre les signaux de PIC et de PA sur une plage de fréquence allant de 0.0067 Hz à 0.05 Hz. Dans le contexte d'une étude rétrospective incluant 515 cas de TC, le wPRx a présenté un meilleur pouvoir pronostic et une plus grande stabilité temporelle que le PRx~\cite{liu2017cerebrovascular}. L'utilisation d'ondelettes implique cependant une complexité calculatoire plus importante. +\paragraph{Les indicateurs dérivés du PRx.} Différentes variantes du PRx ont été définies dans des contextes particuliers. En premier lieu, plusieurs versions du PRx à plus basse résolution (\textit{(ultra) low-frequency PRx, (U)L-PRx}), utilisant des valeurs de PIC et de PA moyennées de 1 à 5 min, pour des fenêtres de temps allant de 10 à 120 min, ont été proposées dans la littérature~\cite{hong2024critical}. L'objectif affiché est de réduire l'espace de stockage nécessaire au calcul des mesures d'AC. Ces L-PRx présentent un pouvoir pronostic moindre que le PRx classique, mais toujours significatif~\cite{riemann2020low}. Deux dérivés du PRx proposent d'exploiter l'amplitude du signal de la PIC : le PAx (corrélation PA - AMP) et le RAC (corrélation PPC - AMP). L'intérêt des ces indices, bien que moins discriminants que le PRx dans l'identification de la LLA~\cite{zeiler2018validation}, réside dans la possibilité d'utiliser un monitorage non-invasif de la PIC pour le calcul de l'AMP~\cite{hassett2023assessment}. Une version du PRx basée sur la transformée en ondelettes (\textit{wavelet PRx}, wPRx) a été également été étudiée. Le wPRx correspond au cosinus du déphasage mesuré entre les signaux de PIC et de PA sur une plage de fréquence allant de 0.0067 Hz à 0.05 Hz. Dans le contexte d'une étude rétrospective incluant 515 cas de TC, le wPRx a présenté un meilleur pouvoir pronostique et une plus grande stabilité temporelle que le PRx~\cite{liu2017cerebrovascular}. L'utilisation d'ondelettes implique cependant une complexité calculatoire plus importante. -\par Plusieurs critiques peuvent être adressées aux méthodologies basées sur les indices de corrélations glissantes. En premier lieu, ceux-ci sont par nature sujet à un fort bruit de mesure~\cite{motroni2024reliability}; leur prise en compte dans la prise de décision thérapeutique nécessite donc plusieurs heures de monitorage~\cite{beqiri2021optimal}. De plus, ceux-ci s'appuient sur des variations spontanées des variations de PPC. Les artefacts de mesure doivent donc être soigneusement identifiés par les praticiens de façon à ce qu'ils ne soient pas pris en compte dans le calcul du plateau d'autorégulation~\cite{ayasse2023cerebral}. Le calcul de la PPC\textsubscript{opt} est largement dépendant de l'implémentation de l'algorithme utilisé : en 2024, Plourde \textit{et al.} reportaient une étude de cas où deux logiciels d'estimation continue de la PPC\textsubscript{opt} différaient de plus de 10mmHg dans plus de 50\% du temps de monitorage~\cite{plourde2024variations}. Enfin, le corpus de preuves, bien que conséquent, s'appuie exclusivement sur la mortalité et/ou le devenir des patients en sortie de neuro-réanimation, sans établir formellement un lien entre les indices de corrélation et les mécanismes physiologiques dont ils sont censés être les reflets. +\par Plusieurs critiques peuvent être adressées aux méthodologies basées sur les indices de corrélations glissantes. En premier lieu, ceux-ci sont par nature sujet à un fort bruit de mesure~\cite{motroni2024reliability}~;~leur prise en compte dans la prise de décision thérapeutique nécessite donc plusieurs heures de monitorage~\cite{beqiri2021optimal}. De plus, ceux-ci s'appuient sur des variations spontanées des variations de PPC. Les artefacts de mesure doivent donc être soigneusement identifiés par les praticiens de façon à ce qu'ils ne soient pas pris en compte dans le calcul du plateau d'autorégulation~\cite{ayasse2023cerebral}. Le calcul de la PPC\textsubscript{opt} est largement dépendant de l'implémentation de l'algorithme utilisé ~;~en 2024, Plourde \textit{et al.} reportaient une étude de cas où deux logiciels d'estimation continue de la PPC\textsubscript{opt} différaient de plus de 10mmHg dans plus de 50\% du temps de monitorage~\cite{plourde2024variations}. Enfin, le corpus de preuves, bien que conséquent, s'appuie exclusivement sur la mortalité et/ou le devenir des patients en sortie de neuro-réanimation, sans établir formellement un lien entre les indices de corrélation et les mécanismes physiologiques dont ils sont censés être les reflets. \par D'autres indices d'AC ont été proposés dans le domaine temporel. Ceux-ci, moins répandus, s'appuient sur des formulations mathématiques plus complexes qu'une simple corrélation~\cite{kostoglou2024awhite}. En particulier, l'analyse pression-débit multimodale (\textit{Multimodel Pressure-Flow Analysis}, MMPF) consiste à calculer le déphasage instantané entre le signal de PIC et de PA à différentes échelles de temps, au moyen de la transformée de Hilbert-Huang (c'est-à-dire de l'application de la transformée de Hilbert aux différentes IMFs obtenues par EMD)~\cite{lo2008multimodal}. Ces méthodes s'inspirent directement des caractérisation de l'AC effectuées dans le domaine fréquentiel. \subsection{Caractérisation dans le domaine fréquentiel} -Du fait du délai du mécanisme de réactivité myogénique, l'AC produit joue le rôle d'un filtre passe- -bas entre les variations de PA systémique et les variations de DSC. L'étude de l'AC dans le domaine -fréquentiel repose alors sur l'analyse de la fonction de transert (\textit{Transfer Function Analysis}, TFA) entre un signal d'entrée, correspondant à la CPP possiblement approximée par la PA, et un signal de sortie, classiquement le signal de DSC. Plus formellement, on définit le cross-spectre $S_{XY}$ de deux signaux $X$ et $Y$ par la relation +Du fait du délai du mécanisme de réactivité myogénique, l'AC produit joue le rôle d'un filtre passe-bas entre les variations de PA systémique et les variations de DSC. L'étude de l'AC dans le domaine fréquentiel repose alors sur l'analyse de la fonction de transfert (\textit{Transfer Function Analysis}, TFA) entre un signal d'entrée, correspondant à la CPP possiblement approximée par la PA, et un signal de sortie, classiquement le signal de DSC. Plus formellement, on définit le cross-spectre $S_{XY}$ de deux signaux $X$ et $Y$ par la relation \begin{equation} S_{XY} = \hat{X} \cdot \hat{Y}^{*} \end{equation} @@ -282,7 +280,7 @@ où $\hat{X}$ désigne la transformée de Fourier de $X$, $Y^{*}$ le conjugué c permet de quantifier l'amortissement des variations de CPP transmises à la VSC du fait des mécanismes d'AC. \item Le déphasage, défini par la relation $\Phi = arctan\frac{Im(H_{PPC \rightarrow VSC})}{Re(H_{PPC \rightarrow VSC})}$ est exprimé en radians. Du fait de l'amortissement des variations de VSC par les mécanismes d'AC, la VSC revient plus rapidement à son niveau initial que la CPP lorsque cette dernière subit des perturbations~\cite{claassen2021regulation}. Les signaux d'entrée et de sortie observent donc une désynchronisation quantifiée par le déphasage. -\item La transformée de Fourier décomposant un signal donné en une combinaison linéaire de fonctions sinusoïdes, la fonction de transfert $H$ ne peut décrire que les interactions linéaires existant entre le signal d'entrée et le signal de sortie. La cohérence $\frac{C_{XY}^{2}}{C_{XX}C_{YY}}$, comparable à la corrélation de Pearson dans le domaine fréquentiel, permet de quantifier la linéarité de la relation observée entre deux signaux $X$ et $Y$ . En pratique, la cohérence peut être utilisée de deux façons : soit comme un indicateur en soi du fonctionnement de l'AC --- une cohérence proche de 0 indique alors des mécanismes d'AC préservés, soit comme un outil de validation des mesures de gain et de déphasage décrites ci-dessus. Selon le temps de mesure disponible, différents seuils decohérence minimale ont été définis de façon à s'assurer du sens physique de la TFA~\cite{panerai2023transfer}. +\item La transformée de Fourier décomposant un signal donné en une combinaison linéaire de fonctions sinusoïdes, la fonction de transfert $H$ ne peut décrire que les interactions linéaires existant entre le signal d'entrée et le signal de sortie. La cohérence $\frac{C_{XY}^{2}}{C_{XX}C_{YY}}$, comparable à la corrélation de Pearson dans le domaine fréquentiel, permet de quantifier la linéarité de la relation observée entre deux signaux $X$ et $Y$ . En pratique, la cohérence peut être utilisée de deux façons : soit comme un indicateur en soi du fonctionnement de l'AC ---une cohérence proche de 0 indique alors des mécanismes d'AC préservés, soit comme un outil de validation des mesures de gain et de déphasage décrites ci-dessus. Selon le temps de mesure disponible, différents seuils de cohérence minimale ont été définis de façon à s'assurer du sens physique de la TFA~\cite{panerai2023transfer}. \end{itemize} L'avantage de la TFA est de pouvoir comparer la qualité de l'AC à différentes échelles de temps. En particulier, du fait du délai d'activation des mécanismes myogéniques, les oscillations de fréquence supérieure à environ 0.5 Hz sont transmises passivement de la CPP à la VSC. Ce seuil correspond donc à une augmentation du gain, une diminution du déphasage et une augmentation de la cohérence dans les hautes fréquences. En pratique, il est recommandé de présenter les résultats de la TFA dans trois plages de fréquences : de 0.02 à 0.07 Hz (très basses fréquences), de 0.07 à 0.2 Hz (basses fréquences) et de 0.2 à 0.5 Hz (hautes fréquences). Les résultats peuvent de plus être agrégés dans tout le domaine d'étude classique de l'AC, c'est-à-dire de 0.02 à 0.5 Hz. Ceux-ci peuvent alors être comparés aux différentes valeurs de référence obtenues dans de larges cohortes de patients sains~\cite{panerai2023transfer}.