mecanique.tex
63.9 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
\section{Outils d'analyse du signal}
Les composantes du signal de PIC peuvent être isolées au moyen de méthodes de différentes méthodes de décomposition. Dans la littérature, deux grandes familles d'algorithmes sont identifiables. La première correspond aux décompositions linéaires issues de la transformée de Fourier ; la seconde, plus récente, regroupe la décomposition en modes empiriques (\textit{Empirical Mode Decomposition}, EMD) et ses dérivés. Pour la suite, on considère un signal $s \in L^{2}({\mathbb{R})}$.
\subsection{Décompositions linéaires}
\subsubsection{Analyse de Fourier}
Un signal $s$ de longueur $N$ peut être étudié dans le domaine fréquentiel par le biais de sa transformée de Fourier :
\begin{equation}
\hat{s}(\xi) = \int_{\mathbb{R}}s(t)exp(-i\xi t) \, dt
\end{equation}
Celle-ci est discrétisée de la façon suivante dans un contexte de calcul numérique :
\begin{equation}
\hat{s}(\xi) = \sum_{n=0}^{M-1}exp(-i2\pi n\xi /M), \xi \in [\![0;M-1]\!]
\end{equation}
où $M \geq N$ est généralement choisi parmi les puissances de 2 par soucis d'efficacité calculatoire.
\par L'analyse de Fourier est historiquement un outil de choix pour l'analyse du signal de PIC~\cite{czosnyka2004monitoring}, du fait que ses nombreuses composantes interviennent à des échelles de temps distinctes. De plus, le passage au domaine fréquentiel demande peu de ressources calculatoires(complexité temporelle de l'algorithme de transformée de Fourier rapide en $O(Nlog(N)$). L'analyse fréquentielle est tout particulièrement utilisée pour caractériser les interactions entre le signal de PIC et d'autres signaux de monitorage par l'étude de transfert spectrales(\textit{transfer fonction analysis}, TFA). Ces méthodes font notamment l'objet d'une riche littérature traitant de l'autorégulation cérébrale (voir section~\ref{autoregulation}).
\par Cependant, certaines précautions doivent être prises lors de l'analyse du spectre obtenu \cite{huang1998empirical}. Les fréquences calculées étant issues d'une base algébrique de fonctions sinusoïdes, seules les interactions linéaires entre les différentes composantes du signal de PIC peuvent être fidèlement décrites. De plus, le signal décomposé est supposé stationnaire, c'est-à-dire qu'à chaque instant $t$:
\begin{enumerate}
\item{$E(\|s(t^2)\|) < \infty$,}
\item{$E(s(t)) = $ constante,}
\item{$Cov(s(t1), s(t2)) = Cov(s(t1 + \delta), s(t1 + \delta)) = Cov(t1 - t2)$}
\end{enumerate}
où $Cov(\cdot)$ désigne la fonction covariance. En pratique, si ces propriétés sont difficilement vérifiables formellement, les artefacts calculatoires liés aux problèmes de stationnarité sont limités en combinant plusieurs spectres fréquentiels estimés sur une fenêtre de temps glissante (méthode de Welch)~\cite{garcia2013spectral}. La sensibilité des résultats à la fenêtre de temps utilisée nécessite alors de définir certains standards de façon à rendre comparables les résultats de différentes études~\cite{meel2014between}.
\subsubsection{Décomposition en ondelettes}
La transformée continue en ondelettes (\textit{wavelets}, CWT) est une extension à l'analyse de Fourier plus robuste à l'étude de signaux non-stationnaire, en proposition une décomposition du signal dans le plan temps-fréquences. Formellement, un coefficient $\tilde(s)$ est calculé à chaque instant $t$ et pour un facteur d'échelle $a$:
\begin{equation}
\tilde{s}(a, t) = \frac{1}{\sqrt{\|a\|}}\int_{\mathbb{R}}s(t)\psi(\frac{\tau - t}{a}) \, d\tau
\end{equation}
où $\psi$ désigne la fonction ondelette utilisée. Le signal d'origine est alors décrit comme une combinaison linéaire de dilatations et de translations de la fonction $psi$. En pratique, l'analyse du signal de PIC univarié par CWT fait l'objet d'une littérature plus restreinte que pour l'analyse de Fourier classique. Ses applications concernent principalement l'identification d'artefacts~\cite{megjhani2023automatic}~\cite{feng2011artifact}. L'utilisation d'ondelettes est davantage répandue pour caractériser l'autorégulation cérébrale à partir d'un monitorage multivarié incluant PIC, PA et/ou TCD (voir section~\ref{autoregulation}).
\subsection{Décompositions en modes}
Les algorithmes de décomposition en modes (ADM) regroupent une vaste famille d'algorithmes dérivés de la publication originale de Huang \textit{et al.} introduisant la décomposition en modes empiriques (\textit{Empirical Mode Decomposition}, EMD)\cite{huang1998empirical}. L'idée proposée est de décomposer un signal donné en oscillations élémentaires qui ne soient pas issus d'une base vectorielle prédéfinie \textit{a priori}, comme dans le cas de la transformée de Fourier et de ses différentes généralisations. Ce changement de paradigme a pour objectif de développer un outil adapté à l'étude de signaux non-stationnaires (c'est-à-dire, d'espérance et de variance variables dans le temps) et/ou résultant de la combinaison non-linéaire de différentes composantes. Ainsi, ces algorithmes extraient de façon itérative des fonctions de mode intrinsèques (\textit{intrinsic mode functions}, IMFs) du signal de base, oscillations élémentaires spécifiques à un signal respectant les propriétés suivantes :
\begin{enumerate}
\item Le nombre d'extrema et le nombre de traversées de l'axe des abscisses doivent différer au plus de 1 (ou, par équivalence : tous les maxima locaux doivent être strictement positifs et tous les minima locaux doivent être strictement négatifs).
\item En tout point, la moyenne de l'enveloppe définie par les maxima locaux et les minima locaux être égale à 0.
\end{enumerate}
Dans la pratique, une IMF est donc une fonction pseudo-périodique localement symétrique par rapport à l'axe des abscisses, dont la durée et l'amplitude des oscillations peuvent varier au cours du temps. En gardant à l'esprit que les ADMs sont conçus pour l'étude de signaux non-stationnaires, ces propriétés sont utiles par la suite pour définir les notions d'amplitude et de fréquences locales, voire instantanées, que les définitions classiques ne peuvent couvrir du fait du principe d'indétermination temps-fréquence. Cependant, cette flexibilité implique la perte de certaines propriétés des méthodes linéaires. Dans le cas général, pour deux signaux $s$ et $z$ et un $ADM$ quelconque, $ADM(s + z) \neq ADM(s) + ADM(z)$. L'unicité de la décomposition en IMFs n'est pas non plus assurée : plusieurs décompositions valides peuvent être obtenues à partir d'un même signal. Enfin, l'orthogonalité des IMFs extraites et la conservation de l'énergie du signal initial dépendent des ADMs.
\subsubsection{Décomposition en modes empiriques}
\paragraph{Formulation.} En 1998, Huang \textit{et al.} proposent l'EMD pour extraire itérativement les IMFS d'un signal~\cite{huang1998empirical}. Celle-ci repose sur le calcul d'enveloppes du signal, qui correspondent à une interpolation cubique entre les différents maxima (minima) locaux. La méthode d'extraction des IMFs est décrite dans l'algorithme~\ref{algo:EMD}.
\begin{algorithm}[h!]
\label{algo:EMD}
\caption{Décomposition en modes empiriques (EMD)}
\Entree{signal \textit{s}}
\Sortie{ensemble d'IMFs}
IMFs = \{\}\;
\Tq{le nombre d'extrema de $s \leq 2$}{
{
$e_{+} \leftarrow$ enveloppe supérieure de $s$\;
$e_{-} \leftarrow$ enveloppe inférieure de $s$\;
$ m \leftarrow (e_{-} + e_{+} )/ 2 $\;
\Tq{$m$ n'est pas accepté comme IMF}{
$e_{+} \leftarrow$ enveloppe supérieure de $s - m$\;
$e_{-} \leftarrow$ enveloppe inférieure de $s - m$\;
$ m \leftarrow (e_{-} + e_{+} ) / 2 $\;
}
$ IMFs \leftarrow IMFs \cup \{m\} $\;
$ s \leftarrow s - m $\;
}
}
\end{algorithm}
Bien que jamais mise en défaut en pratique, la convergence de la procédure d'extraction d'une IMF n'a jamais pu être démontrée, limitant de fait l'étude des propriétés mathématiques de l'EMD~\cite{ge2018theoretical}. Ces travaux précurseurs ont cependant donné lieu à de très nombreuses extensions, notamment dans les domaines complexes, multivariés et multidimensionnels~\cite{barbosh2020empirical}. L'EMD a été adoptée dans différents domaines d'application impliquant des signaux non-stationnaires et/ou des systèmes non-linéaires, de la sismologie~\cite{chen2022seismic} à l'étude d'électroencéphalogrammes~\cite{munoz2018localization}. En ce qui concerne l'analyse du signal de PIC, l'EMD a principalement été utilisée en tant que pré-traitement pour la suppression d'irrégularités ponctuelles~\cite{martinez2021empirical}~\cite{dai2020intracranial}. Certaines évolutions de l'algorithme original visent à contourner des limitations de l'EMD bien identifiées dans la littérature, publication originale comprise. Parmi les problématiques les plus saillantes~\cite{de2022survey}, il convient de citer:
\begin{itemize}
\item Le mélange des modes (\textit{mode mixing}) : ce problème correspond aux situations où deux composantes de fréquences distinctes sont contenues dans une même IMF. Rilling et Flandrin~\cite{rilling2007one} ont étudié formellement le problème pour deux composantes sinusoïdales en faisant varier les ratios d'amplitude et de fréquences. Pour ce modèle en particulier, en notant $a$ le ratio des amplitudes et $f$ le ratio des fréquences, la capacité de séparation de l'EMD est limitée à des couples d'oscillations pour lesquelles $f$ < ~0.6 et $a < 1/f$. Différentes corrections ont été proposées pour limiter ce problème de façon empirique. En particulier, l'EMD d'ensemble (\textit{Ensemble EMD}, E-EMD) consiste à répéter plusieurs fois l'algorithme de $sift$ en perturbant légèrement le signal initial au moyen d'un bruit aléatoire, et de prendre les IMFs médianes des différentes décompositions obtenues.
\item Le fractionnement des modes (\textit{mode splitting}) : une même composante fréquentielle peut être fractionnée sur plusieurs IMFs adjacentes si les conditions d'acceptation d'une IMF sont trop contraignantes~\cite{xu2016study}. De nombreux critères ont été proposés dans la littérature, comme la différence dans le nombre d'extrema entre deux itérations~\cite{huang2003confidence} ou l'orthogonalité avec le signal avant extraction~\cite{huang1998empirical}. Cependant, comme l'existence d'une limite explicite vers laquelle tendrait le processus d'extraction n'a pas été prouvée, il reste peu aisé d'exhiber un critère d'arrêt optimal.
\item Les effets des extrémités : le calcul des enveloppes, basé sur une interpolation entre les différents extrema, est perturbé au début et à la fin du signal. L'erreur introduite, difficile à quantifier, dépend des implémentations du calcul des enveloppes. Les différentes solutions proposées consistent globalement à étendre le signal à ses extrémités de manière plus ou moins complexe~\cite{zare2023end}.
\end{itemize}
\paragraph{Fréquences instantanées.} Les propriétés vérifiées par les IMFs ont été choisies de façon à définir des fréquences instantanées par le biais de la transformée de Hilbert, s'affranchissant ainsi du principe d'incertitude temps-fréquence inhérent à l'analyse de Fourier et ses dérivés. La transformée de Hilbert $H$ est définie telle que :
\begin{equation}
\mathcal{H}(s)(x) = \frac{1}{\pi} v.p. \int_{\mathbb{R}} \frac{s(\tau)}{x-\tau}\, d\tau
\end{equation}
où $v.p.$ désigne la valeur principale de Cauchy. La transformée de Hilbert est plus facilement calculée dans le domaine fréquentiel, celle-ci revient à multiplier par $i$ les termes de fréquences négative et $-i$ les termes de fréquences positive:
\begin{equation}
\widehat{\mathcal{H}(s)}(\xi) = -i\text{ sign}(\xi)\cdot \hat{s}({\xi})
\end{equation}
La transformée de Hilbert prolonge un signal réel $X$ en un signal analytique $Z$ dans le plan complexe tel que $\mathcal{H}(X) = Z : t \rightarrow X(t) + iY(t) = a(t)e^{i\phi(t)}$. En considérant la forme exponentielle du signal analytique $Z(t) = a(t)e^{i\phi(t)}$, l'amplitude instantanée est correspond au terme $a(t)$, la phase instantanée au terme $\phi(t)$ et la fréquence instantanée $\omega(t)$ à la dérivée $\frac{d\phi(t)}{dt}$. Les propriétés des IMFs permettent de conserver certaines caractéristiques de la définition classique de la fréquence, par exemple d'obtenir une fréquence instantanée constante pour une IMF parfaitement sinusoïdale.
\paragraph{Spectre de Hilbert.} En appliquant la transformée de Hilbert à chacune des $n$ IMFs extraites d'un signal $s$, on obtient la relation
\begin{equation}
s(t) = \text{Re}{\sum_{k=1}^{n}a_{k}(t)e^{i\phi(t)}}
\end{equation}
où Re désigne la fonction partie réelle. Par analogie avec la transformée de Fourier, il est possible de définir un spectre bivarié temps-fréquence, ou spectre de Hilbert tel que pour une temps $t$ et une fréquence $\omega$ :
\begin{equation}
H(\omega, t) = \sum_{k=1}^{n}a_{k}(t)e^{i\int\omega_{k}(t)\,dt}
\end{equation}
En divisant le plan (temps, fréquences) en rectangles de dimensions $\delta t, \delta \xi$, la densité spectrale $S$ est définie pour le rectangle de coordonnées $a,b$ par:
\begin{equation}
S_{a,b} = \frac{1}{\Delta t \times \Delta \omega} ( \sum a_k^2(t) : t \in ( t_a - \frac{\Delta t}{2}, t_a + \frac{\Delta t}{2}), \omega \in ( \omega_b - \frac{\Delta \omega}{2}, \omega_b + \frac{\Delta \omega}{2}))
\end{equation}
Les graphiques obtenus à partir du spectre de Hilbert permettent ainsi de suivre l'évolution du contenu fréquentiel d'un signal non-stationnaire.
\subsubsection{Filtrage itératif}
\paragraph{Formulation.} Pour pallier aux différents manquements théoriques de l'EMD, la méthode du filtrage itératif (\textit{Iterative Filtering}, IF) a été proposée en 2009~\cite{lin2009iterative}. Cette décomposition reprend le principe de construction itérative d'IMFs, en utilisant cette fois des moyennes glissantes à la place des enveloppes pour le processus d'extraction. L'algorithme est présenté ici dans sa version rapide (\textit{Fast Iterative Filtering}, FIF, voir algorithme~\ref{algo:FIF}), accélérée en effectuant les opérations de convolution dans le domaine fréquentiel. Le processus de FIF est d'une complexité en temps comparable à l'EMD, en $O(nlog(n))$, où $n$ est la taille du signal décomposé, contre $O(n^{2})$ pour la version IF.
\begin{algorithm}[h!]
\label{algo:FIF}
\caption{Filtrage itératif rapide (FIF)}
\Entree{signal \textit{s}}
\Sortie{ensemble d'IMFs}
IMFs = \{\}\;
\Tq{le nombre d'extrema de $s \leq 2$}{
{
Déterminer un filtre $w$ de taille $L$;
$\hat{s} \leftarrow dft(s)$\;
$\hat{w} \leftarrow dft(w)$\;
$m \leftarrow 1$\;
$\hat{s}_{m} \leftarrow \hat{s}$\;
\Tq{$s_{m}$ n'est pas accepté comme IMF}{
$\hat{s}_{m} = I - \text{diag}(\hat{w})^{m}\hat{s}$\;
$ m \leftarrow m+ 1 $\;
}
$ IMFs \leftarrow IMFs \cup \{s_{m}\} $\;
$ s \leftarrow s - idft(s_{m}) $\;
}
}
\end{algorithm}
Le processus de (F)IF peut être adapté au signal étudié en jouant sur les coefficients des moyennes glissantes -c'est à dire les filtres- utilisés. Une analyse théorique poussée du processus de (F)IF est rendue possible par l'existence d'une limite explicite au processus d'extraction $\mathcal{M}$ de la première IMF:
\begin{equation}
\label{eq:IMF}
IMF_{1} = \underset{n \rightarrow \infty}{M^{n}}(s)(x) =
\int_{\mathbb{R}} \hat{s}(\xi)\chi_{\{\hat{w}(\xi=0)\}}e^{i2\pi\xi x} \,d\xi
\end{equation}
où $\hat{s}$ désigne la transformée de Fourier du signal $s$ et $\hat{w}$ la transformée de Fourier du filtre $w$. La limite décrite dans l'équation \ref{eq:IMF} est garantie pour un filtre pair, positif, à support compact dans $\mathbb{R}$ et de somme 1.
La décomposition est rendue non-linéaire par la définition d'un nouveau filtre à chaque début d'extraction d'une IMF. Si le choix des coefficients et de la taille du filtre revient à l'utilisateur, les auteurs recommandent de calculer la taille $L$ d'un filtre à partir de l'espacement moyen entre deux extrema consécutifs selon la formule : $L = 2\lfloor \nu \frac{\text{taille du signal}}{\text{nombre d'extrema}} \rfloor$, où $\nu$ est un paramètre à déterminer, généralement entre 1 et 2~\cite{cicone2022multivariate}. Différentes propriétés du processus de (F)IF ont pu être étudiées théoriquement. En particulier:
\begin{itemize}
\item Séparation des fréquences : pourvu que la taille du filtre soit choisie de façon appropriée, le procédure de FIF peut séparer deux signaux sinusoïdaux purs de fréquences aussi proches que souhaité tant que $f < 1 - \frac{1}{n}$, où $f$ est le ratio des fréquences et $n$ la longueur des signaux en nombre de périodes.
\item Conservation de l'énergie : la transformée de Fourier vérifie, dans le cas discret, la propriété $\sum_{n=0}^{N-1} \|s(n)\|^{2} = \frac{1}{N}\sum_{\xi} \|\hat{s}(\xi)\|^{2}$ (Théorème de Parseval-Plancherel). En comparaison, la procédure de (F)IF conserve l'énergie de Fourier de norme 1: $E_{1}(s) = \sum_{\xi}\hat{s}(\xi)$ \cite{cicone2024new}.
\item Orthogonalité des IMFs : comme pour l'EMD et ses dérivées, l'exacte orthogonalité ne peut pas être garantie dans le cas général, les IMFs n'étant pas générées dans un espace vectoriel prédéfini. Différentes analyses numériques montrent cependant qu'en pratique, les IMFs extraites par EMD comme par IMFs sont quasi-orthogonales, le choix de la taille des filtres pouvant même faire l'objet d'une optimisation à ce sujet~\cite{chen2023filter}.
\item Effets des extrémités : la procédure de FIF suppose une périodicité du signal à ses extrémités~\cite{cicone2021numerical}. Dans le cas contraire, des artefacts de calcul apparaissent de façon quantifiable aux bornes des IMFs extraites, en particulier dans les basses fréquences. Les auteurs préconisent d'étendre le signal à ses extrémités en jouant sur des symétries de façon à introduire une périodicité aux bornes du signal traité~\cite{cicone2020study}.
\end{itemize}
\paragraph{IMFogramme.}
Les méthodes de calcul de fréquences instantanées basées sur la transformée de Hilbert peuvent également s'appliquer aux IMFs extraites par (F)IF, les auteurs proposent une autre représentation temps-fréquence n'impliquant pas de prolongation du signal dans le plan complexe~\cite{cicone2024new}. Celle-ci suppose cependant l'absence de modulation du signal à l'échelle d'une période.
\begin{itemize}
\item amplitude instantanée : soit $g$ une interpolation (linéaire par exemple) des maxima locaux de la valeur absolue d'une IMF. L'amplitude instantanée de cette IMF est alors définie telle que $A : t \rightarrow max(g(t), IMF(t))$.
\item fréquence instantanée : soient $(z_{k})_{k=1}^{p}$ les positions des $p$ croisements d'une IMF avec l'axe des abscisses. On note $y_{k} = \frac{1}{z_{k+1}}$ l'inverse de la durée de la $k$-ème demi-oscillation. La fréquence instantanée de cette IMF de taille N est définie par l'interpolation (linéaire par exemple) de la fonction $f : k \rightarrow 2y_{k}$ sur l'intervalle $[z_{0}, z_{p-1}]$. La fréquence instantanée peut être prolongée sur l'ensemble de l'IMF en posant $z_{0} = 1$ et $z_{p+1} = N$.
\end{itemize}
L'IMFogramme (\textit{Imfrogram}) est une représentation obtenue sur le plan (temps, fréquences) séparé en rectangles de dimensions $\Delta t \times \Delta f$. La valeur de chaque rectangle correspond à la somme des amplitudes moyennes de chacune des IMFs sur ce rectangle.
\section{Monitorage de la compliance cérébrale}
\label{CC}
La compliance cérébrale correspond à la relation pression-volume régnant au sein de la boîte crânienne. En d'autre termes, la compliance cérébrale décrit la capacité du système à modérer l'augmentation de la PIC en réponse à une augmentation du volume cérébral ~\cite{ocamoto2021intracranial}. Ce concept est décrit dans la littérature scientifique par le biais de nombreux termes plus ou moins synonymes : différents auteurs parlent ainsi de "compliance intracrânienne" (\textit{intracranial compliance}), de "réserve compensatoire" (\textit{compensatory reserve}), ou simplement de "relation pression-volume" (\textit{pressure-volume relationship}). De plus, certaines études préfèrent travailler sur le concept inverse d'élastance intracrânienne (\textit{intracranial elastance}). Différents mécanismes de compliance cérébrale peuvent être mis en jeu selon l'échelle de temps, la gravité et le type d'atteinte du système cérébrospinal. \`A des échelles de temps courtes, les volumes LCS, de sang et de liquide interstitiel constituent des réserve de compliance rapidement disponibles \cite{kim2009monitoring}. Dans le cas de traumatismes graves et d'hématomes volumineux, la compensation est également effectuée par une diminution conjointe du volume des neurones et des astrocytes dans différentes régions du parenchyme cérébral~\cite{kalisvaart2020update}. Dans le cas d'HTIC chroniques, un amincissement de la voûte crânienne peut également survenir~\cite{benson2023monro}. Ce dernier mécanisme de compensation à longue échelle de temps contrevient donc à la doctrine de Monroe-Kellie, selon laquelle la boîte crânienne abrite un volume incompressible. Quant à la caractérisation de la compliance cérébrale à échelle macroscopique, la relation pression-volume issue du modèle de Marmarou~\cite{marmarou1975compartmental} fait aujourd'hui consensus dans la pratique clinique :
\begin{equation}
\label{exp}
PIC = (p_{b} - p_{0})e^{E \Delta V}+p_{0}
\end{equation}
Où $p_{b}$ et $p_{0}$ sont des constantes de référence, $E$ désigne l'élastance intracrânienne (soit l'inverse de la compliance), et $\Delta V$ désigne une variation de volume. Il est à noter que le modèle a historiquement été développé pour modéliser la pression du LCS lors de tests diagnostiques d'hydrocéphalie (voir section~\ref{direct}). Toutefois, l'équation~\eqref{exp} reste pertinente lorsqu'elle est appliquée à différents compartiments du système cérébrospinal~\cite{domogo2023mechanistic}. En pratique, la courbe pression-volume est classiquement divisée en trois zones (voir figure~\ref {fig:langfitt}). La première correspond à la zone de compensation (d'où l'appellation "réserve compensatoire"), où la PIC est quasi-invariante aux changements de volume. Au-delà d'un premier seuil, la PIC augmente de façon exponentielle avec le volume, tel que décrit par l'équation~\eqref{exp}. Cette relation devient caduque au-delà d'un second seuil, où l'hypertension provoque des dommages mécaniques irrémédiables aux tissus concernés. L'information de la compliance cérébrale peut être pertinente dans la prise en charge des deux grandes familles de pathologies où la mesure de la PIC est recommandable, à savoir les lésions cérébrales traumatiques et les hydrocéphalies. Dans le premier cas, la connaissance de la compliance cérébrale permet de caractériser plus précisément les atteintes du système cérébrospinal~\cite{zeiler2018impaired}, d'identifier les patients les plus à risque d'HTIC~\cite{shahsavari2011cerebrovascular}, et ainsi d'adapter la durée et le niveau de sédation. La compliance cérébrale est également un facteur prognostique~\cite{calviello2018compensatory}. Dans le cas de l'hydrocéphalie, l'information de la compliance cérébrale, en plus de sa valeur diagnostique, est un facteur de décision quant à la pose d'un dispositif de dérivation du LCS~\cite{gholampour2023intracranial}.
\begin{figure}[h!]
\centering
\includegraphics[width=10cm]{mecanique/langfitt.png}
\caption{Relation pression-volume au sein de la boîte crânienne et morphologie des pulsations cardiaques associées. PIC: pression intracrânienne}
\label{fig:langfitt}
\end{figure}
\subsection{Mesures directes}
\label{direct}
Les mesures directes de compliance cérébrale consistent à mesurer les variations de PIC en réaction à des variations de volume intracrânien, le plus souvent induites par des manipulations au niveau du LCS. Ces mesures, impliquant une intervention au bloc opératoire, se basent sur la relation~\eqref{exp} pour calculer un coefficient de compliance (ou d'élastance) caractéristique du système cérébrospinal. Du fait de la lourdeur des manipulations nécessaires, ces méthodes sont quasi-exclusivement réservées aux patients hydrocéphales. Selon le protocole mis en place, la compliance cérébrale peut être expérimentalement mesurée à différentes échelles de temps caractéristiques. Deux principaux indices ont été proposés pour caractériser la réponse instantanée du système aux variations de volume. Le VPR (\textit{Volume-Pressure Volume}) proposé par Miller, Stanek et Langiftt en 1972 et exprimé en mmHg/mL, correspond à l'augmentation de la PIC induite par une variation de 1 mL~\cite{miller1972concepts}. Le PVI (\textit{Pressure-Volume Index}), introduit par Shulman et Marmarou, correspond au volume de solution saline nécessaire pour multiplier par 10 la PIC~\cite{marmarou1975compartmental}. Ce volume théorique, toujours utilisé aujourd'hui dans le cadre de tests diagnostiques, est calculé après injection de bolus de solution saline. Des mesures de compliance cérébrale caractérisant la réponse à plus long terme peuvent également être effectuées. Un débit constant de solution saline est alors injecté dans le système. Si un PVI peut être calculé analytiquement sur la base d'une modélisation proposée par Avezaat et Eindhoven dans les années 1980~\cite{avezaat1984cerebrospinal}, ces tests d'infusion servent généralement à mesurer la résistance du système à l'écoulement du CSF. Cette propriété mécanique est classiquement caractérisée par le R\textsubscript{out}, exprimé en mmHg/(mL/min), directement issu du modèle de Marmarou. Quoiqu'il en soit, plusieurs études et méta-analyses montrent que les tests d'infusion et les injections de bolus mettent à l'épreuve des propriétés mécaniques différentes \cite{gholampour2023intracranial}. En pratique, réaliser les deux types de tests permet de caractériser au mieux les propriétés mécaniques du système cérébrospinal.
\subsection{Caractérisations indirectes}
\subsubsection{Indices spectraux}
Du fait de ses différentes composantes physiologiques caractérisées à des échelles de temps spécifiques, le signal de PIC a été étudié dans le domaine fréquentiel dès les années 1980. Plusieurs caractérisations du spectre obtenu par transformée de Fourier ont été successivement proposées dans la littérature.
\par Le \textit{Higher Frequency Centroid} (HFC) est défini comme la moyenne des fréquences entre 4 et 15 Hz pondérée par leurs amplitudes respectives dans la transformée de Fourier du signal. En 1986, ses auteurs rapportent une très bonne corrélation négative avec le PVI calculé sur une cohorte variée de 48 patients~\cite{bray1986development}. Le rationnel derrière sa définition est qu'une forme de pulsation plus arrondie contient moins de fréquences aiguës. De manière contradictoire, en 1989, une étude regroupant 55 patients cérébrolésés décrit le HFC moyen ainsi que le temps passé avec un HFC supérieur à 9 Hz comme des prédicteurs significatifs de la mortalité~\cite{robertson_clinical_1989}. En 2022, le calcul du HFC sur une cohorte de 184 patients cérébrolésés montre une corrélation positive entre HFC et PIC, jusqu'à un point de cassure à environ 31 mmHg. Sur cette population, les patients décédés présentaient un HFC moyen significativement plus élevé que les survivants~\cite{uryga_analysis_2023}. En plus de sa difficulté d'interprétation, le HFC a comme limite sa dépendance à la fréquence cardiaque du patient, du fait de la définition \textit{a priori} d'une bande de fréquence d'intérêt.
\par Une façon de s'affranchir du choix de cette plage fréquentielle consiste à caractériser les harmoniques de la composante cardiaque du signal. Le $k$-ratio, défini en 1987~\cite{takizawa_changes_nodate}, propose de caractériser la puissance spectrale associée à la fréquence cardiaque $FW$ par rapport à celles de ses harmoniques n°2 à 4, respectivement notées $HW2$, $HW3$ et $HW4$ selon la formule suivante : $k = \frac{\sqrt{HW2^{2} + HW3^{2} + HW4^{2}}}{FW}$. Ses auteurs ont observé une corrélation négative entre $k$-ratio et la PIC sur modèle animal, indépendemment validée par la suite sur une cohorte de 109 patients traumatisés crâniens ~\cite{contant_intracranial_1995}.
\par En 2021, le \textit{Higher Harmonic Centroid} (HHC) est proposé comme une alternative au HFC. Celui-ci correspond au centroïde des harmoniques n°2 à 10 de la fréquence cardiaque, pondérées par leurs amplitudes respectives (voir figure~\ref{fig:fft}). Le HHC est donc un nombre adimensionnel compris entre 2 et 10. Les auteurs du HHC ont montré une baisse significative de celui-ci lors des ondes de plateau~\cite{zakrzewska_intracranial_2021}. De manière générale, le HHC pourrait être utilisé en pratique clinique comme prédicteur d'épisode d'HTIC~\cite{uryga_analysis_2023}.
\begin{figure}[h!]
\centering
\includegraphics[width=1\linewidth]{mecanique/FFT.png}
\caption{Transformée de Fourier d'un signal de pression intracrânienne. F: fréquence fondamentale, composante cardiaque. H$n$: harmonique n°$n$ de la composante cardiaque. Les harmoniques encadrées sont prises en compte dans le calcul du \textit{Higher Harmonic Centroid}.}
\label{fig:fft}
\end{figure}
Bien que faciles à implémenter, ces méthodes se heurtent à l'hypothèse de stationnarité du signal exigée par la transformée de Fourier. Celle-ci est contournée en décrivant l'évolution temporelle du contenu fréquentiel par le biais d'une fenêtre glissante, mais dont le choix de la taille peut être sujet à débat. Une autre limite mathématique réside dans les différentes interactions non-linéaires entre les déterminants du signal de PIC, alors que la transformée de Fourier est par définition une combinaison linéaire de différentes sinusoïdes. Enfin, il peut être malaisé de relier ces différents indices spectraux à des mécanismes physiologiques sous-jacents, rendant difficiles leur adoption par le corps médical.
\subsubsection{Amplitude du signal de PIC}
\par En considérant que la fraction du volume sanguin d'éjection systolique (VES) transmise au cerveau reste constante, on peut montrer en utilisant le modèle de Marmarou que (i) l'amplitude des pulsations d'origine cardiaque est inversement proportionnelle à la compliance cérébrale, et (ii) qu'il existe une relation linéaire entre amplitude et PIC, dont le coefficient est également proportionnel à la compliance cérébrale \cite{czosnyka2012modeling}. L'information apportée par l'amplitude de la composante cardiaque a donc été largement étudiée dès la fin des années 1970. Historiquement, le premier protocole proposé en 1977~\cite{szewczykowski1977fast} consistait à rechercher la limite des capacités de compensation (c'est-à-dire le passage de la zone I à II courbe de Langfitt, voir figure~\ref{fig:langfitt}) en la présence d'une cassure sur la droite Amplitude - PIC réalisée pour des patients hydrocéphales au bloc opératoire. Cependant, l'amplitude des pulsations cardiaques peut être également utilisée comme un indicateur partiel de la compliance cérébrale dans le cadre d'un monitorage en continu~\cite{wagshul2011pulsating}. Du fait de la difficulté à découper algorithmiquement les pulsations cardiaques sur un signal de PIC univarié, les modalités de calcul de l'amplitude ont donné lieu à un débat dans la littérature au milieu des années 2000 entre les partisans du domaine fréquentiel et du domaine temporel. Il a notamment été montré que l'utilisation d'une transformée de Fourier pouvait sous-estimer de 2 à 3 mmHg la véritable amplitude des pulsations, du fait de la non-vérification des hypothèses préalables à l'analyse de Fourier~\cite{holm2008frequency}. Depuis, l'algorithme de Scholkmann modifié publié en 2018 semble s'être imposé comme une méthode standard dans le domaine temporel~\cite{bishop2018multi}. Concernant la pratique clinique, il a été montré que l'amplitude du signal de PIC était un prédicteur de la mortalité chez le patient cérébrolésé~\cite{uryga_analysis_2023}. En 2011, une étude randomisée en simple aveugle sur 97 patients atteints de HSA a montré que les patients traités pour viser une amplitude inférieure à 5 mmHg présentaient de meilleurs \textit{outcomes} que ceux traités pour maintenir la PIC inférieure à 20 mmg~\cite{eide2011randomized}. En 2024, une étude portant sur 60 patients traumatisés crâniens rapporte pour un tiers d'entre eux des épisodes de variations cycliques de l'amplitude (nommées \textit{spindle waves}), positivement corrélées avec le devenir du patient~\cite{zhu2023spindle}.
\par L'amplitude des oscillations cardiaques n'étant qu'au mieux proportionnelle à la véritable élastance cérébrale et sujette aux variations de la fraction du VES transmise au cerveau, d'autres indicateurs ont été proposés pour préciser l'information fournie par le calcul de l'amplitude. Le \textit{rise-time coefficient}, correspondant au coefficient directeur de la droite entre le début de le pulsation et son sommet, permet d'associer au calcul de l'amplitude la morphologie générale de la pulsation cardiaque~\cite{eide2016correlation}. L'indice RAP, proposé dans les années 1980, est défini comme la corrélation glissante entre l'amplitude des oscillations cardiaques et la PIC moyenne \cite{czosnyka1988system}. Cet indice, positif et proche de 0 dans des conditions de compliance cérébrale préservée, tend vers 1 au fur et à mesure que la compliance se dégrade. \`A l'entrée de la zone critique d'hernie cérébrale, le RAP décroît brutalement jusqu'à devenir négatif. Historiquement proposé pour caractériser le résultat de tests d'infusion constante, le RAP a largement été étudié dans de nombreuses études rétrospectives impliquant cohortes de patients cérébrolésés~\cite{islam2024continuous}. Dans ce contexte, le RAP est alors calculé en continu. Ses auteurs préconisent de calculer la corrélation sur une fenêtre glissante de 40 échantillons de 6.4 secondes chacun, et de mesurer l'amplitude des pulsations dans le domaine fréquentiel~\cite{czosnyka2004monitoring}, mais ces valeurs ne sont pas systématiquement utilisées dans la littérature. Quoiqu'il en soit, les différentes études incluant une mesure du RAP ne parviennent pas à mettre clairement en évidence un lien avec le devenir du patient~\cite{uryga_analysis_2023}, et utilisent plutôt le RAP pour caractériser des périodes d'instabilité sujettes à des épisodes d'hypertension~\cite{donnelly2020observations, pineda2018assessing}. En parallèle, l'aire décrite par l'évolution du RAP au cours des 48 premières heures a été significativement corrélée avec certaines lésions corticales observables au scanner~\cite{zeiler2018impaired}. Le RAP est également à la base du concept de « vraie PIC » (\textit{true ICP}), définie telle que $true ICP = ICP(1 - RAP)$~\cite{czosnyka2005concept}. Les limitations du RAP résident principalement dans sa sensibilité à la ligne de base du signal de PIC et aux perturbations extérieures. Ainsi, les indices RAP obtenus par le biais de capteurs intraparenchymateux implantés dans des hémisphères différents peuvent dévier de plus de 0.2 dans plus de 20\% du temps~\cite{eide2013intracranial}. Conçu pour davantage de robustesse aux perturbations extérieures, l'indice RAQ (\textit{Respiratory Amplitude Quotient}), publié en 2020, propose d'étudier les variation d'amplitude induites par la vague respiratoire~\cite{spiegelberg2020raq}. Cependant, celui-ci n'a fait l'objet d'aucune étude impliquant un monitorage invasif de la PIC entre sa date de publication et 205.
\subsubsection{Morphologie des pulsations cardiaques}
\par À l'échelle du cycle cardiaque, la compliance cérébrale est un déterminant de l'allure générale des pulsations visibles sur le signal de PIC. Celle-ci peut être décrite de façon géométrique en prenant pour repères les positions et hauteurs relatives des pics P1, P2 et P3, ou bien de façon plus globale par un score déterminé par apprentissage supervisé.
\par Dans le premier cas, la reconnaissance automatique des pics P1, P2 et P3 représente un challenge technique, dont les solutions présentées dans la littérature font systématiquement appel à de l'apprentissage automatique \cite{lee2015morphological}~\cite{kalaiarasan2024novel}. En particulier, l'algorithme MOCAIP (\textit{MOrphological Clustering and Analysis of continuous Intracranial Pressure}), publié en 2008 \cite{hu2008morphological}, propose de calculer 24 métriques associées aux pics P1, P2 et P3.
%
Pour ce faire, la pulsation caractéristique d'une période de référence est déterminée par clustering. Les pics P1, P2 et P3 sont ensuite identifiés sur cette pulsation par un algorithme d'apprentissage supervisé. Différentes alternatives au modèle gaussien initial ont été successivement proposées dans la littérature par les auteurs de MOCAIP \cite{hu2010intracranial, scalzo2012bayesian, rashidinejad2020patient}. Quel que soit l'algorithme de détection choisi, celui-ci choisit les pics P1, P2 et P3 parmi un ensemble de candidats correspondant à des extrema de la fonction courbure, définie pour un vecteur $v \in {\mathcal{C}}^{2}(\mathbb{R})$ par l'application $v \rightarrow \frac{v''}{(1+ v'^{2})^{(3/2)}}$.
%
Si l'algorithme MOCAIP n'a jamais été utilisé dans un contexte clinique en temps réel, sa conception prend en compte les différentes perturbations auxquelles le signal de PIC peut être sujet. En effet, l'étape de clustering permet d'éliminer les pulsations statistiquement anormales, au risque d'une perte d'information importante en cas de forte variabilité de la forme des pulsations. Quoiqu'il en soit, l'algorithme MOCAIP comme ses dérivés reposent sur un signal auxiliaire (pression artérielle et/ou électrocardiogramme) pour l'identification des pics et/ou des pulsations, pouvant compliquer son utilisation en temps réel dans les hôpitaux. Cette difficulté s'ajoute au coût calculatoire de l'étape de clustering dans un contexte de monitorage par un dispositif embarqué.
%applications cliniques
\par Une solution pour s'affranchir de la détection exacte des positions de P1, P2 et P3 consiste à attribuer un score à l'allure générale des pulsations par apprentissage supervisé. Cette possibilité implique de définir rigoureusement des critères de classification, répétable et reproductible par des experts lors du processus d'annotation des exemples d'entraînement. La publication des premiers travaux liés au \textit{Pulse Shape Index} (PSI) en 2021~\cite{mataczynski2021end} a permis d'affiner une première ébauche proposée en 2016~\cite{nucci2016intracranial}. Le PSI correspond à la moyenne d'un score de classification calculé indépendamment sur chacune des pulsations cardiaques d'une fenêtre cinq minutes mise à jour toute les dix secondes. La classification retenue, appelée par la suite classification de Wroclaw, consiste en quatre classes de pulsations allant de "T1 - normal" à "T4 - pathologique", auxquelles s'ajoute une classe "A+E - Artefact / Erreur" (voir figure~\ref{fig:PSI}). La robustesse de la classification de Wroclaw a été validée par l'annotation indépendante de 3 médecins sur un échantillon de 20 000 exemples. La réalisation d'un \textit{benchmark} parmi plus d'une dizaine d'algorithmes d'apprentissages supervisés, allant des forêts aléatoires à différentes architectures de réseaux récurrents, a permis de sélectionner une architecture de réseaux de neurones à résidus (\textit{Residual Neural Network}, RNN) comme référence pour le calcul du PSI. La précision revendiquée au moment de la publication est de 86.00\%. Un PSI plus élevé a été associé avec la présence lésions cérébrales visibles au scanner~\cite{kazimierska2023relationship} ainsi qu'avec une mortalité plus élevée~\cite{uryga_analysis_2023}.
\begin{figure}[h!]
\centering
\includegraphics[width=1\linewidth]{mecanique/PSI.png}
\caption{Classification de Wroclaw, utilisée pour le calcul du \textit{Pulse Shape Index}. Traduit et adapté de~\cite{mataczynski2021end}.}
\label{fig:PSI}
\end{figure}
\section{Autorégulation cérébrale}
\label{autoregulation}
La régulation du débit sanguin cérébral (DSC) est d'une importance toute particulière au bon fonctionnement du cerveau, dans la mesure où cet organe, pourvu de très faibles réserves en oxygène~\cite{powers1985cerebral}, absorbe au repos 15 à 20\% du volume d'éjection systolique~\cite{williams1989reference}. Le DSC peut être exprimé comme le ratio de la PPC et de la résistance vasculaire cérébrale(RVC), fonction de la vasoconstriction des artérioles cérébrales, selon la formule $DSC = \frac{PPC}{RVC}$. La littérature distingue généralement quatre grands mécanismes de régulation du DSC, fonctionnant de façon simultanée et redondante:
\begin{itemize}
\item Neurogénique. Le DSC peut être régulé par des neurotransmetteurs comme le NO$_{2}$, l'acétylcholine ou la sérotonine. Ce couplage neurovasculaire, largement médié par l'activité des astrocytes, permet une adaptation locale du DSC à l'activité neuronale~\cite{phillips2016neurovascular}.
\item Métabolique. La vasoconstriction des artérioles cérébrales est modulée par des marqueurs d'activité métabolique telles que la pression partielle en O$_{2}$ \cite{jackson2016arteriolar} ou en CO$_{2}$ \cite{dietvorst2024development}.
\item Endothélial. Des cellules de l'endothélium vasculaire (cérébral comme périphérique) régulent le DSC en secrétant certains messagers chimiques comme NO$_{2}$ ou des prostaglandines~\cite{beaudin2017human}.\cite{ashby2021endothelial}.
\item Myogénique. Il s'agit du mécanismes prépondérant de la régulation du DSC~\cite{hamner2014relative}. Il correspond à la contraction graduelle des muscles lisses des parois artérielles en réaction à des changements de pression transmurale~\cite{willie2014integrative}. Seules les artérioles de diamètre compris entre 30 et 250 µm de diamètre sont capables de vasoconstriction pression-dépendante~\cite{lidington2018cerebral}. Le mécanisme moléculaire de vasoconstriction, médié par la concentration intracellulaire en ions Ca$^{2+}$, repose sur différentes protéines mécano-sensibles~\cite{jackson2021calcium}. Le délai de réponse à un changement rapide de pression est de l'ordre de 250 ms~\cite{halpern1984mechanical}.
\end{itemize}
Selon les auteurs, l'autorégulation cérébrale (AC) désigne soit la régulation du DSC dans son ensemble \cite{gomez2025individualized}\cite{rivera2017cerebral}, soit uniquement le mécanisme de protection d'origine myogénique \cite{claassen2021regulation}\cite{willie2014integrative}. Si ces différentes voies de régulation ne sont pas mutuellement exclusives, les études mentionnées dans le présent document s'intéressent principalement à la composante myogénique de l'AC. Historiquement, le concept est formalisé par Niels Lassen en 1959, dans un article agglomérant les résultats de protocoles très divers ayant pour point commun l'étude du DSC. L'article contient un graphique où le DSC est décrit comme constant entre 50 et 150 mmHg de PPC, et chute brutalement en deçà de 50 mmHg. Si la méta-regression originale comporte différentes faiblesses méthodologiques, cette description du DSC comme fonction de la PPC est progressivement affinée pour former la courbe de Lassen consensuelle (Figure~\ref{fig:lassen}). Les modifications apportées à la publication originale sont les suivantes :
\begin{itemize}
\item En abscisse, la pression veineuse en sortie du lit vasculaire cérébral est généralement négligée. La PPC peut alors être approximée par la pression artérielle systémique, sauf dans le cas de pathologies où la PIC doit être prise en compte (TC, HSA, \textit{etc.}). Dans ce cas, le différentiel de pression est approximé par la formule $PPC = PAM - PIC$.
\item Le plateau d'autorégulation n'est pas parfaitement horizontal ; les mécanismes d'AC ne compensent qu'une partie des variations de PPC. Ses limites ne correspondent pas à des cassures nettes. Par rapport à la publication originale de Lassen, sa largeur est fortement réduite (de l'ordre de la dizaine de mmHg). Il est à noter que la largeur ainsi que la position du plateau sont très variables d'un patient à l'autre, mais aussi d'une pathologie à l'autre~\cite{howells2025vasomotion}.
\item La limite inférieure du plateau correspond à la pression où les mécanismes de vasoconstriction ne permettent plus de compenser le faible différentiel de pression : le DSC dépend alors directement de la PPC. Cette limite inférieure d'autorégulation est généralement désignée sous le nom de LLA (\textit{Lower Limit of Autoregulation}).
\item Une limite supérieure est progressivement introduite~\cite{paulson1990cerebral}. Celle-ci correspond à la PPC où les sphincters responsables de la vasoconstriction n'exercent pas une force suffisante pour diminuer l'écoulement du sang. Cette limite supérieure d'autorégulation est généralement désignée sous le nom de ULA (\textit{Upper Limit of Autoregulation}).
\item Une seconde cassure inférieure, située en-dessous de la LLA, est parfois mentionnée dans la littérature~\cite{czosnyka2022pro}. Il s'agit de la pression de fermeture critique (\textit{Critical Closing Pressure}, CrCP), correspondant à une PPC où le différentiel de pression s'annule au sein-même du lit vasculaire cérébral.
\end{itemize}
\begin{figure}[h!]
\centering
\includegraphics[width=1\linewidth]{mecanique/Lassen.png}
\caption{Allure du débit sanguin cérébral en fonction de la pression de perfusion cérébrale, ou courbe de Lassen. CrCP -- Pression critique de fermeture. LLA --- Limite inférieure d'autorégulation. ULA --- Limite supérieure d'autorégulation.}
\label{fig:lassen}
\end{figure}
Certains auteurs distinguent l'AC statique, correspondant à des adaptations de long terme à des variations spontanées de la PAM, et l'AC dynamique, désignant la réponse du système à une perturbation ponctuelle. Toutefois, cette distinction relève principalement d'une classification artificielle des protocoles de mesure, du fait de la similarité des mécanismes mis en jeu et du continuum existant entre ces deux extrêmes~\cite{claassen2021regulation}. Quoiqu'il en soit, la mesure de l'autorégulation cérébrale s'appuie toujours sur un monitorage adjoint de la PA systémique et d'un dérivé du DSC : TCD, ICP, pression partielle en oxygène, tomographie, etc.
\subsection{Caractérisation dans le domaine temporel}
L'étude de l'AC chez les patients cérébrolésés fait l'objet d'un riche corpus d'études rétrospectives reposant sur le calcul d'indices caractéristiques dans le domaine temporel. Les plus utilisés d'entre eux sont des corrélations glissantes entre deux signaux de monitorage, l'un correspondant à la PPC, potentiellement approximée par la PA, et le second à un dérivé du DSC : PIC, VSC, pression partielle en oxygène, \textit{etc}. Le rationnel derrière la définition de ces indices est décrit par la courbe de Lassen : dans la zone d'autorégulation fonctionnelle, les variations de DSC sont amorties par les mécaniques d'AC, et sont donc peu dépendantes des variations de PPC. La corrélation entre la CPP et le dérivé du DSC est donc proche de 0. Au contraire, lorsque les mécanismes d'AC sont détériorés, les variations de PPC sont transmises passivement au DSC. La corrélation s'approche alors de 1. Un seuil pathologique est associé à chacun de ces indices, généralement autour de 0.3, au-delà duquel l'AC est considérée comme inopérante. Ces indices de corrélation glissante sont étroitement liés à la définition d'une valeur de PPC pour laquelle les mécanismes d'AC sont les plus fonctionnels. Cette valeur PPC optimale, notée PPC\textsubscript{opt}, est située entre les deux bornes du plateau d'autorégulation (\textit{i.e.}, la ULA et la LLA). L'algorithme de détermination de la PPC\textsubscript{opt} consiste à tracer le portrait de phase de l'indice d'autorégulation en fonction de la PPC. Une régression quadratique permet alors d'identifier la valeur de PPC\textsubscript{opt} qui minimise l'indice d'autorégulation, et donc maximise l'AC. Les limites du plateau d'autorégulation sont situées aux croisements de la courbe parabolique (désignée dans le littérature sous le nom de \textit{U-shape curve}) avec la droite horizontale d'équation $y$ = 0.3 (ou tout autre seuil considéré comme pathologique). Le schéma de détermination de la PPC\textsubscript{opt} est présenté Figure~\ref{fig:cppopt}.
\begin{figure}[h!]
\centering
\includegraphics[width=1\linewidth]{mecanique/CPPopt.png}
\caption{Schéma de détermination de la pression de perfusion cérébrale optimale. PPC\textsubscript{opt} --- Pression de perfusion cérébrale optimale. LLA --- Limite inférieure d'autorégulation. ULA --- Limite supérieure d'autorégulation.}
\label{fig:cppopt}
\end{figure}
Parmi ces indices d'autorégulation glissante, il convient de citer :
\paragraph{Le Mx (\textit{Mean Flow Index})}. Il correspond à la corrélation glissante entre la CPP et la VSC moyenne~\cite{czosnyka1996monitoring}. La notation \textit{Mxa} est utilisée lorsque la CPP est approximée par la PA. Le seuil pathologique de Mx est généralement situé à 0.3~\cite{lang2002continuous}. Toutefois, dans le cas du Mxa, certains auteurs ont proposé le seuil de 0.45~\cite{schmidt2003symmetry}. Dans la mesure où le Mxa ne nécessite aucun monitorage invasif, cet indice a pu être étudié pour un large éventail de pathologies dépassant le cadre de la neuro-réanimation~\cite{olsen2022reliability}. Dans le cas du TC, différentes études rétrospectives montrent une corrélation significative entre le Mx et la mortalité des patients, et entre le Mx et l'état clinique de sortie~\cite{budohoski2012monitoring}~\cite{schmidt2016autoregulation}. Contrairement aux indices présentés ci-dessous, les paramètres de calcul du Mx ne font pas consensus dans la littérature (), ce qui pose problème lors de la comparaison des résultats de différentes études, bien que des recommandations sur les paramètres de la fenête glissante tendent à émerger~\cite{kostoglou2024time}.
\paragraph{Le PRx (\textit{Pressure Reactivity Index})}. Cet indice est défini comme la corrélation glissante entre les signaux PA et de PIC~\cite{czosnyka1997continuous}. Le standard qui s'est imposé dans la littérature consiste à calculer le PRx à partir des deux signaux échantillonnés à 0.1 Hz sur une fenêtre glissante de 30 valeurs (soit 5 minutes) actualisée toutes les 10 secondes~\cite{tsigaras2023pressure}. Le PRx est un indice basé sur les variations de volume cérébral. Lorsque les mécanismes d'AC sont fonctionnels, une augmentation de la PA provoque une vasoconstriction des artérioles cérébrales de façon à maintenir un DSC constant. Cette vasoconstriction cause une diminution du volume du sanguin cérébral, qui se traduit par une baisse de la PIC. À compliance cérébrale constante, un PRx maintenu nul ou négatif est donc le reflet d'une AC fonctionnelle. Selon les auteurs, le seuil pathologique est fixé entre 0.2 et 0.3~\cite{svedung2023autoregulatory}~\cite{trukhan2022effect}~\cite{needham2017cerebral}. Le PRx est l'indice d'AC le plus fréquemment utilisé en neuro-réanimation~\cite{depreitere2021cerebrovascular}. En effet, le monitorage continu de la PIC et de la PA constituent des standards dans le traitement de patients cérébrolésés~\cite{carney2017guidelines}, et le calcul du PRx ne nécessite aucune intervention supplémentation du praticien une fois les capteurs de PIC et de PA mis en place. Cette facilité d'acquisition des données permet un suivi continu du PRx et de sa PPC\textsubscript{opt} associé. Toutefois, l'allure du portrait de phase entre la PPC et le PRx ne permet systématiquement la détermination d'une PPC\textsubscript{opt}. Différents critères de qualité de la régression quadratique ont été définis (étendue des valeurs de PRx et de PPC observées, R$^{2}$ de la régression quadratique) de façon à s'assurer du sens physique de la valeur de PPC\textsubscript{opt} obtenue. Les auteurs du PRx et développeurs du logiciel de référence ICM+ (Cambridge Enterprise Ltd.) revendiquent aujourd'hui l'affichage d'une PPC\textsubscript{opt} dans plus de 90\% du temps de monitorage~\cite{beqiri2021optimal} contre 55\% du temps initialement~\cite{aries2012continuous}. Cette amélioration est la conséquence de différents artefacts de calcul progressivement développés entre 2002 et 2024~\cite{tsigaras2023pressure}. Comme le calcul de la PPC\textsubscript{opt} repose uniquement sur des variations spontanées de la PPC, un minimum de 4h de monitorage est nécessaire avant l'affichage d'une valeur de PPC\textsubscript{opt}.
\par Du fait de la relative facilité d'acquisition des données, de nombreuses études rétrospectives ont analysé les corrélations entre le PRx, l'écart à la PPC\textsubscript{opt} calculé et le devenir des patients cérébrolésés. Une asymétrie de tolérance de l'écart aux cibles de PPC semble se dégager. Ainsi, le pourcentage du temps de monitorage passé en-dessous de la LLA estimée au moyen du PRx a été significativement corrélé à une plus forte mortalité et à de moins bons \textit{outcomes}~\cite{donnelly2017individualizing}. D'autres études montrent des résultats similaires pour le temps passé en-dessous de la PPC\textsubscript{opt}~\cite{kramer2019continuous}~\cite{bogli2025cerebral}. En 2021, l'étude prospective COGiTATe~\cite{tas2021targeting} incluant 60 patients testait la sécurité du protocole de définition de la PPC\textsubscript{opt} définie au moyen du PRx. Les participants étaient répartis aléatoirement en deux cohortes. Pour la première d'entre elles (le groupe contrôle), la PPC était maintenue entre 60 et 70 mmHg, selon les recommandations actuelles~\cite{carney2017guidelines}, tandis que la seconde(le groupe d'intervention) bénéficiait d'une cible de PPC personnalisée par le biais du calcul d'une PPC\textsubscript{opt}. L'étude s'est conclue sur un plus faible taux de mortalité parmi le groupe d'intervention, ainsi qu'un meilleur score GOS à 6 mois, sans pour autant que ces différences ne soient significative. COGiTATe a cependant permis de confirmer la sécurité du protocole basé sur la PPC\textsubscript{opt} ; en effet, les scores d'intensité thérapeutiques (TIL) se sont révélés comparables dans les deux cohortes. Par la suite, certaines nuances sur le protocole de définition de la PPC\textsubscript{opt} ont été apportées par des études rétrospectives. En particulier, chez les patients de plus de 65 ans, un PRx négatif n'est pas corrélé avec un meilleur \textit{outcome}~\cite{lenell2024cerebrovascular}. Le protocole classique de définition de la PPC\textsubscript{opt} semble également perdre de sa pertinence pour les patients présentant de sévères contusions~\cite{svedung2024should}.
\paragraph{Les indicateurs dérivés du PRx.} Différentes variantes du PRx ont été définies dans des contextes particuliers. En premier lieu, plusieurs versions du PRx à plus basse résolution (\textit{(ultra) low-frequency PRx, (U)L-PRx}), utilisant des valeurs de PIC et de PA moyennées de 1 à 5 min, pour des fenêtres de temps allant de 10 à 120 min, ont été proposées dans la littérature~\cite{hong2024critical}. L'objectif affiché est de réduire l'espace de stockage nécessaire au calcul des mesures d'AC. Ces L-PRx présentent un pouvoir pronostic moindre que le PRx classique, mais toujours significatif~\cite{riemann2020low}. Deux dérivés du PRx proposent d'exploiter l'amplitude du signal de la PIC : le PAx (corrélation PA - AMP) et le RAC (corrélation PPC - AMP). L'intérêt des ces indices, bien que moins discriminants que le PRx dans l'identification de la LLA~\cite{zeiler2018validation}, réside dans la possibilité d'utiliser un monitorage non-invasif de la PIC pour le calcul de l'AMP~\cite{hassett2023assessment}. Une version du PRx basée sur la transformée en ondelettes (\textit{wavelet PRx}, wPRx) a été également été étudiée. Le wPRx correspond au cosinus du déphasage mesuré entre les signaux de PIC et de PA sur une plage de fréquence allant de 0.0067 Hz à 0.05 Hz. Dans le contexte d'une étude rétrospective incluant 515 cas de TC, le wPRx a présenté un meilleur pouvoir pronostic et une plus grande stabilité temporelle que le PRx~\cite{liu2017cerebrovascular}. L'utilisation d'ondelettes implique cependant une complexité calculatoire plus importante.
\par Plusieurs critiques peuvent être adressées aux méthodologies basées sur les indices de corrélations glissantes. En premier lieu, ceux-ci sont par nature sujet à un fort bruit de mesure~\cite{motroni2024reliability}; leur prise en compte dans la prise de décision thérapeutique nécessite donc plusieurs heures de monitorage~\cite{beqiri2021optimal}. De plus, ceux-ci s'appuient sur des variations spontanées des variations de PPC. Les artefacts de mesure doivent donc être soigneusement identifiés par les praticiens de façon à ce qu'ils ne soient pas pris en compte dans le calcul du plateau d'autorégulation~\cite{ayasse2023cerebral}. Le calcul de la PPC\textsubscript{opt} est largement dépendant de l'implémentation de l'algorithme utilisé : en 2024, Plourde \textit{et al.} reportaient une étude de cas où deux logiciels d'estimation continue de la PPC\textsubscript{opt} différaient de plus de 10mmHg dans plus de 50\% du temps de monitorage~\cite{plourde2024variations}. Enfin, le corpus de preuves, bien que conséquent, s'appuie exclusivement sur la mortalité et/ou le devenir des patients en sortie de neuro-réanimation, sans établir formellement un lien entre les indices de corrélation et les mécanismes physiologiques dont ils sont censés être les reflets.
\par D'autres indices d'AC ont été proposés dans le domaine temporel. Ceux-ci, moins répandus, s'appuient sur des formulations mathématiques plus complexes qu'une simple corrélation~\cite{kostoglou2024awhite}. En particulier, l'analyse pression-débit multimodale (\textit{Multimodel Pressure-Flow Analysis}, MMPF) consiste à calculer le déphasage instantané entre le signal de PIC et de PA à différentes échelles de temps, au moyen de la transformée de Hilbert-Huang (c'est-à-dire de l'application de la transformée de Hilbert aux différentes IMFs obtenues par EMD)~\cite{lo2008multimodal}. Ces méthodes s'inspirent directement des caractérisation de l'AC effectuées dans le domaine fréquentiel.
\subsection{Caractérisation dans le domaine fréquentiel}
Du fait du délai du mécanisme de réactivité myogénique, l'AC produit joue le rôle d'un filtre passe-
bas entre les variations de PA systémique et les variations de DSC. L'étude de l'AC dans le domaine
fréquentiel repose alors sur l'analyse de la fonction de transert (\textit{Transfer Function Analysis}, TFA) entre un signal d'entrée, correspondant à la CPP possiblement approximée par la PA, et un signal de sortie, classiquement le signal de DSC. Plus formellement, on définit le cross-spectre $S_{XY}$ de deux signaux $X$ et $Y$ par la relation
\begin{equation}
S_{XY} = \hat{X} \cdot \hat{Y}^{*}
\end{equation}
où $\hat{X}$ désigne la transformée de Fourier de $X$, $Y^{*}$ le conjugué complexe de $Y$ et $\cdot$ le produit terme à terme. Le cross-spectre est l'équivalent de la cross-corrélation dans le domaine fréquentiel, du fait que l'opération transformée de Fourier vérifie la relation $X * Y$ = $\hat{X} \cdot \hat{Y}$ , où $*$ désigne le produit de convolution. Le cross-spectre permet de définir la fonction de transfert $H_{X\rightarrow Y}$ = $S_{XY} / S_{XX}$ . Cette fonction de transfert $H$ est utile pour mesurer l'impact des variations de CPP sur le signal de TCD. Classiquement, l'étude de l'AC par TFA repose sur trois grandeurs caractéristiques liées à la fonction de transfert $H_{PPC \rightarrow VSC}$ :
\begin{itemize}
\item Le gain, correspondant au module $H_{PPC \rightarrow VSC}$, est exprimé en (cm/s)/mmHg. Ce calcul
permet de quantifier l'amortissement des variations de CPP transmises à la VSC du fait des
mécanismes d'AC.
\item Le déphasage, défini par la relation $\Phi = arctan\frac{Im(H_{PPC \rightarrow VSC})}{Re(H_{PPC \rightarrow VSC})}$ est exprimé en radians. Du fait de l'amortissement des variations de VSC par les mécanismes d'AC, la VSC revient plus rapidement à son niveau initial que la CPP lorsque cette dernière subit des perturbations (). Les signaux d'entrée et de sortie observent donc une désynchronisation quantifiée par le déphasage.
\item La transformée de Fourier décomposant un signal donné en une combinaison linéaire de fonctions sinusoïdes, la fonction de transfert $H$ ne peut décrire que les interactions linéaires existant entre le signal d'entrée et le signal de sortie. La cohérence $\frac{C_{XY}^{2}}{C_{XX}C_{YY}}$, comparable à la corrélation de Pearson dans le domaine fréquentiel, permet de quantifier la linéarité de la relation observée entre deux signaux $X$ et $Y$ . En pratique, la cohérence peut être utilisée de deux façons : soit comme un indicateur en soi du fonctionnement de l'AC --- une cohérence proche de 0 indique alors des mécanismes d'AC préservés, soit comme un outil de validation des mesures de gain et de déphasage décrites ci-dessus. Selon le temps de mesure disponible, différents seuils decohérence minimale ont été définis de façon à s'assurer du sens physique de la TFA ().
\end{itemize}
L'avantage de la TFA est de pouvoir comparer la qualité de l'AC à différentes échelles de temps. En particulier, du fait du délai d'activation des mécanismes myogéniques, les oscillations de fréquence supérieure à environ 0.5 Hz sont transmises passivement de la CPP à la VSC. Ce seuil correspond donc à une augmentation du gain, une diminution du déphasage et une augmentation de la cohérence dans les hautes fréquences. En pratique, il est recommandé de présenter les résultats de la TFA dans trois plages de fréquences : de 0.02 à 0.07 Hz (très basses fréquences), de 0.07 à 0.2 Hz (basses fréquences) et de 0.2 à 0.5 Hz (hautes fréquences). Les résultats peuvent de plus être agrégés dans tout le domaine d'étude classique de l'AC, c'est-à-dire de 0.02 à 0.5 Hz. Ceux-ci peuvent alors être comparés aux différentes valeurs de référence obtenues dans de larges cohortes de patients sains ().
\par Si les méthodes de la TFA ont été appliquées à de nombreuses pathologies, de la maladie d'Alzheimer () aux accidents vasculaires cérébraux (), relativement peu d'études ont appliqué ces méthodes aux patients admis en neuro-réanimation () où les indices de corrélation tels que le PRx restent prépondérants (). Ce constat, au-delà des considérations de communautés scientifiques distinctes, peut s'expliquer de plusieurs façons : en premier lieu, la plupart protocoles de mesure de l'AC dynamique impliquent des changements de positions successifs ()()() et ne sont donc pas applicables aux patients cérébrolésés. De manière plus générale, la TFA repose sur des temps de monitorage courts, de l'ordre de quelques minutes (), incluant potentiellement une perturbation passagère, là où les unités de soins intensifs disposent de monitorages longs sur des patients fragiles. De plus, en pratique clinique, les neuro-réanimateurs disposent de différents outils de régulation continue de la PPC, pour laquelle une plage optimale est recherchée en prenant en compte les interactions entre PAM et PIC (). La complexité des résultats de la TFA rend moins directe la localisation du plateau d'autorégulation en comparaison d'algorithmes expressément dédiés et tirant parti du temps long (). Les quelques études comparant les mesures d'AC obtenues par TFA ou par des indices de corrélation dans le domaine temporelle montrent un faible accord entre les deux méthodes ()(), suggérant que ces différents indices ne sont pas interchangeables et mesurent différents aspects de l'AC.