mecanique.tex 36.5 KB
\section{Outils d'analyse du signal}
Les composantes du signal de PIC peuvent être isolées au moyen de méthodes de différentes méthodes de décomposition. Dans la littérature, deux grandes familles d'algorithmes sont identifiables. La première correspond aux décompositions linéaires issues de la transformée de Fourier ;  la seconde, plus récente, regroupe la décomposition en modes empiriques (\textit{Empirical Mode Decomposition}, EMD) et ses dérivés. Pour la suite, on considère un signal $s \in L^{2}({\mathbb{R})}$.
\subsection{Décompositions linéaires}
\subsubsection{Transformée de Fourier}
\subsubsection{Ondelettes}

\subsection{Décompositions en modes}
Les algorithmes de décomposition en modes (ADM) regroupent une vaste famille d'algorithmes dérivés de la publication originale de Huang \textit{et al.} introduisant la décomposition en modes empiriques (\textit{Empirical Mode Decomposition}, EMD)\cite{}. L'idée proposée est de décomposer un signal donné en oscillations élémentaires qui ne soient pas issus d'une base vectorielle prédéfinie \textit{a priori}, comme dans le cas de la transformée de Fourier et de ses différentes généralisations. Ce changement de paradigme a pour objectif de développer un outil adapté à l'étude de signaux non-stationnaires (c'est-à-dire, d'espérance et de variance variables dans le temps) et/ou résultant de la combinaison non-linéaire de différentes composantes. Ainsi, ces algorithmes extraient de façon itérative des fonctions de mode intrinsèques (\textit{intrinsic mode functions}, IMFs) du signal de base, oscillations élémentaires spécifiques à un signal respectant les  propriétés suivantes : 
\begin{enumerate}
    \item Le nombre d'extrema et le nombre de traversées de l'axe des abscisses doivent différer au plus de 1 (ou, par équivalence : tous les maxima locaux doivent être strictement positifs et tous les minima locaux doivent être strictement négatifs).
    \item En tout point, la moyenne de l'enveloppe définie par les maxima locaux et les minima locaux être égale à 0.
\end{enumerate}
Dans la pratique, une IMF est donc une fonction pseudo-périodique localement symétrique par rapport à l'axe des abscisses, dont la durée et l'amplitude des oscillations peuvent varier au cours du temps. En gardant à l'esprit que les ADMs sont conçus pour l'étude de signaux non-stationnaires, ces propriétés sont utiles par la suite pour définir les notions d'amplitude et de fréquences locales, voire instantanées, que les définitions classiques ne peuvent couvrir du fait du principe d'indétermination temps-fréquence. Cependant, cette flexibilité implique la perte de certaines propriétés des méthodes linéaires. Dans le cas général, pour deux signaux $s$ et $z$ et un $ADM$ quelconque,  $ADM(s + z) \neq ADM(s) + ADM(z)$. L'unicité de la décomposition en IMFs n'est pas non plus assurée : plusieurs décompositions valides peuvent être obtenues à partir d'un même signal. Enfin, l'orthogonalité des IMFs extraites et la conservation de l'énergie du signal initial dépendent des ADMs.

\subsubsection{Décomposition en modes empiriques}
\paragraph{Formulation.} En 1998, Huang \textit{et al.} proposent l'EMD pour extraire itérativement les IMFS d'un signal~\cite{huang1998empirical}. Celle-ci repose sur le calcul d'enveloppes du signal, qui correspondent à une interpolation cubique entre les différents maxima (minima) locaux. La méthode d'extraction des IMFs est décrite dans l'algorithme~\ref{algo:EMD}.

\begin{algorithm}[h!]
  \label{algo:EMD}
  \caption{Décomposition en modes empiriques (EMD)}
  \Entree{signal \textit{s}}
  \Sortie{ensemble d'IMFs}
  IMFs = \{\}\;
  \Tq{le nombre d'extrema de $s \leq 2$}{
  	{
	 $e_{+} \leftarrow$ enveloppe supérieure de $s$\;
      	$e_{-} \leftarrow$ enveloppe inférieure de $s$\;
     	$ m \leftarrow (e_{-} + e_{+} )/ 2 $\;  
     	   	
     \Tq{$m$ n'est pas accepté comme  IMF}{
	 $e_{+} \leftarrow$ enveloppe supérieure de $s - m$\;
      	$e_{-} \leftarrow$ enveloppe inférieure de $s - m$\;
     	$ m \leftarrow (e_{-} + e_{+} ) / 2 $\;     	
     }
     
    $ IMFs \leftarrow IMFs \cup \{m\} $\;
    $ s \leftarrow s - m $\; 
  }

  }
\end{algorithm}
Bien que jamais mise en défaut en pratique, la convergence de la procédure d'extraction d'une IMF n'a jamais pu être démontrée, limitant de fait l'étude des propriétés mathématiques de l'EMD (). Ces travaux précurseurs ont cependant donné lieu à de très nombreuses extensions, notamment dans les domaines complexes, multivariés et multidimensionnels (). L'EMD a été adoptée dans différents domaines d'application impliquant des signaux non-stationnaires et/ou des systèmes non-linéaires, de la sismologie () à l'étude d'électroencéphalogrammes (). En ce qui concerne l'analyse du signal de PIC, l'EMD a principalement été utilisée en tant que pré-traitement pour la suppression d'irrégularités ponctuelles ()(). Certaines évolutions de l'algorithme original visent à contourner des limitations de l'EMD bien identifiées dans la littérature, publication originale comprise. Parmi les problématiques les plus saillantes~\cite{de2022survey}, il convient de citer: 
\begin{itemize}
	\item Le mélange des modes (\textit{mode mixing}) : ce problème correspond aux situations où deux composantes de fréquences distinctes sont contenues dans une même IMF. Rilling et Flandrin () ont étudié formellement le problème pour deux composantes sinusoïdales en faisant varier les ratios d'amplitude et de fréquences. Pour ce modèle en particulier, en notant $a$ le ratio des amplitudes et $f$ le ratio des fréquences, la capacité de séparation de l'EMD est limitée à des couples d'oscillations pour lesquelles $f$ < ~0.6 et $a < 1/f$. Différentes corrections ont été proposées pour limiter ce problème de façon empirique. En particulier, l'EMD d'ensemble (\textit{Ensemble EMD}, E-EMD) consiste à répéter plusieurs fois l'algorithme de $sift$ en perturbant légèrement le signal initial au moyen d'un bruit aléatoire, et de prendre les IMFs médianes des différentes décompositions obtenues.
	\item Le fractionnement des modes (\textit{mode splitting}) : une même composante fréquentielle peut être fractionnée sur plusieurs IMFs adjacentes si les conditions  d'acceptation d'une IMF sont trop contraignantes (). De nombreux critères ont été proposés dans la littérature, comme la distance euclidienne entre les résultats de deux itérations consécutives (), la différence dans le nombre d'extrema () ou encore l'orthogonalité avec le signal avant extraction(). Cependant, comme l'existence d'une limite explicite vers laquelle tendrait le processus d'extraction n'a pas été prouvée, il reste peu aisé d'exhiber un critère d'arrêt optimal.
	\item Les effets des extrémités : le calcul des enveloppes, basé sur une interpolation entre les différents extrema, est perturbé au début et à la fin du signal. L'erreur introduite, difficile à quantifier, dépend des implémentations du calcul des enveloppes. Les différentes solutions proposées consistent globalement à étendre le signal à ses extrémités de manière plus ou moins complexe ()()().
\end{itemize}

\paragraph{Fréquences instantanées.} Les propriétés vérifiées par les IMFs ont été choisies de façon à définir des fréquences instantanées par le biais de la transformée de Hilbert, s'affranchissant ainsi du principe d'incertitude temps-fréquence inhérent à l'analyse de Fourier et ses dérivés. La transformée de Hilbert $H$ est définie telle que : 
\begin{equation}
 \mathcal{H}(s)(x) = \frac{1}{\pi} v.p. \int_{\mathbb{R}} \frac{s(\tau)}{x-\tau}\, d\tau	
\end{equation}
où $v.p.$ désigne la valeur principale de Cauchy. La transformée de Hilbert est plus facilement calculée dans le domaine fréquentiel, celle-ci revient à multiplier par $i$ les termes de fréquences négative et $-i$ les termes de fréquences positive: 
\begin{equation}
	\widehat{\mathcal{H}(s)}(\xi) = -i\text{ sign}(\xi)\cdot \hat{s}({\xi})
\end{equation}
La transformée de Hilbert prolonge un signal réel $X$ en un signal analytique $Z$ dans le plan complexe tel que $\mathcal{H}(X) = Z : t \rightarrow X(t) + iY(t) = a(t)e^{i\phi(t)}$. En considérant la forme exponentielle du signal analytique $Z(t) = a(t)e^{i\phi(t)}$, l'amplitude instantanée est correspond au terme $a(t)$, la phase instantanée au terme $\phi(t)$ et la fréquence instantanée $\omega(t)$ à la dérivée $\frac{d\phi(t)}{dt}$. Les propriétés des IMFs permettent de conserver certaines caractéristiques de la définition classique de la fréquence, par exemple d'obtenir une fréquence instantanée constante pour une IMF parfaitement sinusoïdale. 

\paragraph{Spectre de Hilbert.} En appliquant la transformée de Hilbert à chacune des $n$ IMFs extraites d'un signal $s$, on obtient la relation 
\begin{equation}
	s(t) = \text{Re}{\sum_{k=1}^{n}a_{k}(t)e^{i\phi(t)}}
\end{equation}
où Re désigne la fonction partie réelle. Par analogie avec la transformée de Fourier, il est possible de définir un spectre bivarié temps-fréquence, ou spectre de Hilbert tel que pour une temps $t$ et une fréquence $\omega$ :
\begin{equation}
	H(\omega, t) = \sum_{k=1}^{n}a_{k}(t)e^{i\int\omega_{k}(t)\,dt}
\end{equation}
En divisant le plan (temps, fréquences) en rectangles de dimensions $\delta t, \delta \xi$, la densité spectrale $S$ est définie pour le rectangle de coordonnées $a,b$ par: 
\begin{equation}
	S_{a,b} = \frac{1}{\Delta t \times \Delta \omega} ( \sum a_k^2(t) : t \in ( t_a - \frac{\Delta t}{2}, t_a + \frac{\Delta t}{2}), \omega \in ( \omega_b - \frac{\Delta \omega}{2}, \omega_b + \frac{\Delta \omega}{2}))
\end{equation}
Les graphiques obtenus à partir du spectre de Hilbert permettent ainsi de suivre l'évolution du contenu fréquentiel d'un signal non-stationnaire.

\subsubsection{Filtrage itératif}

\paragraph{Formulation.} Pour pallier aux différents manquements théoriques de l'EMD, la méthode du filtrage itératif (\textit{Iterative Filtering}, IF) a été proposée en 2009 (). Cette décomposition reprend le principe de construction itérative d'IMFs, en utilisant cette fois des moyennes glissantes à la place des enveloppes pour le processus d'extraction. L'algorithme est présenté ici dans sa version rapide (\textit{Fast Iterative Filtering}, FIF, voir algorithme~\ref{algo:FIF}), accélérée en effectuant les opérations de convolution dans le domaine fréquentiel. Le processus de FIF est d'une complexité en temps comparable à l'EMD, en $O(nlog(n))$, où $n$ est la taille du signal décomposé, contre $O(n^{2})$ pour la version IF.

\begin{algorithm}[h!]
  \label{algo:FIF}
  \caption{Filtrage itératif rapide (FIF)}
  \Entree{signal \textit{s}}
  \Sortie{ensemble d'IMFs}
  IMFs = \{\}\;
  \Tq{le nombre d'extrema de $s \leq 2$}{
  	{
	 Déterminer un filtre $w$  de taille $L$; 
	 $\hat{s} \leftarrow dft(s)$\; 
	 $\hat{w} \leftarrow dft(w)$\;   
	 $m \leftarrow 1$\;
     	 $\hat{s}_{m} \leftarrow \hat{s}$\;	
     \Tq{$s_{m}$ n'est pas accepté comme IMF}{
	 $\hat{s}_{m} = I - \text{diag}(\hat{w})^{m}\hat{s}$\;
     	$ m \leftarrow m+ 1 $\;     	
     }
     
    $ IMFs \leftarrow IMFs \cup \{s_{m}\} $\;
    $ s \leftarrow s - idft(s_{m}) $\; 
  }

  }
\end{algorithm}
Le processus de (F)IF peut être adapté au signal étudié en jouant sur les coefficients des moyennes glissantes -c'est à dire les filtres- utilisés. Une analyse théorique poussée du processus de (F)IF est rendue possible par l'existence d'une limite explicite au processus d'extraction $\mathcal{M}$ de la première IMF:
\begin{equation}
	\label{eq:IMF}
	IMF_{1} = \underset{n \rightarrow \infty}{M^{n}}(s)(x) = 
	\int_{\mathbb{R}} \hat{s}(\xi)\chi_{\{\hat{w}(\xi=0)\}}e^{i2\pi\xi x} \,d\xi	
\end{equation}
où $\hat{s}$ désigne la transformée de Fourier du signal $s$ et $\hat{w}$ la transformée de Fourier du filtre $w$. La limite décrite dans l'équation \ref{eq:IMF} est garantie pour un filtre pair, positif, à support compact dans $\mathbb{R}$ et de somme 1. La décomposition est rendue non-linéaire par la définition d'un nouveau filtre à chaque début d'extraction d'une IMF. Si le choix des coefficients et de la taille du filtre revient à l'utilisateur, les auteurs recommandent de calculer la taille $L$ d'un filtre à partir de l'espacement moyen entre deux extrema consécutifs selon la formule : $L = 2\lfloor \nu \frac{\text{taille du signal}}{\text{nombre d'extrema}} \rfloor$, où $\nu$ est un paramètre à déterminer, généralement entre 1 et 2 (). Différentes propriétés du processus de (F)IF ont pu être étudiées théoriquement. En particulier:
\begin{itemize}
	\item Séparation des fréquences : pourvu que la taille du filtre soit 			choisie de façon appropriée, le procédure de FIF peut séparer deux signaux sinusoïdaux purs de fréquences aussi proches que souhaité tant que $f < 1 - \frac{1}{n}$, où $f$ est le ratio des fréquences et $n$ la longueur des signaux en nombre de périodes.
	\item Conservation de l'énergie : la transformée de Fourier vérifie, dans le cas discret, la propriété $\sum_{n=0}^{N-1} \|s(n)\|^{2} = \frac{1}{N}\sum_{\xi} \|\hat{s}(\xi)\|^{2}$ (Théorème de Parseval-Plancherel). En comparaison, la procédure de (F)IF conserve l'énergie de Fourier de norme 1: $E_{1}(s) = \sum_{\xi}\hat{s}(\xi)$ ().
	\item Orthogonalité des IMFs : comme pour l'EMD et ses dérivées, l'exacte orthogonalité ne peut pas être garantie dans le cas général, les IMFs n'étant pas générées dans un espace vectoriel prédéfini. Différentes analyses numériques montrent cependant qu'en pratique, les IMFs extraites par EMD comme par IMFs sont quasi-orthogonales, le choix du paramètre $\nu$ pouvant même faire l'objet d'une optimisation à ce sujet ()().
	\item Effets des extrémités : la procédure de FIF suppose une périodicité du signal à ses extrémités (). Dans le cas contraire, des artefacts de calcul apparaissent de façon quantifiable () aux bornes des IMFs extraites, en particulier dans les basses fréquences. Les auteurs préconisent d'étendre le signal à ses extrémités en jouant sur des symétries de façon à introduire une périodicité aux bornes du signal traité ().
\end{itemize}

\paragraph{IMFogramme.}
Les méthodes de calcul de fréquences instantanées basées sur la transformée de Hilbert peuvent également s'appliquer aux IMFs extraites par (F)IF, les auteurs proposent une autre représentation temps-fréquence n'impliquant pas de prolongation du signal dans le plan complexe (). Celle-ci suppose cependant l'absence de modulation du signal à l'échelle d'une période.
\begin{itemize}
	\item amplitude instantanée : soit $g$ une interpolation (linéaire par exemple) des maxima locaux de la valeur absolue d'une IMF. L'amplitude instantanée de cette IMF est alors définie telle que $A : t \rightarrow max(g(t), IMF(t))$.
	\item fréquence instantanée : soient $(z_{k})_{k=1}^{p}$ les positions des $p$ croisements d'une IMF avec l'axe des abscisses. On note $y_{k} = \frac{1}{z_{k+1}}$ l'inverse de la durée de la $k$-ème demi-oscillation. La fréquence instantanée de cette IMF de taille N est définie par l'interpolation (linéaire par exemple) de la fonction $f : k \rightarrow 2y_{k}$ sur l'intervalle $[z_{0}, z_{p-1}]$. La fréquence instantanée peut être prolongée sur l'ensemble de l'IMF en posant $z_{0} = 1$ et $z_{p+1} = N$.
\end{itemize}
L'IMFogramme (\textit{Imfrogram}) est une représentation obtenue sur le plan (temps, fréquences) séparé en rectangles de dimensions $\Delta t \times \Delta f$. La valeur de chaque rectangle correspond à la somme des amplitudes moyennes de chacune des IMFs sur ce rectangle. 


\section{Monitorage de la compliance cérébrale}
La compliance cérébrale correspond à la relation pression-volume régnant au sein de la boîte crânienne. En d'autre termes, la compliance cérébrale décrit la capacité du système à modérer l'augmentation de la PIC en réponse à une augmentation du volume cérébral ~\cite{ocamoto2021intracranial}. Ce concept est décrit dans la littérature scientifique par le biais de nombreux termes plus ou moins synonymes : différents auteurs parlent ainsi de "compliance intracrânienne" (\textit{intracranial compliance}), de "réserve compensatoire" (\textit{compensatory reserve}), ou simplement de "relation pression-volume" (\textit{pressure-volume relationship}). De plus, certaines études préfèrent travailler sur le concept inverse d'élastance intracrânienne (\textit{intracranial elastance}). Différents mécanismes de compliance cérébrale peuvent être mis en jeu selon l'échelle de temps, la gravité et le type d'atteinte du système cérébrospinal. \`A des échelles de temps courtes, les volumes LCS, de sang et de liquide interstitiel constituent des réserve de compliance rapidement disponibles \cite{kim2009monitoring}. Dans le cas de traumatismes graves et d'hématomes volumineux, la compensation est également effectuée par une diminution conjointe du volume des neurones et des astrocytes dans différentes régions du parenchyme cérébral~\cite{kalisvaart2020update}. Dans le cas d'HTIC chroniques, un amincissement de la voûte crânienne peut également survenir~\cite{benson2023monro}. Ce dernier mécanisme de compensation à longue échelle de temps contrevient donc à la doctrine de Monroe-Kellie, selon laquelle la boîte crânienne abrite un volume incompressible. Quant à la caractérisation de la compliance cérébrale à échelle macroscopique, la relation pression-volume issue du modèle de Marmarou~\cite{marmarou1975compartmental} fait aujourd'hui consensus dans la pratique clinique :
\begin{equation}
    \label{exp}
    PIC = (p_{b} - p_{0})e^{E \Delta V}+p_{0}
\end{equation}
Où $p_{b}$ et $p_{0}$ sont des constantes de référence, $E$ désigne l'élastance intracrânienne (soit l'inverse de la compliance), et $\Delta V$ désigne une variation de volume. Il est à noter que le modèle a historiquement été développé pour modéliser la pression du LCS lors de tests diagnostiques d'hydrocéphalie (voir section \ref{direct}). Toutefois, l'équation~\eqref{exp} reste pertinente lorsqu'elle est appliquée à différents compartiments du système cérébrospinal~\cite{domogo2023mechanistic}. En pratique, la courbe pression-volume est classiquement divisée en trois zones (voir figure~\ref {fig:langfitt}). La première correspond à la zone de compensation (d'où l'appellation "réserve compensatoire"), où la PIC est quasi-invariante aux changements de volume. Au-delà d'un premier seuil, la PIC augmente de façon exponentielle avec le volume, tel que décrit par l'équation~\eqref{exp}. Cette relation devient caduque au-delà d'un second seuil, où l'hypertension provoque des dommages mécaniques irrémédiables aux tissus concernés. L'information de la compliance cérébrale peut être pertinente dans la prise en charge des deux grandes familles de pathologies où la mesure de la PIC est recommandable, à savoir les lésions cérébrales traumatiques et les hydrocéphalies. Dans le premier cas, la connaissance de la compliance cérébrale permet de caractériser plus précisément les atteintes du système cérébrospinal~\cite{zeiler2018impaired}, d'identifier les patients les plus à risque d'HTIC~\cite{shahsavari2011cerebrovascular}, et ainsi d'adapter la durée et le niveau de sédation. La compliance cérébrale est également un facteur prognostique~\cite{calviello2018compensatory}. Dans le cas de l'hydrocéphalie, l'information de la compliance cérébrale, en plus de sa valeur diagnostique, est un facteur de décision quant à la pose d'un dispositif de dérivation du LCS~\cite{gholampour2023intracranial}.

\begin{figure}[h!]
    \centering
    \includegraphics[width=10cm]{mecanique/langfitt.png}
    \caption{Relation pression-volume au sein de la boîte crânienne et morphologie des pulsations cardiaques associées. PIC: pression intracrânienne}
    \label{fig:langfitt}
\end{figure}

\subsection{Mesures directes}
\label{direct}
Les mesures directes de compliance cérébrale consistent à mesurer les variations de PIC en réaction à des variations de volume intracrânien, le plus souvent induites par des manipulations au niveau du LCS. Ces mesures, impliquant une intervention au bloc opératoire, se basent sur la relation~\eqref{exp} pour calculer un coefficient de compliance (ou d'élastance) caractéristique du système cérébrospinal. Du fait de la lourdeur des manipulations nécessaires, ces méthodes sont quasi-exclusivement réservées aux patients hydrocéphales. Selon le protocole mis en place, la compliance cérébrale peut être expérimentalement mesurée à différentes échelles de temps caractéristiques. Deux principaux indices ont été proposés pour caractériser la réponse instantanée du système aux variations de volume. Le VPR (\textit{Volume-Pressure Volume}) proposé par Miller, Stanek et Langiftt en 1972 et exprimé en mmHg/mL, correspond à l'augmentation de la PIC induite par une variation de 1 mL~\cite{miller1972concepts}. Le PVI (\textit{Pressure-Volume Index}), introduit par Shulman et Marmarou, correspond au volume de solution saline nécessaire pour multiplier par 10 la PIC~\cite{marmarou1975compartmental}. Ce volume théorique, toujours utilisé aujourd'hui dans le cadre de tests diagnostiques, est calculé après injection de bolus de solution saline. Des mesures de compliance cérébrale caractérisant la réponse à plus long terme peuvent également être effectuées. Un débit constant de solution saline est alors injecté dans le système. Si un PVI peut être calculé analytiquement sur la base d'une modélisation proposée par Avezaat et Eindhoven dans les années 1980~\cite{avezaat1984cerebrospinal}, ces tests d'infusion servent généralement à mesurer la résistance du système à l'écoulement du CSF. Cette propriété mécanique est classiquement caractérisée par le R\textsubscript{out}, exprimé en mmHg/(mL/min), directement issu du modèle de Marmarou. Quoiqu'il en soit, plusieurs études et méta-analyses montrent que les tests d'infusion et les injections de bolus mettent à l'épreuve des propriétés mécaniques différentes \cite{gholampour2023intracranial}. En pratique, réaliser les deux types de tests permet de caractériser au mieux les propriétés mécaniques du système cérébrospinal.

\subsection{Caractérisations indirectes}

\subsubsection{Indices spectraux}
Du fait de ses différentes composantes physiologiques caractérisées à des échelles de temps spécifiques, le signal de PIC a été étudié dans le domaine fréquentiel dès les années 1980. Plusieurs caractérisations du spectre obtenu par transformée de Fourier ont été successivement proposées dans la littérature. 
\par Le \textit{Higher Frequency Centroid} (HFC) est défini comme la moyenne des fréquences entre 4 et 15 Hz pondérée par leurs amplitudes respectives dans la transformée de Fourier du signal. En 1986, ses auteurs rapportent une très bonne corrélation négative avec le PVI calculé sur une cohorte variée de 48 patients~\cite{bray1986development}. Le rationnel derrière sa définition est qu'une forme de pulsation plus arrondie contient moins de fréquences aiguës. De manière contradictoire, en 1989, une étude regroupant 55 patients cérébrolésés décrit le HFC moyen ainsi que le temps passé avec un HFC supérieur à 9 Hz comme des prédicteurs significatifs de la mortalité~\cite{robertson_clinical_1989}. En 2022, le calcul du HFC sur une cohorte de 184 patients cérébrolésés montre une corrélation positive entre HFC et PIC, jusqu'à un point de cassure à environ 31 mmHg. Sur cette population, les patients décédés présentaient un HFC moyen significativement plus élevé que les survivants~\cite{uryga_analysis_2023}. En plus de sa difficulté d'interprétation, le HFC a comme limite sa dépendance à la fréquence cardiaque du patient, du fait de la définition \textit{a priori} d'une bande de fréquence d'intérêt.
\par Une façon de s'affranchir du choix de cette plage fréquentielle consiste à caractériser les harmoniques de la composante cardiaque du signal. Le $k$-ratio, défini en 1987~\cite{takizawa_changes_nodate}, propose de caractériser la puissance spectrale associée à la fréquence cardiaque $FW$ par rapport à celles de ses harmoniques n°2 à 4, respectivement notées $HW2$, $HW3$ et $HW4$ selon la formule suivante : $k = \frac{\sqrt{HW2^{2} + HW3^{2} + HW4^{2}}}{FW}$. Ses auteurs ont observé une corrélation négative entre $k$-ratio et la PIC sur modèle animal, indépendemment validée par la suite sur une cohorte de 109 patients traumatisés crâniens ~\cite{contant_intracranial_1995}. 

\par En 2021, le \textit{Higher Harmonic Centroid} (HHC) est proposé comme une alternative au HFC. Celui-ci correspond au centroïde des harmoniques n°2 à 10 de la fréquence cardiaque, pondérées par leurs amplitudes respectives (voir figure~\ref{fig:fft}). Le HHC est donc un nombre adimensionnel compris entre 2 et 10. Les auteurs du HHC ont montré une baisse significative de celui-ci lors des ondes de plateau~\cite{zakrzewska_intracranial_2021}. De manière générale, le HHC pourrait être utilisé en pratique clinique comme prédicteur d'épisode d'HTIC~\cite{uryga_analysis_2023}.

\begin{figure}[h!]
    \centering
    \includegraphics[width=1\linewidth]{mecanique/FFT.png}
    \caption{Transformée de Fourier d'un signal de pression intracrânienne. F: fréquence fondamentale, composante cardiaque. H$n$: harmonique n°$n$ de la composante cardiaque. Les harmoniques encadrées sont prises en compte dans le calcul du \textit{Higher Harmonic Centroid}.}
    \label{fig:fft}
\end{figure}

Bien que faciles à implémenter, ces méthodes se heurtent à l'hypothèse de stationnarité du signal exigée par la transformée de Fourier. Celle-ci est contournée en décrivant l'évolution temporelle du contenu fréquentiel par le biais d'une fenêtre glissante, mais dont le choix de la taille peut être sujet à débat. Une autre limite mathématique réside dans les différentes interactions non-linéaires entre les déterminants du signal de PIC, alors que la transformée de Fourier est par définition une combinaison linéaire de différentes sinusoïdes. Enfin, il peut être malaisé de relier ces différents indices spectraux à des mécanismes physiologiques sous-jacents, rendant difficiles leur adoption par le corps médical.

\subsubsection{Amplitude du signal de PIC}
\par En considérant que la fraction du volume sanguin d'éjection systolique (VES) transmise au cerveau reste constante, on peut montrer en utilisant le modèle de Marmarou que (i) l'amplitude des pulsations d'origine cardiaque est inversement proportionnelle à la compliance cérébrale, et (ii) qu'il existe une relation linéaire entre amplitude et PIC, dont le coefficient est également proportionnel à la compliance cérébrale \cite{czosnyka2012modeling}. L'information apportée par l'amplitude de la composante cardiaque a donc été largement étudiée dès la fin des années 1970. Historiquement, le premier protocole proposé en 1977~\cite{szewczykowski1977fast} consistait à rechercher la limite des capacités de compensation (c'est-à-dire le passage de la zone I à II courbe de Langfitt, voir figure~\ref{fig:langfitt}) en la présence d'une cassure sur la droite Amplitude - PIC réalisée pour des patients hydrocéphales au bloc opératoire. Cependant, l'amplitude des pulsations cardiaques peut être également utilisée comme un indicateur partiel de la compliance cérébrale dans le cadre d'un monitorage en continu~\cite{wagshul2011pulsating}. Du fait de la difficulté à découper algorithmiquement les pulsations cardiaques sur un signal de PIC univarié, les modalités de calcul de l'amplitude ont donné lieu à un débat dans la littérature au milieu des années 2000 entre les partisans du domaine fréquentiel et du domaine temporel. Il a notamment été montré que l'utilisation d'une transformée de Fourier pouvait sous-estimer de 2 à 3 mmHg la véritable amplitude des pulsations, du fait de la non-vérification des hypothèses préalables à l'analyse de Fourier~\cite{holm2008frequency}. Depuis, l'algorithme de Scholkmann modifié publié en 2018 semble s'être imposé comme une méthode standard dans le domaine temporel~\cite{bishop2018multi}. Concernant la pratique clinique, il a été montré que l'amplitude du signal de PIC était un prédicteur de la mortalité chez le patient cérébrolésé~\cite{uryga_analysis_2023}. En 2011, une étude randomisée en simple aveugle sur 97 patients atteints de HSA a montré que les patients traités pour viser une amplitude inférieure à 5 mmHg présentaient de meilleurs \textit{outcomes} que ceux traités pour maintenir la PIC inférieure à 20 mmg~\cite{eide2011randomized}. En 2024, une étude portant sur 60 patients traumatisés crâniens rapporte pour un tiers d'entre eux des épisodes de variations cycliques de l'amplitude (nommées \textit{spindle waves}), positivement corrélées avec le devenir du patient~\cite{zhu2023spindle}.

\par L'amplitude des oscillations cardiaques n'étant qu'au mieux proportionnelle à la véritable élastance cérébrale et sujette aux variations de la fraction du VES transmise au cerveau, d'autres indicateurs ont été proposés pour préciser l'information fournie par le calcul de l'amplitude. Le \textit{rise-time coefficient}, correspondant au coefficient directeur de la droite entre le début de le pulsation et son sommet, permet d'associer au calcul de l'amplitude la morphologie générale de la pulsation cardiaque~\cite{eide2016correlation}. L'indice RAP, proposé dans les années 1980, est défini comme la corrélation glissante entre l'amplitude des oscillations cardiaques et la PIC moyenne \cite{czosnyka1988system}. Cet indice, positif et proche de 0 dans des conditions de compliance cérébrale préservée, tend vers 1 au fur et à mesure que la compliance se dégrade. \`A l'entrée de la zone critique d'hernie cérébrale, le RAP décroît brutalement jusqu'à devenir négatif. Historiquement proposé pour caractériser le résultat de tests d'infusion constante, le RAP a largement été étudié dans de nombreuses études rétrospectives impliquant cohortes de patients cérébrolésés~\cite{islam2024continuous}. Dans ce contexte, le RAP est alors calculé en continu. Ses auteurs préconisent de calculer la corrélation sur une fenêtre glissante de 40 échantillons de 6.4 secondes chacun, et de mesurer l'amplitude des pulsations dans le domaine fréquentiel~\cite{czosnyka2004monitoring}, mais ces valeurs ne sont pas systématiquement utilisées dans la littérature. Quoiqu'il en soit, les différentes études incluant une mesure du RAP ne parviennent pas à mettre clairement en évidence un lien avec le devenir du patient~\cite{uryga_analysis_2023}, et utilisent plutôt le RAP pour caractériser des périodes d'instabilité sujettes à des épisodes d'hypertension~\cite{donnelly2020observations, pineda2018assessing}. En parallèle, l'aire décrite par l'évolution du RAP au cours des 48 premières heures a été significativement corrélée avec certaines lésions corticales observables au scanner~\cite{zeiler2018impaired}. Le RAP est également à la base du concept de « vraie PIC » (\textit{true ICP}), définie telle que $true ICP = ICP(1 - RAP)$~\cite{czosnyka2005concept}. Les limitations du RAP résident principalement dans sa sensibilité à la ligne de base du signal de PIC et aux perturbations extérieures. Ainsi, les indices RAP obtenus par le biais de capteurs intraparenchymateux implantés dans des hémisphères différents peuvent dévier de plus de 0.2 dans plus de 20\% du temps~\cite{eide2013intracranial}. Conçu pour davantage de robustesse aux perturbations extérieures, l'indice RAQ (\textit{Respiratory Amplitude Quotient}), publié en 2020, propose d'étudier les variation d'amplitude induites par la vague respiratoire~\cite{spiegelberg2020raq}. Cependant, celui-ci n'a fait l'objet d'aucune étude impliquant un monitorage invasif de la PIC entre sa date de publication et 205.

\subsubsection{Morphologie des pulsations cardiaques}

\par À l'échelle du cycle cardiaque, la compliance cérébrale est un déterminant de l'allure générale des pulsations visibles sur le signal de PIC. Celle-ci peut être décrite de façon géométrique en prenant pour repères les positions et hauteurs relatives des pics P1, P2 et P3, ou bien de façon plus globale par un score déterminé par apprentissage supervisé.

\par Dans le premier cas, la reconnaissance automatique des pics P1, P2 et P3 représente un challenge technique, dont les solutions présentées dans la littérature font systématiquement appel à de l'apprentissage automatique \cite{lee2015morphological}~\cite{kalaiarasan2024novel}. En particulier, l'algorithme MOCAIP (\textit{MOrphological Clustering and Analysis of continuous Intracranial Pressure}), publié en 2008 \cite{hu2008morphological}, propose de calculer 24 métriques associées aux pics P1, P2 et P3. 
%
Pour ce faire, la pulsation caractéristique d'une période de référence est déterminée par clustering. Les pics P1, P2 et P3 sont ensuite identifiés sur cette pulsation par un algorithme d'apprentissage supervisé. Différentes alternatives au modèle gaussien initial ont été successivement proposées dans la littérature par les auteurs de MOCAIP \cite{hu2010intracranial, scalzo2012bayesian, rashidinejad2020patient}. Quel que soit l'algorithme de détection choisi, celui-ci choisit les pics P1, P2 et P3 parmi un ensemble de candidats correspondant à des extrema de la fonction courbure, définie pour un vecteur $v \in {\mathcal{C}}^{2}(\mathbb{R})$ par l'application $v \rightarrow \frac{v''}{(1+ v'^{2})^{(3/2)}}$. 
%
Si l'algorithme MOCAIP n'a jamais été utilisé dans un contexte clinique en temps réel, sa conception prend en compte les différentes perturbations auxquelles le signal de PIC peut être sujet. En effet, l'étape de clustering permet d'éliminer les pulsations statistiquement anormales, au risque d'une perte d'information importante en cas de forte variabilité de la forme des pulsations. Quoiqu'il en soit, l'algorithme MOCAIP comme ses dérivés reposent sur un signal auxiliaire (pression artérielle et/ou électrocardiogramme) pour l'identification des pics et/ou des pulsations, pouvant compliquer son utilisation en temps réel dans les hôpitaux. Cette difficulté s'ajoute au coût calculatoire de l'étape de clustering dans un contexte de monitorage par un dispositif embarqué.


%applications cliniques
\par Une solution pour s'affranchir de la détection exacte des positions de P1, P2 et P3 consiste à attribuer un score à l'allure générale des pulsations par apprentissage supervisé. Cette possibilité implique de définir rigoureusement des critères de classification, répétable et reproductible par des experts lors du processus d'annotation des exemples d'entraînement. La publication des premiers travaux liés au \textit{Pulse Shape Index} (PSI) en 2021~\cite{mataczynski2021end} a permis d'affiner une première ébauche proposée en 2016~\cite{nucci2016intracranial}. Le PSI correspond à la moyenne d'un score de classification calculé indépendamment sur chacune des pulsations cardiaques d'une fenêtre cinq minutes mise à jour toute les dix secondes. La classification retenue, appelée par la suite classification de Wroclaw, consiste en quatre classes de pulsations allant de "T1 - normal" à "T4 - pathologique", auxquelles s'ajoute une classe "A+E - Artefact / Erreur" (voir figure~\ref{fig:PSI}). La robustesse de la classification de Wroclaw a été validée par l'annotation indépendante de 3 médecins sur un échantillon de 20 000 exemples. La réalisation d'un \textit{benchmark} parmi plus d'une dizaine d'algorithmes d'apprentissages supervisés, allant des forêts aléatoires à différentes architectures de réseaux récurrents, a permis de sélectionner une architecture de réseaux de neurones à résidus (\textit{Residual Neural Network}, RNN) comme référence pour le calcul du PSI. La précision revendiquée au moment de la publication est de 86.00\%. Un PSI plus élevé a été associé avec la présence lésions cérébrales visibles au scanner~\cite{kazimierska2023relationship} ainsi qu'avec une mortalité plus élevée~\cite{uryga_analysis_2023}.

\begin{figure}[h!]
    \centering
    \includegraphics[width=1\linewidth]{mecanique/PSI.png}
    \caption{Classification de Wroclaw, utilisée pour le calcul du \textit{Pulse Shape Index}. Traduit et adapté de~\cite{mataczynski2021end}.}
    \label{fig:PSI}
\end{figure}

\section{Autorégulation cérébrale}
	\subsection{Mécanismes physiologiques}
	\subsection{Caractérisation dans le domaine fréquentiel}
	\subsection{Caractérisation dans le domaine temporel}