Commit 031922c7ec0ce7b47e8c9bd3d5825fb898a0fd05

Authored by dlege
1 parent 8203ad01c6
Exists in master

forme

Showing 11 changed files with 361 additions and 25 deletions Side-by-side Diff

... ... @@ -2286,4 +2286,23 @@
2286 2286 year={2022},
2287 2287 publisher={Elsevier}
2288 2288 }
  2289 +
  2290 +@inproceedings{chen2016xgboost,
  2291 + title={Xgboost: A scalable tree boosting system},
  2292 + author={Chen, Tianqi and Guestrin, Carlos},
  2293 + booktitle={Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining},
  2294 + pages={785--794},
  2295 + year={2016}
  2296 +}
  2297 +
  2298 +@article{hoh20232023,
  2299 + title={2023 guideline for the management of patients with aneurysmal subarachnoid hemorrhage: a guideline from the American Heart Association/American Stroke Association},
  2300 + author={Hoh, Brian L and Ko, Nerissa U and Amin-Hanjani, Sepideh and Chou, Sherry Hsiang-Yi and Cruz-Flores, Salvador and Dangayach, Neha S and Derdeyn, Colin P and Du, Rose and H{\"a}nggi, Daniel and Hetts, Steven W and others},
  2301 + journal={Stroke},
  2302 + volume={54},
  2303 + number={7},
  2304 + pages={e314--e370},
  2305 + year={2023},
  2306 + publisher={Lippincott Williams \& Wilkins Hagerstown, MD}
  2307 +}
chapters/Annexes-EC2.tex View file @ 031922c
... ... @@ -9,7 +9,6 @@
9 9 \label{fig:S1}
10 10 \end{figure}
11 11  
12   -
13 12 \begin{figure}[h!]
14 13 \centering
15 14 \includegraphics[width=1\linewidth]{EC2/annexe/S2_Fig.jpeg}
... ... @@ -17,6 +16,7 @@
17 16 \label{fig:S2}
18 17 \end{figure}
19 18  
  19 +\newpage
20 20 \section{Visualisation des exposants de Hurst des IMFs n°4}
21 21 \label{IMF4}
22 22  
... ... @@ -35,6 +35,7 @@
35 35 \label{fig:S4}
36 36 \end{figure}
37 37  
  38 +\newpage
38 39 \section{Visualisation des amplitudes instanées des IMFs n°6}
39 40 \label{IMF6}
40 41  
chapters/EC2.tex View file @ 031922c
... ... @@ -222,7 +222,7 @@
222 222  
223 223  
224 224 \subsection{Processus de sélection des variables}
225   -Les variables utilisées sont classées en fonction des coefficients non-nuls d'un modèle de L1-RL bootstrappé. Par la suite, les variables les mieux classées sont progressivement ajoutées aux entrées des algorithmes de classification jusqu'à ce que l'AUROC cesse d'augmenter. Suite à la validée croisée préliminaire, le paramètre de régularisation $C$ est fixé à 0.2. Les 10 variables les mieux classées sont présentées dans la table~\ref{tab:features}. Ces dernières sont associées avec au moins 54.7\% d'itérations avec un coefficient non-nul, contre 29.5\% en moyenne (écart type = 21\%) sur l'ensemble des 73 variables.
  225 +Les variables utilisées sont classées en fonction des coefficients non-nuls d'un modèle de L1-RL bootstrappé. Par la suite, les variables les mieux classées sont progressivement ajoutées aux entrées des algorithmes de classification jusqu'à ce que l'AUROC cesse d'augmenter. Suite à la validation croisée préliminaire, le paramètre de régularisation $C$ est fixé à 0.2. Les 10 variables les mieux classées sont présentées dans la table~\ref{tab:features}. Ces dernières sont associées avec au moins 54.7\% d'itérations avec un coefficient non-nul, contre 29.5\% en moyenne (écart type = 21\%) sur l'ensemble des 73 variables.
226 226 \begin{table}[h!]
227 227 \centering
228 228 \resizebox{\columnwidth}{!}{%
... ... @@ -299,7 +299,7 @@
299 299 L'âge des patients présente des corrélations significatives avec différentes caractéristiques du signal de PIC. En particulier, les patients plus âgés tendent à présenter des formes de pulsations cardiaques classiquement associées à une compliance cérébrale dégradée. Ainsi, l'âge des patients est significativement corrélé avec des pulsations de plus grande amplitude (corrélation = +0.38), et des formes de pulsation davantage triangulaires, décrit par l'exposant de Hurst de l'IMF n°2 (corrélation = +0.32). La pression artérielle est négativement corrélée (-0.38) avec le centroïde des fréquences de l'IMF2. Les autres corrélations observées entre variables restent relativement faibles en valeur absolue.
300 300  
301 301 \subsection{Algorithmes de classification}
302   -Les performances des modèles de classification sont comparées en calculant l'aire sous la courbe ROC moyennée sur 40 itérations d'une validation croisée à 5 plis. Comme présenté dans la figure~\ref{fig:EC2-5} dans le cadre d'une classification binaire, le meilleur compris entre performance et complexité est atteint pour $n = 5$.
  302 +Les performances des modèles de classification sont comparées en calculant l'aire sous la courbe ROC moyennée sur 40 itérations d'une validation croisée à 5 plis. Comme présenté dans la figure~\ref{fig:EC2-5} dans le cadre d'une classification binaire, le meilleur compromis entre performance et complexité est atteint pour $n = 5$.
303 303  
304 304 \begin{figure}[h!]
305 305 \centering
chapters/Introduction.tex View file @ 031922c
1 1 \section*{Introduction générale}
2   -Cette thèse, réalisée dans le cadre d'une collaboration CIFRE entre la société Sophysa et le département DISC du laboratoire Femto-ST, vise à rendre compte des possibilités offertes par le monitorage continu de la pression intracrânienne (PIC) pour la prise en charge de patients en neuro-réanimation. Ainsi, deux pathologies sont plus particulièrement étudiées : le traumatisme crânien (TC) et l'hémorragie subarachnoïdienne (HSA). En pratique clinique, dans le cadre d'un monitorage multimodal, la mesure de la PIC vise quasi-exclusivement à prévenir les épisodes d'hypertension intracrânienne (HTIC), dont le seuil est classiquement fixé autour de 20 mmHg~\cite{carney2017guidelines}.Toutefois, comme le résume simplement la formule désormais consacrée, ''\textit{Intracranial pressure is more than a number}''\cite{czosnyka2007intracranial} : en d'autres termes, la morphologie du signal de PIC contient des informations sur l'état de santé du patient qui ne peuvent être retranscrites par une simple moyenne glissante. Ainsi, l'objectif de cette thèse consiste à étudier deux propriétés du système cérébrospinal à partir du signal de PIC et d'autres monitorages associés :
  2 +Cette thèse, réalisée dans le cadre d'une collaboration CIFRE entre la société Sophysa et le département DISC du laboratoire Femto-ST, vise à rendre compte des possibilités offertes par le monitorage continu de la pression intracrânienne (PIC) pour la prise en charge de patients en neuro-réanimation. Ainsi, deux pathologies sont plus particulièrement étudiées : le traumatisme crânien (TC) et l'hémorragie subarachnoïdienne (HSA). En pratique clinique, dans le cadre d'un monitorage multimodal, la mesure de la PIC vise quasi-exclusivement à prévenir les épisodes d'hypertension intracrânienne (HTIC), dont le seuil est classiquement fixé autour de 20 mmHg~\cite{carney2017guidelines}. Toutefois, comme le résume simplement la formule désormais consacrée, ''\textit{Intracranial pressure is more than a number}''~\cite{czosnyka2007intracranial} : en d'autres termes, la morphologie du signal de PIC contient des informations sur l'état de santé du patient qui ne peuvent être retranscrites par une simple moyenne glissante. Ainsi, l'objectif de cette thèse consiste à étudier deux propriétés du système cérébrospinal à partir du signal de PIC et d'autres monitorages associés :
3 3  
4 4 \paragraph{La compliance cérébrale.} Ce terme désigne la relation pression-volume régnant au sein de la boîte crânienne. Autrement dit, cette propriété correspond à la capacité du système à encaisser des changements de volume au sein d'un espace semi-clos sans que la PIC ne monte de façon délétère pour le patient. En pratique clinique, l'information de la compliance cérébrale est utile pour identifier les patients à risque d'HTIC, ainsi que pour ajuster les niveaux de sédation à certains moments critiques, comme la levée du coma artificiel. Le lien entre compliance cérébrale et morphologie de la composante cardiaque du signal de PIC est bien identifié par le corps médical, mais cette dernière n'est quasiment jamais monitorée au lit du patient en raison des difficultés techniques posées par sa quantification~\cite{kazimierska2023analysis}.
5 5  
chapters/Optimap.tex View file @ 031922c
1 1 \section{Introduction}
2   -En 1959, Niels Lassen formalise le concept d'autorégulation cérébrale~\cite{lassen1959cerebral} (AC), mécanisme de protection permettant d'assurer une certaine constance du débit sanguin cérébral (DSC) face aux variations de pression de perfusion cérébrale (PPC). En situation physiologique, l'AC agit comme un filtre passe-haut atténuant les variations de PPC ~\ref{silverman2020physiology} dans un domaine fréquentiel classiquement étudié entre 0.02 et 0.5 Hz~\cite{panerai2023transfer}. Toutefois, les mécanismes d'AC ne sont véritablement fonctionnels que dans une certaine plage de valeurs de PPC, appelé \textit{plateau d'autorégulation}. La limite inférieure de ce plateau d'AC, nommée \textit{Lower Limit of Autoregulation} (LLA), est variable selon les patients et les pathologies ; toutefois, les recommandations internationales préconisent de maintenir la PPC du patient atteint de traumatisme crânien (TC) entre 60 et 70 mmHg~\cite{carney2017guidelines}. Classiquement, les capacités d'autorégulation sont quantifiées en étudiant la relation existant entre la PPC et un dérivé du DSC, généralement la vitesse moyenne du sang dans une artère cérébrale (Vm) estimée par ultrasonographie. Toutefois, certaines méthodes de mesure, plus spécifiques aux unités de soins intensifs, permettent de s'adapter à la fragilité des patients tout en tirant parti des longs segments de monitorage disponibles (voir section~\ref{autorégulation}). Dans ce cadre, l'AC peut notamment être étudiée à partir de la relation existant entre la PA et la PIC, en gardant à l'esprit que cette dernière est un dérivé du volume sanguin cérébral (VSC) et non du DSC. La caractérisation de l'AC repose alors sur le fait que les mécanismes de vasoconstriction artérielle observés sur le plateau d'autorégulation causent une diminution du VSC. Quel que soit le couple de signaux choisi (PPC et Vm ou PA et PIC), l'AC est généralement étudiée dans le domaine temporel à partir d'indices de corrélation glissante. Ces derniers, soutenus par un volume important de littérature, permettent d'ajuster la consigne standard de 60 à 70 mmHg à un patient donné et à un moment donné. Toutefois, le calcul des corrélations glissantes s'appuie uniquement sur des variations spontanées de la PPC et nécessite donc un temps de monitorage long (au minimum 4h~\cite{beqiri2021optimal}) pour identifier une LLA.
3   -\par En pratique clinique, une alternative consiste à explorer proactivement différentes valeurs de PPC pour rechercher une zone de rupture dans la relation entre PPC et Vm, et situer ainsi les limites du plateau d'autorégulation. Sur ces temps de mesure plus courts, l'AC peut être directement caractérisée par le portrait de phase PPC-Vm en se reconstituant la courbe de Lassen pour un patient spécifique (voir section~\ref{autorégulation}). Dans la présente étude, l'emplacement du point de rupture correspondant à la LLA est confirmé en comparant les portraits de phase de différentes variables calculées. En particulier, l'index de pulsatilité (IP) du signal de Doppler transcrânien est souvent utilisé en parallèle de la valeur directe de V\textsubscript{m} en raison de son indépendance à l'angle d'insonation. De plus, le seuil pathologique à partir de 1,2-1.4 est généralement admis dans la littérature, et correspond à une gêne de l'écoulement du sang dans l'arbre vasculaire cérébral~\cite{ract2007transcranial}. Sur le signal de PIC, les variations d'amplitude de la composante cardiaque ont déjà été étudiées comme le reflet de changements de résistance à l'écoulement du sang~\cite{mahfoud2010intracranial}. Enfin, dans le domaine fréquentiel, le gain et la phase de la fonction de transfert entre PPC et Vm sont des indicateurs largement utilisés dans la communauté scientifique. Cependant, l'utilisation de la transformée de Fourier suppose à la fois une stationnarité des deux signaux et une linéarité de la réponse, hypothèses non-respectées au cours de l'épreuve. Pour contourner ces problèmes, le calcul d'un gain et d'un déphasage instantanés sont proposés à partir d'une décomposition non-linéaire du signal appelée filtrage itératif multivarié (MFIF, voir section~\ref{FIF}).
  2 +En 1959, Niels Lassen formalise le concept d'autorégulation cérébrale~\cite{lassen1959cerebral} (AC), mécanisme de protection permettant d'assurer une certaine constance du débit sanguin cérébral (DSC) face aux variations de pression de perfusion cérébrale (PPC). En situation physiologique, l'AC agit comme un filtre passe-haut atténuant les variations de PPC ~\cite{silverman2020physiology} dans un domaine fréquentiel classiquement étudié entre 0.02 et 0.5 Hz~\cite{panerai2023transfer}. Toutefois, les mécanismes d'AC ne sont véritablement fonctionnels que dans une certaine plage de valeurs de PPC, appelé \textit{plateau d'autorégulation}. La limite inférieure de ce plateau d'AC, nommée \textit{Lower Limit of Autoregulation} (LLA), est variable selon les patients et les pathologies ; toutefois, les recommandations internationales préconisent de maintenir la PPC du patient atteint de traumatisme crânien (TC) entre 60 et 70 mmHg~\cite{carney2017guidelines}. Classiquement, les capacités d'autorégulation sont quantifiées en étudiant la relation existant entre la PPC et un dérivé du DSC, généralement la vitesse moyenne du sang dans une artère cérébrale (Vm) estimée par ultrasonographie. Toutefois, certaines méthodes de mesure, plus spécifiques aux unités de soins intensifs, permettent de s'adapter à la fragilité des patients tout en tirant parti des longs segments de monitorage disponibles (voir section~\ref{autoregulation}). Dans ce cadre, l'AC peut notamment être étudiée à partir de la relation existant entre la PA et la PIC, en gardant à l'esprit que cette dernière est un dérivé du volume sanguin cérébral (VSC) et non du DSC. La caractérisation de l'AC repose alors sur le fait que les mécanismes de vasoconstriction artérielle observés sur le plateau d'autorégulation causent une diminution du VSC. Quel que soit le couple de signaux choisi (PPC et Vm ou PA et PIC), l'AC est généralement étudiée dans le domaine temporel à partir d'indices de corrélation glissante. Ces derniers, soutenus par un volume important de littérature, permettent d'ajuster la consigne standard de 60 à 70 mmHg à un patient donné et à un moment donné. Toutefois, le calcul des corrélations glissantes s'appuie uniquement sur des variations spontanées de la PPC et nécessite donc un temps de monitorage long (au minimum 4h~\cite{beqiri2021optimal}) pour identifier une LLA.
  3 +\par En pratique clinique, une alternative consiste à explorer proactivement différentes valeurs de PPC pour rechercher une zone de rupture dans la relation entre PPC et Vm, et situer ainsi les limites du plateau d'autorégulation. Sur ces temps de mesure plus courts, l'AC peut être directement caractérisée par le portrait de phase PPC-Vm en se reconstituant la courbe de Lassen pour un patient spécifique (voir section~\ref{autoregulation}). Dans la présente étude, l'emplacement du point de rupture correspondant à la LLA est confirmé en comparant les portraits de phase de différentes variables calculées. En particulier, l'index de pulsatilité (IP) du signal de Doppler transcrânien est souvent utilisé en parallèle de la valeur directe de V\textsubscript{m} en raison de son indépendance à l'angle d'insonation. De plus, le seuil pathologique à partir de 1,2-1.4 est généralement admis dans la littérature, et correspond à une gêne de l'écoulement du sang dans l'arbre vasculaire cérébral~\cite{ract2007transcranial}. Sur le signal de PIC, les variations d'amplitude de la composante cardiaque ont déjà été étudiées comme le reflet de changements de résistance à l'écoulement du sang~\cite{mahfoud2010intracranial}. Enfin, dans le domaine fréquentiel, le gain et la phase de la fonction de transfert entre PPC et Vm sont des indicateurs largement utilisés dans la communauté scientifique. Cependant, l'utilisation de la transformée de Fourier suppose à la fois une stationnarité des deux signaux et une linéarité de la réponse, hypothèses non-respectées au cours de l'épreuve. Pour contourner ces problèmes, le calcul d'un gain et d'un déphasage instantanés sont proposés à partir d'une décomposition non-linéaire du signal appelée filtrage itératif multivarié (MFIF, voir section~\ref{FIF}).
4 4 \par Ainsi, la présente étude vise ainsi à comparer la localisation du plateau d'autorégulation obtenue à l'issue d'une épreuve de variation de PA induite par modulation du débit de noradrénaline (NAD) avec les approches rétrospectives classiques impliquant le calcul du Mx (corrélation glissante entre PPC et V\textsubscript{m}) et du PRx (corrélation glissante entre PA et PIC).
5 5  
6 6 \section{Matériel et méthodes}
7 7  
8 8 \subsection{Collecte des données}
9   -Vingt-six patients atteints de TC admis en unité de réanimation dans les CHU de Saint-Étienne, Clermont-Ferrand ou Rennes entre avril 2023 et juillet 2025 ont été inclus dans l'étude. Au cours de leur séjour en réanimation, ces patients ont bénéficié d'une prise en charge conforme aux recommandations internationales quant au traitement du TC~\ref{carney2017guidelines}. La non opposition à l'utilisation des données clinique et des monitorages a été recherchée auprès du patient et/ou de sa famille. Une notice d'information expliquant l'étude et précisant la possibilité de s'opposer à l'utilisation de leurs données a été envoyée au patient/famille des patients inclus.
  9 +Vingt-six patients atteints de TC admis en unité de réanimation dans les CHU de Saint-Étienne, Clermont-Ferrand ou Rennes entre avril 2023 et juillet 2025 ont été inclus dans l'étude. Au cours de leur séjour en réanimation, ces patients ont bénéficié d'une prise en charge conforme aux recommandations internationales quant au traitement du TC~\cite{carney2017guidelines}. La non opposition à l'utilisation des données clinique et des monitorages a été recherchée auprès du patient et/ou de sa famille. Une notice d'information expliquant l'étude et précisant la possibilité de s'opposer à l'utilisation de leurs données a été envoyée au patient/famille des patients inclus.
10 10 En France, comme indiqué dans les recommandations publiées en 2018~\cite{geeraerts2016management}, la PPC doit être titrée sur les données de l'AC. En fonction des équipes, les modalités de cette titration sont variables. Dans les centres concernés par l'étude, le protocole de titration consiste à réaliser des challenges pressionnels en modulant le débit de perfusion de noradrénaline (NAD) de façon à provoquer une baisse passagère de PA (et donc de la PPC). Une épreuve complète est constituée le plus souvent d'une phase de baisse progressive de la PA, et d'une phase de remontée au niveau initial après le passage par une valeur minimale qui correspond aux posologies minimales de NAD. Selon la réponse du patient à la baisse du débit de NAD, les épreuves étudiées durent entre 10 et 30 min, pour une variation de PPC (estimée par la relation PAM - PIC) d'au moins 15 mmHg. Le détail des épreuves est présenté dans la table~\ref{optimap-tab:challenges}. Les épreuves ont été réalisées dans les dix premiers jours de traitement. Dans le cas de cinq patients, deux épreuves ont été réalisées, avec un espacement minimum de 24h, portant à 31 le total d'épreuves étudiées. Durant ces épreuves, les patients bénéficiaient d'un monitorage de PIC au moyen d'un capteur intraparenchymateux (Pressio, Sophysa, France) et d'un monitorage invasif de la PA en plaçant le capteur au niveau du tragus de de l'oreille. De plus, la vitesse moyenne du sang passant dans l'artère cérébrale médiane était suivie au moyen d'un Doppler transcrânien équipée d'une sonde robotisée et émettant des ultrasons de fréquence 2 MHz (Waki, Atys, France).
11 11  
12 12 \begin{table}
... ... @@ -230,7 +230,7 @@
230 230 Dans cette étude, 31 épreuves d'hypotension réparties sur 24 patients ont été effectuées pour identifier la limite basse du plateau d'autorégulation cérébrale, ou LLA. En-deçà de celle-ci, la baisse de PPC n'est plus compensée par des mécanismes de vasodilatation des artères cérébrales. Si la variabilité dans la durée des épreuves est importante (de 5 minutes à une demi-heure), l'échelle de temps reste grande devant la plage de fréquences classiquement utilisée pour caractériser l'AC (de 0.02 à 0.5 Hz, c'est-à-dire des périodes de 2 à 50 secondes). Cependant, la cinétique et l'amplitude des variations de PPC étant difficiles à reproduire d'un patient à un autre en raison des réponses hétérogènes d'un patient à l'autre aux posologies de NAD, différentes variables calculées sont suivies en parallèle de la V\textsubscript{m} pour chercher une confirmation dans les valeurs obtenues.
231 231  
232 232 \subsection{Réponses du système à l'épreuve d'hypotension}
233   -Les modèles mixtes de régression en ligne brisée permettent de mettre en évidence une réponse générale du système à l'échelle de la population étudiée en fonction de la PPC atteinte (figure~\ref{optimap-fig:fixes}). Sur le signal de V\textsubscript{m}, à l'échelle de la population, une rupture est nettement visible autour de 60 mmHg, en-deçà de laquelle la pente PPC / Vm augmente : les mécanismes d'AC deviennent progressivement inopérants ; les variations de PPC sont transmises passivement au DSC, et donc à la Vm. L'écart type autour de la position de rupture moyenne est de 11.75 mmHg, traduisant une certaine variabilité de la LLA en fonction des patients, et donc l'intérêt de préciser individuellement la plage générale conseillée pour le TC (de 60 à 70 mmHg~\ref{carney2017guidelines}). En confirmation, l'IP augmente de façon plus marquée en dessous de cette rupture, traduisant une gêne de l'écoulement du sang dans l'arbre vasculaire cérébral. Différents marqueurs convergent également vers une baisse de volume sanguin cérébral : les ratios P2/P1 et F2/F1, causés par l'onde de réflexion de l'arrivée du sang systolique au cerveau, tendent à baisser, bien qu'aucune rupture ne soit observée dans leur relation avec la PPC. La baisse de ces ratios peut traduire une réflexion amortie par des parois artérielles vasodilatées et une diminution du volume sanguin cérébral. Concernant les réponses dans le domaine fréquentiel, l'interprétation classique consiste à considérer un gain élevé comme un signe d'AC dysfonctionnelle, dans la mesure où les variations dans le signal d'entrée ne sont pas amorties sur le signal de sortie. Au contraire, un déphasage élevé est associé à des mécanismes d'AC intacts, cette désynchronisation étant due à un retour rapide du signal de sortie à son état initial. Dans le cas présent, les réponses en gain sont difficilement interprétables du fait des grandes disparités existant dans la réponse des patients (par exemple, l'écart type des effets aléatoires sur la différence de pente du gain PA/PIC est près de trois fois plus important que la différence de pente moyenne, voir tableau~\ref{tab:Optimap-mixed}). En revanche, la réponse au changement de PAM est nettement marquée sur le déphasage instantané, entre la PPC et la Vm comme entre la PA et la PIC. En-deçà de la LLA, une synchronisation s'opère entre le signal de sortie et le signal d'entrée, traduisant un épuisement des mécanismes d'AC.
  233 +Les modèles mixtes de régression en ligne brisée permettent de mettre en évidence une réponse générale du système à l'échelle de la population étudiée en fonction de la PPC atteinte (figure~\ref{optimap-fig:fixes}). Sur le signal de V\textsubscript{m}, à l'échelle de la population, une rupture est nettement visible autour de 60 mmHg, en-deçà de laquelle la pente PPC / Vm augmente : les mécanismes d'AC deviennent progressivement inopérants ; les variations de PPC sont transmises passivement au DSC, et donc à la Vm. L'écart type autour de la position de rupture moyenne est de 11.75 mmHg, traduisant une certaine variabilité de la LLA en fonction des patients, et donc l'intérêt de préciser individuellement la plage générale conseillée pour le TC (de 60 à 70 mmHg~\cite{carney2017guidelines}). En confirmation, l'IP augmente de façon plus marquée en dessous de cette rupture, traduisant une gêne de l'écoulement du sang dans l'arbre vasculaire cérébral. Différents marqueurs convergent également vers une baisse de volume sanguin cérébral : les ratios P2/P1 et F2/F1, causés par l'onde de réflexion de l'arrivée du sang systolique au cerveau, tendent à baisser, bien qu'aucune rupture ne soit observée dans leur relation avec la PPC. La baisse de ces ratios peut traduire une réflexion amortie par des parois artérielles vasodilatées et une diminution du volume sanguin cérébral. Concernant les réponses dans le domaine fréquentiel, l'interprétation classique consiste à considérer un gain élevé comme un signe d'AC dysfonctionnelle, dans la mesure où les variations dans le signal d'entrée ne sont pas amorties sur le signal de sortie. Au contraire, un déphasage élevé est associé à des mécanismes d'AC intacts, cette désynchronisation étant due à un retour rapide du signal de sortie à son état initial. Dans le cas présent, les réponses en gain sont difficilement interprétables du fait des grandes disparités existant dans la réponse des patients (par exemple, l'écart type des effets aléatoires sur la différence de pente du gain PA/PIC est près de trois fois plus important que la différence de pente moyenne, voir tableau~\ref{tab:Optimap-mixed}). En revanche, la réponse au changement de PAM est nettement marquée sur le déphasage instantané, entre la PPC et la Vm comme entre la PA et la PIC. En-deçà de la LLA, une synchronisation s'opère entre le signal de sortie et le signal d'entrée, traduisant un épuisement des mécanismes d'AC.
234 234  
235 235 \subsection{Détermination de la LLA}
236 236 La conception des épreuves doit permettre une mesure directe de la LLA en reconstruisant la courbe de Lassen pour un patient donné, contrairement aux mesures rétrospectives classiques s'appuyant sur des variations spontanées de la PPC sur le temps long. Toutefois, les valeurs de LLA obtenues sont grandement influencées par la variable utilisée et par la phase de l'épreuve étudiée (montée, descente, épreuve entière). Concernant ce dernier paramètre, la concordance entre les différentes méthodologies est plus prononcé dans la phase de montée (voir figures~\ref{fig:Optimap-ba_challenges} et \ref{fig:Optimap-lin}) que pendant la descente, ou même en considérant l'épreuve complète. Cette observation peut s'expliquer par une différence mécanique existant entre les deux phases de l'épreuve. Lors de la remontée, les artérioles sont entièrement dilatées et le système reçoit passivement un débit sanguin subitement ré-augmenté. La réponse est donc plus immédiate et synchronisée, là où lors de la descente, la baisse de débit provoque un dé-recrutement progressif de différentes régions de l'arbre vasculaire cérébral. Cette interprétation est corroborée par la différence observée sur les LLAs calculées entre la descente et la montée de PPC (voir tableau~\ref{tab:Optimap-wilcoxon}), où les valeurs obtenues tendent à être plus élevées dans la première phase, en particulier lorsque calculées sur l'IP. Quoiqu'il en soit, les valeurs de LLA obtenues restent assez disparates, d'autant plus qu'aucune des méthodes n'a permis l'identification systématique d'une valeur de LLA (voir tableau~\ref{tab:Optimap-valid}).
... ... @@ -242,7 +242,7 @@
242 242 \subsection{Limites et perspectives}
243 243 La première limite réside dans le nombre d'épreuves à disposition, réduit par le fait que toutes les épreuves ne permettent pas systématiquement d'identifier une LLA. Une possibilité serait de comparer les valeurs calculées avec l'avis d'un expert au lit du malade, permettant d'avoir une vision plus globale de l'état du patient. Cette solution permettrait également de comparer plus précisément les indices basés sur la relation PA-PIC à leurs équivalents basés sur le couple PPC-Vm. Les mesures d'autorégulation basées sur l'évolution du PRx prouvent qu'il est possible sur le temps long d'identifier une LLA de manière fiable sans DTC ; cependant, sur le temps court d'une épreuve, les résultats de l'étude montre une certaine divergence entre la relation PPC-V\textsubscript{m} et la relation PA-PIC.
244 244  
245   -\par Un autre questionnement réside dans la cinétique des épreuves, de durées assez variables (de quelques minutes à pratiquement une demi-heure), ainsi que dans l'asymétrie de certaines d'entre elles. Cependant, malgré la difficulté de produire une étude standardisée par patient du fait de la réponse variable au débit de NAD, les différences des résultats entre montée et descente de PPC montrent toute l'importance d'étudier la réponse du système dans ces deux configurations. Enfin, le déphasage instantané mesuré entre la PPC et la Vm, comme entre la PA et la PIC, offre des perspectives intéressantes en tant qu'outil de monitorage continu de l'AC. En effet, cet indice réagit de façon interprétable à l'épreuve d'hypotension, tout en présentant l'intérêt de ne nécessiter aucun autre paramètre que la plage de fréquences étudiée, bien identifiée dans la littérature. De plus, celui-ci est soutenu par une littérature abondante sur l'autorégulation cérébrale, tout en contournant les principales limitations de l'analyse de Fourier (linéarité, stationnarité). Une évolution potentielle serait de calculer une phase instantanée par un autre moyen que la transformée de Hilbert, celle-ci pouvant être sujette à certains artefacts numériques, notamment dans le cas de discontinuités du signal~\ref{sharpley2006analysis}.
  245 +\par Un autre questionnement réside dans la cinétique des épreuves, de durées assez variables (de quelques minutes à pratiquement une demi-heure), ainsi que dans l'asymétrie de certaines d'entre elles. Cependant, malgré la difficulté de produire une étude standardisée par patient du fait de la réponse variable au débit de NAD, les différences des résultats entre montée et descente de PPC montrent toute l'importance d'étudier la réponse du système dans ces deux configurations. Enfin, le déphasage instantané mesuré entre la PPC et la Vm, comme entre la PA et la PIC, offre des perspectives intéressantes en tant qu'outil de monitorage continu de l'AC. En effet, cet indice réagit de façon interprétable à l'épreuve d'hypotension, tout en présentant l'intérêt de ne nécessiter aucun autre paramètre que la plage de fréquences étudiée, bien identifiée dans la littérature. De plus, celui-ci est soutenu par une littérature abondante sur l'autorégulation cérébrale, tout en contournant les principales limitations de l'analyse de Fourier (linéarité, stationnarité). Une évolution potentielle serait de calculer une phase instantanée par un autre moyen que la transformée de Hilbert, celle-ci pouvant être sujette à certains artefacts numériques, notamment dans le cas de discontinuités du signal~\cite{sharpley2006analysis}.
246 246  
247 247 \section{Conclusion}
248 248 La détermination d'une LLA à partir d'un challenge pressionnel est possible, et relativement consistante avec les résultats obtenus sur un temps long de monitorage à partir d'indices de corrélation. Toutefois, la manœuvre reste opérateur-dépendant. La décision doit être prise par le clinicien sur la base du portrait de phase PPC-Vm, confirmée par différentes variables telles que l'IP ou le déphasage instantané entre la PPC et la Vm. Prendre en considération les différences de réponse du patient lors d'une montée ou d'une baisse de PPC permet également d'affiner la limite du plateau d'autorégulation.
chapters/chapitre_HCL.tex View file @ 031922c
... ... @@ -144,13 +144,13 @@
144 144 \begin{figure}[h!]
145 145 \centering
146 146 \includegraphics[width=1\linewidth]{HCL/fig4.png}
147   - \caption{Processus d'identification de P1 et P2. Les positions candidates correspondent aux maxima locaux positifs de la courbure de la pulsation. Les intervalles de prédiction de P1 et P2 sont calculés par un modèle neuronal. Comme dans cet exemple, les pics peuvent être choisis en-dehors des intervalles de prédiction. Les pics P1 et P2 mnauellement annotés correspondent ici aux pics choisis par l'algorithme.}
  147 + \caption{Processus d'identification de P1 et P2. Les positions candidates correspondent aux maxima locaux positifs de la courbure de la pulsation. Les intervalles de prédiction de P1 et P2 sont calculés par un modèle neuronal. Comme dans cet exemple, les pics peuvent être choisis en-dehors des intervalles de prédiction. Les pics P1 et P2 manuellement annotés correspondent ici aux pics choisis par l'algorithme.}
148 148 \label{hcl-fig:fig4}
149 149 \end{figure}
150 150  
151 151 \subsection{Contrôle conforme des risques}
152 152 \subsubsection{Procédure de contrôle des risques}
153   -Cette étape visite à garantir certaines propriétés statistiques du pipeline d'analyse complet. La procédure de contrôle des risques est conçue pour identifier les prédictions non-fiables et les éliminer de l'affichage final. Trois critères sont utilisés pour quantifier l'incertitude des modèles neuronaux. En premier lieu, le classifieur renvoie la probabilité $\hat{f}$ de ne pas pouvoir calculer de ratio P2/P1 (\textit{i.e.}, du fait de pics manquants ou de la présence d'artefacts). Dans un second temps, le détecteur renvoie deux intervalles de prédiction $[l_{P1}(x), u_{P1}(x)]$ et $[l_{P2}(x), u_{P2}(x)]$ dont les largeurs sont respectivement notées $\hat{w}_{P1}$ et $\hat{w}_{P2}$. Ainsi, des seuils sur $\hat{f}$, $\hat{w}_{P1}$ et $\hat{w}_{P2}$ peuvent être utilisés pour rejeter des prédictions identifiées comme trop incertaines et garantir certaines propriétés statistiques sur les sorties du pipeline. Plus formellement, soit $\lambda = [\lambda_{0}, \lambda_{1}, \lambda_{2}] \in [0,1] \times [0, 180] \times [0, 180]$ un triplet de seuils. La fonction de décision finale est définie comme suit:
  153 +Cette étape vise à garantir certaines propriétés statistiques du pipeline d'analyse complet. La procédure de contrôle des risques est conçue pour identifier les prédictions non-fiables et les éliminer de l'affichage final. Trois critères sont utilisés pour quantifier l'incertitude des modèles neuronaux. En premier lieu, le classifieur renvoie la probabilité $\hat{f}$ de ne pas pouvoir calculer de ratio P2/P1 (\textit{i.e.}, du fait de pics manquants ou de la présence d'artefacts). Dans un second temps, le détecteur renvoie deux intervalles de prédiction $[l_{P1}(x), u_{P1}(x)]$ et $[l_{P2}(x), u_{P2}(x)]$ dont les largeurs sont respectivement notées $\hat{w}_{P1}$ et $\hat{w}_{P2}$. Ainsi, des seuils sur $\hat{f}$, $\hat{w}_{P1}$ et $\hat{w}_{P2}$ peuvent être utilisés pour rejeter des prédictions identifiées comme trop incertaines et garantir certaines propriétés statistiques sur les sorties du pipeline. Plus formellement, soit $\lambda = [\lambda_{0}, \lambda_{1}, \lambda_{2}] \in [0,1] \times [0, 180] \times [0, 180]$ un triplet de seuils. La fonction de décision finale est définie comme suit:
154 154  
155 155 \[
156 156 \mathcal{F}_{\lambda}(x)=
157 157  
... ... @@ -198,9 +198,9 @@
198 198  
199 199 \item K plus proches voisins (\textit{K-Nearest neighbors, KNN}) : soit \textit{p} une pulsation à analyser. Pour la classification et la régression, la réponse des KNN est estimée en interpolant les étiquettes des \textit{k} plus proches voisins de \textit{p}dans l'ensemble d'apprentissage. Son extension à la régression par quantile peut être réalisée facilement sans étape d'apprentissage spécifique.
200 200  
201   - \item Extreme Gradient Boosting (XGB) : cet algorithme est une version régularisée de l'algorithme des \textit{gradient-boosted trees}(). Au cours de l'étape d'apprentissage, une combinaison linéaire d'arbres de décision est construite itérativement pour minimiser une fonction de perte. Comme tout algorithme basé sur la descente de gradient, une régression par quantile peut être réalisée en utilisant une fonction de perte asymétrique pour l'apprentissage.
  201 + \item Extreme Gradient Boosting (XGB) : cet algorithme est une version régularisée de l'algorithme des \textit{gradient-boosted trees}~\cite{chen2016xgboost}. Au cours de l'étape d'apprentissage, une combinaison linéaire d'arbres de décision est construite itérativement pour minimiser une fonction de perte. Comme tout algorithme basé sur la descente de gradient, une régression par quantile peut être réalisée en utilisant une fonction de perte asymétrique pour l'apprentissage.
202 202  
203   -\item Forêts aléatoires (\textit{Random Forests}, RF): la fonction de décision repose sur la une combinaison d'un grand nombre d'arbres de décision se concentrant chacun des caractéristiques choisies aléatoirement durant l'étape d'apprentissage. Comme les forêts aléatoires ne reposent pas sur une descente de gradient, les modifications nécessaires à la régression par quantiles sont effectuées au moment de l'évaluation~\cite{meinshausen2006quantile}.
  203 +\item Forêts aléatoires (\textit{Random Forests}, RF): la fonction de décision repose sur une combinaison d'un grand nombre d'arbres de décision se concentrant chacun des caractéristiques choisies aléatoirement durant l'étape d'apprentissage. Comme les forêts aléatoires ne reposent pas sur une descente de gradient, les modifications nécessaires à la régression par quantiles sont effectuées au moment de l'évaluation~\cite{meinshausen2006quantile}.
204 204  
205 205 \item Perceptron multi-couches (\textit{Multi-layer Perceptron, MLP}): il s'agit d'une architecture simple de modèle neuronal où plusieurs couches denses de neurones sont alignées linéairement. Un \textit{drop-out} de 10\% a également été appliqué juste avant la couche de sortie. Comme pour les réseaux récurrents, la régression par quantiles est effectuée en utilisant une fonction de perte L1 asymétrique lors de l'étape d'apprentissage.
206 206  
... ... @@ -465,7 +465,7 @@
465 465  
466 466 \par Le jeu de données privé apparaît comparativement plus difficile à analyser. Dans ce contexte, les $R_{0}$ et $R_{1}$ estimés pour le pipeline LSTM s'élèvent respectivement à 4.92\% et 13.52\%, ce qui apparaît comme le meilleur compromis entre les deux risques parmi les différents pipelines. Rétrospectivement, les seuils de tolérance utilisés pour la première calibration, à savoir $\alpha_{0} = 5\%$ et $\alpha_{1} = 15\%$, apparaissent comme trop restrictifs pour l'ensemble des autres pipelines. Cependant, la seconde calibration, utilisant les seuils moins restrictifs de $\alpha_{0} = 5\%$ et $\alpha_{1} = 15\%$, a permis de mener à bien la procédure de test en séquence fixe et d'obtenir un contrôle des risques robuste pour tous les algorithmes. Dans l'ensemble, les erreurs sont principalement concentrées sur les pulsations de type T1, T4 et A+E. Le type T1 correspond aux pulsations associées à une compliance cérébrale élevée, où le pic P2 est souvent très peu prononcé. En comparaison, le type T4 se trouve à l'opposé du spectre avec des formes d'ondes triangulaires où P1 peut être difficile à localiser précisément. Enfin, les pulsations de type A+E sont proches de la limite de rejet et sont donc souvent difficiles à interpréter, y compris pour les annotateurs manuels. Pour les deux jeux de tests utilisés, le processus de calibration a d'abord augmenté la proportion de faux négatifs dans la classe A+E, mais a amélioré de manière homogène la plupart des autres indicateurs de performances dans toutes les autres classes de pulsations. En ce sens, la classification a principalement permis d'identifier quelques prédictions aberrantes, aux prix d'une prudence accrue dans le cas des pulsations proches de la frontière de décision humaine.
467 467  
468   -\par Des différences relativement importantes de MAE sur le ratio P2/P1 ont été observées sur les deux jeux de test : 0.016 pour le premier jeu de données public contre 0.061 pour le jeu de données privé. Dans les deux cas, les erreurs sont avant tout concentrées sur la classe T4 de pulsation. Comme décrit précédemment, pour ces valeurs de P2/P1 élevées (voir table~\ref{psi-ratio}), le pic P1 peut être difficile à localiser, y compris pour un annotateur humain, alors même que le ratio P2/P1 est numériquement plus instable dans ce type de situation. Une solution pourrait être d'homogénéiser davantage les positions des P1 identifiés manuellement lors de la phase d'annotation, par exemple avec en utilisant un filtre passe-haut. Quoiqu'il en soit, dans un contexte clinique, une MAE de 0.25 (voir table \ref{hcl-tab:custom}) pour ces valeurs élevées reste acceptable, dans la mesure où ces valeurs reflètent de toute façon une compliance cérébrale dégradée.
  468 +\par Des différences relativement importantes de MAE sur le ratio P2/P1 ont été observées sur les deux jeux de test : 0.016 pour le premier jeu de données public contre 0.061 pour le jeu de données privé. Dans les deux cas, les erreurs sont avant tout concentrées sur la classe T4 de pulsation. Comme décrit précédemment, pour ces valeurs de P2/P1 élevées (voir table~\ref{tab:psi-ratio}), le pic P1 peut être difficile à localiser, y compris pour un annotateur humain, alors même que le ratio P2/P1 est numériquement plus instable dans ce type de situation. Une solution pourrait être d'homogénéiser davantage les positions des P1 identifiés manuellement lors de la phase d'annotation, par exemple avec en utilisant un filtre passe-haut. Quoiqu'il en soit, dans un contexte clinique, une MAE de 0.25 (voir table \ref{hcl-tab:custom}) pour ces valeurs élevées reste acceptable, dans la mesure où ces valeurs reflètent de toute façon une compliance cérébrale dégradée.
469 469  
470 470  
471 471 \par De fait, le processus d'annotation s'est révélé être une difficulté majeure de cette étude. Si le repérage manuel des pics P1 et P2 s'avère plutôt aisé pour la plupart des enregistrements, il n'existe en revanche aucun moyen d'accéder à la biomécanique sous-jacente dans les cas difficiles à interpréter. Même si tous les annotateurs ont signalé leur difficulté à annoter certains signaux de PIC (10 sur 98 ont même été ré-annotés indépendamment par tous les annotateurs), le niveau de confiance humaine n'est pas évident à quantifier. Dans la pratique, ces cas difficiles ne sont pas répartis uniformément entre les enregistrements de PIC. Étant donné que les changements dans la morphologie de la forme d'onde de la PIC sont généralement lents et progressifs (à l'échelle des heures), les formes d'onde non-interprétables ont tendance à se produire dans un sous-ensemble limité de patients, mais pendant des périodes de temps significatives, rendant alors indisponible le monitorage du ratio P2/P1.
chapters/contexte_clinique.tex View file @ 031922c
  1 +En unité de neuro-réanimation, le monitorage de la pression intracrânienne fait l'objet de recommandations nationales et internationales pour la prise en charge du traumatisme crânien (TC)~\cite{carney2017guidelines} et d'hémorragies subarachnoïdiennes (HSA)~\cite{hoh20232023}. Ce chapitre présente une description synthétique de ces deux pathologies, avant de détailler les modalités d'acquisition du signal de PIC ainsi que ses déterminants physiologiques et son intégration à un monitorage multi-modal.
  2 +
1 3 \section{Épidémiologie}
2 4 \subsection{Traumatisme crânien}
3 5 Le terme traumatisme crânien (TC) regroupe une grande diversité d'atteintes cérébrales, touchant entre 64 et 74 millions d'individus dans le monde chaque année. Sa mortalité au niveau mondial est évaluée à 42\% pour les hommes et 29\% pour les femmes~\cite{ahmed2024epidemiology}. Le taux d'incidence est plus élevé dans les pays développés, particulièrement en Amérique du Nord (1299 cas pour 100~000 habitants), bien que l'Asie de l'Est et du Sud-Est représentent près de la moitié des cas de TC recensés chaque année~\cite{dewan2018estimating}. L'épidémiologie varie grandement selon les régions du monde : dans les pays développés, le ratio homme-femme est d'environ $2{:}1$. La distribution des âges est bimodale, avec un premier pic entre 16 et 35 ans, et le second après 70 ans~\cite{ahmed2024epidemiology}. En Inde, l'âge médian est de 32 ans, et le ratio homme-femme de $4{:}1$~\cite{karthigeyan2021head}. Classiquement, les TCs sont répartis en trois niveaux de gravité : léger, modéré, sévère (\textit{mild, moderate, severe}), les plus légers représentant 81\% des cas à l'échelle mondiale~\cite{dewan2018estimating}. Cette classification repose sur la durée et la gravité des atteintes neurologiques, ainsi que sur des critères d'imagerie cérébrale (voir table~\ref{tab:tbi})~\cite{silverberg2020management}. En particulier, l'état de conscience est évalué de 3 à 15 sur l'échelle de coma de Glasgow (\textit{Glasgow Coma Scale}, GCS). Un TC sévère correspond à un GCS de 8 ou moins, un TC léger à un GCS de 13 ou plus. La classification des TCs en trois niveaux de gravité est toutefois appelée à être révisée pour davantage de précision, la diversité des lésions cérébrales et des atteintes neurologiques ne pouvant être réduite à cette simple échelle~\cite{tenovuo2021assessing}.
4 6  
... ... @@ -92,11 +94,10 @@
92 94  
93 95 \section{Intégration de la pression intracrânienne à un monitorage multimodal}
94 96 \subsection{Pression intracrânienne et pression artérielle}
95   - En unité de soins intensifs, l'évolution conjointe de la pression artérielle (PA) et de la PIC est particulièrement surveillée, dans la mesure où celle-ci gouverne l'irrigation des tissus cérébraux. La pression de perfusion cérébrale (PPC) correspond au gradient de pression à travers l'arbre vasculaire cérébral. Celle-ci est classiquement estimée par la relation $PPC = PA - PIC$, lorsque la PIC est supérieure à la pression veineuse. De plus, dans ces conditions, la relation entre PIC et pression veineuse mesurée au niveau des sinus veineux est décrite par l'équation de Davson~\cite{lalou2018validation}:
  97 + En unité de soins intensifs, l'évolution conjointe de la pression artérielle (PA) et de la PIC est particulièrement surveillée, dans la mesure où celle-ci gouverne l'irrigation des tissus cérébraux. La pression de perfusion cérébrale (PPC) correspond au gradient de pression à travers l'arbre vasculaire cérébral. Celle-ci est classiquement estimée par la relation $PPC = PA - PIC$, cette estimation étant valide tant que la PIC est supérieure à la pression veineuse. Lorsque cette condition est respectée (c'est-à-dire dans l'immense majorité des cas), la relation entre PIC et pression mesurée au niveau des sinus veineux est décrite par l'équation de Davson~\cite{lalou2018validation}:
96 98 \begin{equation}
97 99 PIC = R_{out} \cdot I_{f} + P_{SS}
98 100 \end{equation}
99   -
100 101 où $R_{out}$ désigne la résistance à l'écoulement du LCS en en mmHg/(mL/min), $I_{f}$ le taux de sécretion de LCS en mL/min, et $P_{SS}$ la pression au sein des sinus veineux en mmHg.
101 102  
102 103 Le calcul de la PPC doit prendre en compte la position du capteur de pression artériel, situé au niveau du cœur ou du tragus de l'oreille selon les pratiques cliniques. La seconde solution permet une estimation plus précise de la PPC en ignorant le poids du continuum hydrique s'étendant du coeur au cerveau~\cite{kartal2024define}. Si une PPC comprise entre 60 et 70 mmHg est classiquement recommandée pour le traitement du traumatisme crânien~\cite{carney2017guidelines}, la nécessité de définir une valeur cible propre à chaque patient est largement évoquée dans la littérature scientifique~\cite{vu2024monitoring}. Le calcul d'une PPC optimale doit alors prendre en compte les capacité d'autorégulation cérébrale du patient, c'est-à-dire sa capacité à maintenir une certaine constance du DSC par des mécanismes de vasoconstriction (voir section~\ref{autoregulation}).
... ... @@ -108,4 +109,7 @@
108 109 VSC = \frac{c(f_{r} - f_{0})}{2f_{0}cos(\theta)}
109 110 \end{equation}
110 111 où $f_{0}$ désigne la fréquence connue de l'onde sonore émise par le DTC, $f_{r}$ la fréquence de l'onde de réflexion, et $\theta$ l'angle formé avec l'artère visée. Le signal obtenu présente une cyclicité due aux battements cardiaques. La vitesse systolique, correspondant au maximum local du cycle cardiaque, est notée $V_s$. Symétriquement, la vitesse diastolique est notée $V_d$. Ces vitesses sont le plus souvent exprimées en cm/s. En pratique clinique, deux principaux paramètres sont extraits du DTC : d'une part, la vitesse moyenne $V_m$ calculée le temps d'un cycle cardiaque, et d'une autre, l'indice de pulsatilité $IP = (V_{s} - V_{d})/V_{m}$. Ce nombre adimensionnel présente l'avantage d'être indépendant de l'angle d'insonation (angle formé par le vaisseau étudié et le faisceau d'ultrasons) choisi, les dénominateurs de l'équation \ref{doppler} se simplifiant lors du calcul du ratio. Un $IP$ supérieur à 1.4 mesuré dans l'artère cérébrale médiane est généralement considéré comme témoin d'un flux sanguin altéré~\cite{ract2007transcranial}. Des pics nommés F1, F2 et F3 sont également visibles sur la courbe de vitesse. Les mécanismes physiologiques sous-jacents sont relativement semblables à ceux des pics P1, P2 et P3 de la courbe de PIC~\cite{kim2011inter}\cite{ziolkowski2023peak}. Le ratio F2/F1, encore appelé \textit{Augmentation Index}, est connu pour être un indicateur de l'élastance des artères cérébrales~\cite{afkhami2021indexing}. De manière générale, l'ultrasonographie est utile pour évaluer certaines propriétés mécaniques de l'arbre vasculaire cérébral, et déceler des défauts d'écoulement comme des occlusions artérielles~\cite{baska2024transcranial}. La littérature fait également état de nombreuses méthodes non-invasives pour estimer la PIC à partir du signal de DTC~\cite{dokponou2023transcranial}. Si leur précision n'est pas suffisante pour remplacer un monitorage invasif de la PIC, cette utilisation du DTC permet toutefois d'identifier les patients à risque d'HTIC~\cite{martinez2024non}. Couplée aux monitorages de PA et/ou de PIC, l'ultrasonographie est un outil de mesure des capacités d'autorégulation cérébrale (voir section~\ref{autoregulation}).
  112 +
  113 +\section{Synthèse}
  114 +En unité de neuro-réanimation, la PIC est avant tout monitorée en continu chez les patients à risque d'HTIC au moyen d'un capteur intraventriculaire ou intraparenchymateux. Si les praticiens cherchent en tout premier lieu à maintenir la PIC sous un seuil pathologique généralement fixé à 20 mmHg, différentes propriétés du système cérébrospinal peuvent également être déduites de la morphologie du signal de PIC. De plus, l'analyse de ce dernier dans un contexte de monitorage multimodal permet de déceler certaines fragilités dans le processus d'irrigation des tissus cérébraux.
chapters/couv.tex View file @ 031922c
... ... @@ -19,7 +19,7 @@
19 19 Par\\~\\M. Legé Donatien
20 20  
21 21 \vspace{1.5cm}
22   -Développement d'outils d'intelligence artificielle pour le post-traitement des données de neuro-monitorage afin d'optimiser la prise en charge des patients en neuro-réanimation
  22 +{\large Développement d'outils d'intelligence artificielle pour le post-traitement des données de neuro-monitorage afin d'optimiser la prise en charge des patients en neuro-réanimation}
23 23  
24 24 \begin{flushleft}
25 25  
chapters/mecanique.tex View file @ 031922c
  1 +La morphologie du signal de PIC ainsi que sa relation avec d'autres signaux de neuro-monitorage permet d'étudier deux propriétés du système cérébrospinal : la compliance cérébrale, correspondant à la relation pression-volume existant au sein de la boîte crânienne, et l'autorégulation cérébrale, désignant un mécanisme de protection du débit sanguin cérébral. Après une présentation des outils mathématiques classiquement utilisés pour l'analyse du signal de PIC, ce chapitre décrit les différentes caractérisations de la compliance et de l'autorégulation cérébrale proposées dans la littérature.
  2 +
1 3 \section{Outils d'analyse du signal}
2 4 Les composantes du signal de PIC peuvent être isolées au moyen de différentes méthodes de décomposition. Dans la littérature, deux grandes familles d'algorithmes sont identifiables. La première correspond aux décompositions linéaires issues de la transformée de Fourier ; la seconde, plus récente, regroupe la décomposition en modes empiriques (\textit{Empirical Mode Decomposition}, EMD) et ses dérivés. Pour la suite, on considère un signal $s \in L^{2}({\mathbb{R})}$.
3 5  
4 6  
... ... @@ -147,12 +149,12 @@
147 149 \end{itemize}
148 150 L'IMFogramme (\textit{IMFogram}) est une représentation obtenue sur le plan (temps, fréquences) séparé en rectangles de dimensions $\Delta t \times \Delta f$. La valeur de chaque rectangle correspond à la somme des amplitudes moyennes de chacune des IMFs sur ce rectangle.
149 151  
150   -À titre d'exemple, une comparaison entre différentes représentations temps-fréquences d'un enregistrement de 5 minutes de PIC est présentée figure~\ref{comp}.
  152 +À titre d'exemple, une comparaison entre différentes représentations temps-fréquences d'un enregistrement de 5 minutes de PIC est présentée figure~\ref{fig:comp}.
151 153 \begin{figure}[h!]
152 154 \centering
153 155 \includegraphics[width=1\linewidth]{mecanique/comp.png}
154 156 \caption{Trois représentations temps-fréquences d'un enregistrement de pression intracrânienne. EMD --- décomposition en modes empiriques, FIF --- filtrage itératif rapide.}
155   - \label{fig:cppopt}
  157 + \label{fig:comp}
156 158 \end{figure}
157 159  
158 160  
... ... @@ -198,7 +200,7 @@
198 200 \subsubsection{Amplitude du signal de PIC}
199 201 \par En considérant que la fraction du volume sanguin d'éjection systolique (VES) transmise au cerveau reste constante, on peut montrer en utilisant le modèle de Marmarou que (i) l'amplitude des pulsations d'origine cardiaque (AMP) est inversement proportionnelle à la compliance cérébrale, et (ii) qu'il existe une relation linéaire entre amplitude et PIC, dont le coefficient est également proportionnel à la compliance cérébrale \cite{czosnyka2012modeling}. L'information apportée par l'AMP a donc été largement étudiée dès la fin des années 1970. Historiquement, le premier protocole proposé en 1977~\cite{szewczykowski1977fast} consistait à rechercher la limite des capacités de compensation (c'est-à-dire le passage de la zone I à II courbe de Langfitt, voir figure~\ref{fig:langfitt}) en la présence d'une cassure sur la droite AMP - PIC réalisée pour des patients hydrocéphales au bloc opératoire. Cependant, l'AMP peut être également utilisée comme un indicateur partiel de la compliance cérébrale dans le cadre d'un monitorage en continu~\cite{wagshul2011pulsating}. Du fait de la difficulté à découper algorithmiquement les pulsations cardiaques sur un signal de PIC univarié, les modalités de calcul de l'AMP ont donné lieu à un débat dans la littérature au milieu des années 2000 entre les partisans du domaine fréquentiel et du domaine temporel. Il a notamment été montré que l'utilisation d'une transformée de Fourier pouvait sous-estimer de 2 à 3 mmHg la véritable amplitude des pulsations, du fait de la non-vérification des hypothèses préalables à l'analyse de Fourier~\cite{holm2008frequency}. Depuis, l'algorithme de Scholkmann modifié publié en 2018 semble s'être imposé comme une méthode standard dans le domaine temporel~\cite{bishop2018multi}. Concernant la pratique clinique, il a été montré que l'AMP était un prédicteur de la mortalité chez le patient cérébrolésé~\cite{uryga_analysis_2023}. En 2011, une étude randomisée en simple aveugle sur 97 patients atteints de HSA a montré que les patients traités pour viser une AMP à 5 mmHg présentaient de meilleurs \textit{outcomes} que ceux traités pour maintenir la PIC inférieure à 20 mmHg~\cite{eide2011randomized}. En 2024, une étude portant sur 60 patients atteints de traumatisme crânien rapporte pour un tiers d'entre eux des épisodes de variations cycliques de l'AMP (nommées \textit{spindle waves}), positivement corrélées avec le devenir du patient~\cite{zhu2023spindle}.
200 202  
201   -\par L'AMP n'étant qu'au mieux proportionnelle à la véritable élastance cérébrale et sujette aux variations de la fraction du VES transmise au cerveau, d'autres indicateurs ont été proposés pour préciser l'information fournie par le calcul de l'amplitude. Le \textit{rise-time coefficient}, correspondant au coefficient directeur de la droite entre le début de la pulsation et son sommet, permet d'associer au calcul de l'amplitude la morphologie générale de la pulsation cardiaque~\cite{eide2016correlation}. L'indice RAP, proposé dans les années 1980, est défini comme la corrélation glissante entre l'AMP et la PIC moyenne \cite{czosnyka1988system}. Cet indice, positif et proche de 0 dans des conditions de compliance cérébrale préservée, tend vers 1 au fur et à mesure que la compliance se dégrade. \`A l'entrée de la zone critique d'hernie cérébrale, le RAP décroît brutalement jusqu'à devenir négatif. Historiquement proposé pour caractériser le résultat de tests d'infusion constante, le RAP a largement été étudié dans de nombreuses études rétrospectives impliquant de grandes cohortes de patients cérébrolésés~\cite{islam2024continuous}. Dans ce contexte, le RAP est alors calculé en continu. Ses auteurs préconisent de calculer la corrélation sur une fenêtre glissante de 40 échantillons de 6.4 secondes chacun, et de mesurer l'amplitude des pulsations dans le domaine fréquentiel~\cite{czosnyka2004monitoring}, mais ces valeurs ne sont pas systématiquement utilisées dans la littérature. Quoiqu'il en soit, les différentes études incluant une mesure du RAP ne parviennent pas à mettre clairement en évidence un lien avec le devenir du patient~\cite{uryga_analysis_2023}, et utilisent plutôt le RAP pour caractériser des périodes d'instabilité sujettes à des épisodes d'hypertension~\cite{donnelly2020observations, pineda2018assessing}. En parallèle, l'aire décrite par l'évolution du RAP au cours des 48 premières heures a été significativement corrélée avec certaines lésions corticales observables au scanner~\cite{zeiler2018impaired}. Le RAP est également à la base du concept de ''vraie PIC'' (\textit{true ICP}), définie telle que $true ICP = ICP(1 - RAP)$~\cite{czosnyka2005concept}. Les limitations du RAP résident principalement dans sa sensibilité à la ligne de base du signal de PIC et aux perturbations extérieures. Ainsi, les indices RAP obtenus par le biais de capteurs intraparenchymateux implantés dans des hémisphères différents peuvent dévier de plus de 0.2 dans plus de 20\% du temps~\cite{eide2013intracranial}. Conçu pour davantage de robustesse aux perturbations extérieures, l'indice RAQ (\textit{Respiratory Amplitude Quotient}), publié en 2020, propose d'étudier les variation d'amplitude induites par la vague respiratoire~\cite{spiegelberg2020raq}. Cependant, celui-ci n'a fait l'objet d'aucune étude impliquant un monitorage invasif de la PIC entre sa date de publication et 2025.
  203 +\par L'AMP n'étant qu'au mieux proportionnelle à la véritable élastance cérébrale et sujette aux variations de la fraction du VES transmise au cerveau, d'autres indicateurs ont été proposés pour préciser l'information fournie par le calcul de l'amplitude. Le \textit{rise-time coefficient}, correspondant au coefficient directeur de la droite entre le début de la pulsation et son sommet, permet d'associer au calcul de l'amplitude la morphologie générale de la pulsation cardiaque~\cite{eide2016correlation}. L'indice RAP, proposé dans les années 1980, est défini comme la corrélation glissante entre l'AMP et la PIC moyenne \cite{czosnyka1988system}. Cet indice, positif et proche de 0 dans des conditions de compliance cérébrale préservée, tend vers 1 au fur et à mesure que la compliance se dégrade. \`A l'entrée de la zone critique d'hernie cérébrale, le RAP décroît brutalement jusqu'à devenir négatif. Historiquement proposé pour caractériser le résultat de tests d'infusion constante pour le diganostic d'hydrocéphalie, le RAP a largement été étudié dans de nombreuses études rétrospectives impliquant de grandes cohortes de patients cérébrolésés~\cite{islam2024continuous}. Dans ce contexte, le RAP est alors calculé en continu. Ses auteurs préconisent de calculer la corrélation sur une fenêtre glissante de 40 échantillons de 6.4 secondes chacun, et de mesurer l'amplitude des pulsations dans le domaine fréquentiel~\cite{czosnyka2004monitoring}, mais ces valeurs ne sont pas systématiquement utilisées dans la littérature. Quoiqu'il en soit, les différentes études incluant une mesure du RAP ne parviennent pas à mettre clairement en évidence un lien avec le devenir du patient~\cite{uryga_analysis_2023}, et utilisent plutôt le RAP pour caractériser des périodes d'instabilité sujettes à des épisodes d'hypertension~\cite{donnelly2020observations, pineda2018assessing}. En parallèle, l'aire décrite par l'évolution du RAP au cours des 48 premières heures a été significativement corrélée avec certaines lésions corticales observables au scanner~\cite{zeiler2018impaired}. Le RAP est également à la base du concept de ''vraie PIC'' (\textit{true ICP}), définie telle que $true ICP = ICP(1 - RAP)$~\cite{czosnyka2005concept}. Les limitations du RAP résident principalement dans sa sensibilité à la ligne de base du signal de PIC et aux perturbations extérieures. Ainsi, les indices RAP obtenus par le biais de capteurs intraparenchymateux implantés dans des hémisphères différents peuvent dévier de plus de 0.2 dans plus de 20\% du temps~\cite{eide2013intracranial}. Conçu pour davantage de robustesse aux perturbations extérieures, l'indice RAQ (\textit{Respiratory Amplitude Quotient}), publié en 2020, propose d'étudier les variation d'amplitude induites par la vague respiratoire~\cite{spiegelberg2020raq}. Cependant, celui-ci n'a fait l'objet d'aucune étude impliquant un monitorage invasif de la PIC entre sa date de publication et 2025.
202 204  
203 205 \subsubsection{Morphologie des pulsations cardiaques}
204 206  
... ... @@ -233,7 +235,7 @@
233 235 \item Myogénique. Il s'agit du mécanismes prépondérant de la régulation du DSC~\cite{hamner2014relative}. Il correspond à la contraction graduelle des muscles lisses des parois artérielles en réaction à des changements de pression transmurale~\cite{willie2014integrative}. Seules les artérioles de diamètre compris entre 30 et 250 µm de diamètre sont capables de vasoconstriction pression-dépendante~\cite{lidington2018cerebral}. Le mécanisme moléculaire de vasoconstriction, médié par la concentration intracellulaire en ions Ca$^{2+}$, repose sur différentes protéines mécano-sensibles~\cite{jackson2021calcium}. Le délai de réponse à un changement rapide de pression est de l'ordre de 250 ms~\cite{halpern1984mechanical}.
234 236 \end{itemize}
235 237  
236   -Selon les auteurs, l'autorégulation cérébrale (AC) désigne soit la régulation du DSC dans son ensemble \cite{gomez2025individualized}\cite{rivera2017cerebral}, soit uniquement le mécanisme de protection d'origine myogénique \cite{claassen2021regulation}\cite{willie2014integrative}. Si ces différentes voies de régulation ne sont pas mutuellement exclusives, les études mentionnées dans le présent document s'intéressent principalement à la composante myogénique de l'AC. Historiquement, le concept est formalisé par Niels Lassen en 1959, dans un article agglomérant les résultats de protocoles très divers ayant pour point commun l'étude du DSC~\cite{lassen1959cerebral}. L'article contient un graphique où le DSC est décrit comme constant entre 50 et 150 mmHg de PPC, et chute brutalement en deçà de 50 mmHg. Si la méta-regression originale comporte différentes faiblesses méthodologiques, cette description du DSC comme fonction de la PPC est progressivement affinée pour former la courbe de Lassen consensuelle (figure~\ref{fig:lassen}). Les modifications apportées à la publication originale sont les suivantes :
  238 +Selon les auteurs, l'autorégulation cérébrale (AC) désigne soit la régulation du DSC dans son ensemble \cite{gomez2025individualized}\cite{rivera2017cerebral}, soit uniquement le mécanisme de protection d'origine myogénique \cite{claassen2021regulation}\cite{willie2014integrative}. Si ces différentes voies de régulation ne sont pas mutuellement exclusives, les études mentionnées dans le présent document s'intéressent uniquement à la composante myogénique de l'AC. Historiquement, le concept est formalisé par Niels Lassen en 1959, dans un article agglomérant les résultats de protocoles très divers ayant pour point commun l'étude du DSC~\cite{lassen1959cerebral}. L'article contient un graphique où le DSC est décrit comme constant entre 50 et 150 mmHg de PPC, et chute brutalement en deçà de 50 mmHg. Si la méta-regression originale comporte différentes faiblesses méthodologiques, cette description du DSC comme fonction de la PPC est progressivement affinée pour former la courbe de Lassen consensuelle (figure~\ref{fig:lassen}). Les modifications apportées à la publication originale sont les suivantes :
237 239 \begin{itemize}
238 240 \item En abscisse, la pression veineuse en sortie de l'arbre vasculaire cérébral est généralement négligée. La PPC peut alors être approximée par la pression artérielle systémique, sauf dans le cas de pathologies où la PIC doit être prise en compte (TC, HSA, \textit{etc.}). Dans ce cas, le différentiel de pression est approximé par la formule $PPC = PA - PIC$.
239 241 \item Le plateau d'autorégulation n'est pas parfaitement horizontal ; les mécanismes d'AC ne compensent qu'une partie des variations de PPC. Ses limites ne correspondent pas à des cassures nettes. Par rapport à la publication originale de Lassen, sa largeur est fortement réduite (de l'ordre de la dizaine de mmHg). Il est à noter que la largeur ainsi que la position du plateau sont très variables d'un patient à l'autre, mais aussi d'une pathologie à l'autre~\cite{howells2025vasomotion}.
... ... @@ -297,4 +299,7 @@
297 299 L'avantage de la TFA est de pouvoir comparer la qualité de l'AC à différentes échelles de temps. En particulier, du fait du délai d'activation des mécanismes myogéniques, les oscillations de fréquence supérieure à environ 0.5 Hz sont transmises passivement de la PPC à la VSC. Ce seuil correspond donc à une augmentation du gain, une diminution du déphasage et une augmentation de la cohérence dans les hautes fréquences. En pratique, il est recommandé de présenter les résultats de la TFA dans trois plages de fréquences : de 0.02 à 0.07 Hz (très basses fréquences), de 0.07 à 0.2 Hz (basses fréquences) et de 0.2 à 0.5 Hz (hautes fréquences). Les résultats peuvent de plus être agrégés dans tout le domaine d'étude classique de l'AC, c'est-à-dire de 0.02 à 0.5 Hz. Ceux-ci peuvent alors être comparés aux différentes valeurs de référence obtenues dans de larges cohortes de patients sains~\cite{panerai2023transfer}.
298 300  
299 301 \par Si les méthodes de la TFA ont été appliquées à de nombreuses pathologies, de la maladie d'Alzheimer~\cite{heutz2023dynamic} aux accidents vasculaires cérébraux~\cite{intharakham2019assessment}, relativement peu d'études ont appliqué ces méthodes aux patients admis en neuro-réanimation, où les indices de corrélation tels que le PRx restent prépondérants~\cite{vitt2023multimodal}. Ce constat, au-delà des considérations de communautés scientifiques distinctes, peut s'expliquer de plusieurs façons : en premier lieu, la plupart protocoles de mesure de l'AC dynamique impliquent des changements de positions successifs~\cite{burma2024systematic} et ne sont donc pas applicables aux patients cérébrolésés. De manière plus générale, la TFA repose sur des temps de monitorage courts, de l'ordre de quelques minutes~\cite{burma2021recording}, incluant potentiellement une perturbation passagère, là où les unités de soins intensifs disposent de monitorages longs sur des patients fragiles. Les différentes études basées sur la TFA visent ainsi davantage un diagnostic à un instant précis, plutôt qu'un suivi des capacités d'AC sur le temps long. De plus, en pratique clinique, les neuro-réanimateurs disposent de différents outils de régulation continue de la PPC, pour laquelle une plage optimale est recherchée en prenant en compte les interactions entre PA et PIC~\cite{claassen2021regulation}. La complexité des résultats de la TFA rend moins directe la localisation du plateau d'autorégulation en comparaison d'algorithmes expressément dédiés et tirant parti du temps long~\cite{deimantavicius2022feasibility}. Les quelques études comparant les mesures d'AC obtenues par TFA ou par des indices de corrélation dans le domaine temporel montrent un faible accord entre les deux méthodes~\cite{liu2015comparison}\cite{olsen2022reliability}, suggérant que ces différents indices ne sont pas interchangeables et mesurent différents aspects de l'AC.
  302 +
  303 +\section{Synthèse}
  304 +La compliance cérébrale peut être caractérisée indirectement en s'appuyant sur la morphologie du signal de PIC univarié, et en particulier sur les hauteurs relatives des pics P1, P2 et P3 des pulsations d'origine cardiaque. En revanche, l'étude de l'autorégulation cérébrale nécessite une analyse multivariée de signaux de neuro-monitorage. La neuro-réanimation dispose pour cela d'outils spécifiques dans le domaine temporel, tirant parti de la longueur des enregistrements disponibles.
chapters/mecanique_LG.tex View file @ 031922c
  1 +\section{Outils d'analyse du signal}
  2 +Les composantes du signal de PIC peuvent être isolées au moyen de différentes méthodes de décomposition. Dans la littérature, deux grandes familles d'algorithmes sont identifiables. La première correspond aux décompositions linéaires issues de la transformée de Fourier ; la seconde, plus récente, regroupe la décomposition en modes empiriques (\textit{Empirical Mode Decomposition}, EMD) et ses dérivés. Pour la suite, on considère un signal $s \in L^{2}({\mathbb{R})}$.
  3 +
  4 +\subsection{Décompositions linéaires}
  5 +
  6 +\subsubsection{Analyse de Fourier}
  7 +Un signal $s$ de longueur $N$ peut être étudié dans le domaine fréquentiel par le biais de sa transformée de Fourier :
  8 +\begin{equation}
  9 +\hat{s}(\xi) = \int_{\mathbb{R}}s(t)exp(-i\xi t) \, dt
  10 +\end{equation}
  11 +Celle-ci est discrétisée de la façon suivante dans un contexte de calcul numérique :
  12 +\begin{equation}
  13 +\hat{s}(\xi) = \sum_{n=0}^{M-1}exp(-i2\pi n\xi /M), \xi \in [\![0;M-1]\!]
  14 +\end{equation}
  15 + où $M \geq N$ est généralement choisi parmi les puissances de 2 par soucis d'efficacité calculatoire.
  16 + \par L'analyse de Fourier est historiquement un outil de choix pour l'analyse du signal de PIC~\cite{czosnyka2004monitoring}, du fait que ses nombreux déterminants physiologiques interviennent à des échelles de temps distinctes. De plus, le passage au domaine fréquentiel demande peu de ressources calculatoires(complexité temporelle de l'algorithme de transformée de Fourier rapide en $O(Nlog(N)$)). L'analyse fréquentielle est tout particulièrement utilisée pour caractériser les interactions entre le signal de PIC et d'autres signaux de monitorage par l'étude de fonction de transfert spectrales (\textit{transfer fonction analysis}, TFA). Ces méthodes font notamment l'objet d'une riche littérature traitant de l'autorégulation cérébrale (voir section~\ref{autoregulation}).
  17 + \par Cependant, certaines précautions doivent être prises lors de l'analyse du spectre obtenu \cite{huang1998empirical}. Les fréquences calculées étant issues d'une base algébrique de fonctions sinusoïdes, seules les interactions linéaires entre les différentes composantes du signal de PIC peuvent être fidèlement décrites. De plus, le signal décomposé est supposé stationnaire, c'est-à-dire qu'à chaque instant $t$:
  18 + \begin{enumerate}
  19 + \item{$E(\|s(t^2)\|) < \infty$,}
  20 + \item{$E(s(t)) = $ constante,}
  21 + \item{$Cov(s(t_{1}), s(t_{2})) = Cov(s(t_{1} + \delta), s(t_{2} + \delta)) = Cov(t_{1} - t_{2})$}
  22 + \end{enumerate}
  23 +où $Cov(\cdot)$ désigne la fonction covariance. En pratique, si ces propriétés sont difficilement vérifiables formellement, les artefacts calculatoires liés aux problèmes de stationnarité sont limités en combinant plusieurs spectres fréquentiels estimés sur une fenêtre de temps glissante (méthode de Welch)~\cite{garcia2013spectral}. La grande sensibilité des résultats à la fenêtre de temps utilisée nécessite alors de définir certains standards de façon à rendre comparables les résultats de différentes études~\cite{meel2014between}.
  24 +
  25 +\subsubsection{Décomposition en ondelettes}
  26 +La transformée continue en ondelettes (\textit{wavelets}, CWT) est une extension à l'analyse de Fourier plus robuste à l'étude de signaux non-stationnaires, en proposant une décomposition du signal dans le plan temps-fréquences. Formellement, un coefficient $\tilde{s}$ est calculé à chaque instant $t$ et pour un facteur d'échelle $a$:
  27 +\begin{equation}
  28 + \tilde{s}(a, t) = \frac{1}{\sqrt{\|a\|}}\int_{\mathbb{R}}s(t)\psi(\frac{\tau - t}{a}) \, d\tau
  29 +\end{equation}
  30 +où $\psi$ désigne la fonction ondelette ''mère'' utilisée. Le signal d'origine est alors décrit comme une combinaison linéaire de convolutions du signal avec différentes dilatations et de translations de la fonction $\psi$. En pratique, l'analyse du signal de PIC univarié par CWT fait l'objet d'une littérature plus restreinte comparativement à l'analyse de Fourier classique. Ses applications concernent principalement l'identification d'artefacts~\cite{megjhani2023automatic}~\cite{feng2011artifact}. L'utilisation d'ondelettes est davantage répandue pour caractériser l'autorégulation cérébrale à partir d'un monitorage multivarié incluant PIC, PA et/ou TCD (voir section~\ref{autoregulation}).
  31 +
  32 +\subsection{Décompositions en modes}
  33 +Les algorithmes de décomposition en modes (ADM) regroupent une vaste famille d'algorithmes dérivés de la publication originale de Huang \textit{et al.} introduisant la décomposition en modes empiriques (\textit{Empirical Mode Decomposition}, EMD)\cite{huang1998empirical}. L'idée proposée est de décomposer un signal donné en oscillations élémentaires qui ne soient pas issus d'une base vectorielle prédéfinie \textit{a priori}, comme dans le cas de la transformée de Fourier et de ses différentes généralisations. Ce changement de paradigme a pour objectif de développer un outil adapté à l'étude de signaux non-stationnaires (c'est-à-dire, d'espérance et de variance variables dans le temps) et/ou résultant de la combinaison non-linéaire de différentes composantes. Ainsi, ces algorithmes extraient de façon itérative des fonctions de modes intrinsèques (\textit{intrinsic mode functions}, IMFs) du signal de base, oscillations élémentaires spécifiques à un signal respectant les propriétés suivantes :
  34 +\begin{enumerate}
  35 + \item Le nombre d'extrema et le nombre de traversées de l'axe des abscisses doivent différer au plus de 1 (ou, par équivalence : tous les maxima locaux doivent être strictement positifs et tous les minima locaux doivent être strictement négatifs).
  36 + \item En tout point, la moyenne de l'enveloppe définie par les maxima locaux et les minima locaux doit être égale à 0.
  37 +\end{enumerate}
  38 +Dans la pratique, une IMF est donc une fonction pseudo-périodique localement symétrique par rapport à l'axe des abscisses, dont la durée et l'amplitude des oscillations peuvent varier au cours du temps. En gardant à l'esprit que les ADMs sont conçus pour l'étude de signaux non-stationnaires, ces propriétés sont utiles par la suite pour définir les notions d'amplitude et de fréquences locales, voire instantanées, que les définitions classiques ne peuvent couvrir du fait du principe d'indétermination temps-fréquence. Cependant, cette flexibilité implique la perte de certaines propriétés des méthodes linéaires. Dans le cas général, pour deux signaux $s$ et $z$ et un $ADM$ quelconque, $ADM(s + z) \neq ADM(s) + ADM(z)$. L'unicité de la décomposition en IMFs n'est pas non plus assurée : plusieurs décompositions valides peuvent être obtenues à partir d'un même signal. Enfin, l'orthogonalité des IMFs extraites et la conservation de l'énergie du signal initial dépendent des ADMs.
  39 +
  40 +\subsubsection{Décomposition en modes empiriques}
  41 +\paragraph{Formulation.} En 1998, Huang \textit{et al.} proposent l'EMD pour extraire itérativement les IMFs d'un signal~\cite{huang1998empirical}. Celle-ci repose sur le calcul d'enveloppes du signal, qui correspondent à une interpolation cubique entre les différents maxima (minima) locaux. La méthode d'extraction des IMFs est décrite dans l'algorithme~\ref{algo:EMD}.
  42 +
  43 +\begin{algorithm}[h!]
  44 + \label{algo:EMD}
  45 + \caption{Décomposition en modes empiriques (EMD)}
  46 + \Entree{signal \textit{s}}
  47 + \Sortie{ensemble d'IMFs}
  48 + IMFs = \{\}\;
  49 + \Tq{le nombre d'extrema de $s \leq 2$}{
  50 + {
  51 + $e_{+} \leftarrow$ enveloppe supérieure de $s$\;
  52 + $e_{-} \leftarrow$ enveloppe inférieure de $s$\;
  53 + $ m \leftarrow (e_{-} + e_{+} )/ 2 $\;
  54 +
  55 + \Tq{$m$ n'est pas accepté comme IMF}{
  56 + $e_{+} \leftarrow$ enveloppe supérieure de $s - m$\;
  57 + $e_{-} \leftarrow$ enveloppe inférieure de $s - m$\;
  58 + $ m \leftarrow (e_{-} + e_{+} ) / 2 $\;
  59 + }
  60 +
  61 + $ IMFs \leftarrow IMFs \cup \{m\} $\;
  62 + $ s \leftarrow s - m $\;
  63 + }
  64 +
  65 + }
  66 +\end{algorithm}
  67 +Bien que jamais mise en défaut en pratique, la convergence de la procédure d'extraction d'une IMF n'a jamais pu être démontrée, limitant de fait l'étude des propriétés mathématiques de l'EMD~\cite{ge2018theoretical}. Ces travaux précurseurs ont cependant donné lieu à de très nombreuses extensions, notamment dans les domaines complexes, multivariés et multidimensionnels~\cite{barbosh2020empirical}. L'EMD a été adoptée dans différents domaines d'application impliquant des signaux non-stationnaires et/ou des systèmes non-linéaires, de la sismologie~\cite{chen2022seismic} à l'étude d'électroencéphalogrammes~\cite{munoz2018localization}. En ce qui concerne l'analyse du signal de PIC, l'EMD a principalement été utilisée en tant que pré-traitement pour la suppression d'irrégularités ponctuelles~\cite{martinez2021empirical}~\cite{dai2020intracranial}. Certaines évolutions de l'algorithme original visent à contourner des limitations de l'EMD bien identifiées dans la littérature, publication originale comprise. Parmi les problématiques les plus saillantes~\cite{de2022survey}, il convient de citer:
  68 +\begin{itemize}
  69 + \item Le mélange des modes (\textit{mode mixing}) : ce problème correspond aux situations où deux composantes de fréquences distinctes sont contenues dans une même IMF. Rilling et Flandrin~\cite{rilling2007one} ont étudié formellement le problème pour deux composantes sinusoïdales en faisant varier les ratios des amplitudes et des fréquences entre deux signaux sinusoïdaux additionnés. Pour ce modèle en particulier, en notant $a$ le ratio des amplitudes et $f$ le ratio des fréquences, la capacité de séparation de l'EMD est limitée à des couples d'oscillations pour lesquelles $f$ < ~0.6 et $a < 1/f$. Différentes corrections ont été proposées pour limiter ce problème de façon empirique. En particulier, l'EMD d'ensemble (\textit{Ensemble EMD}, EEMD) consiste à répéter plusieurs fois l'algorithme de $sift$ en perturbant légèrement le signal initial au moyen d'un bruit aléatoire, et de prendre les IMFs médianes des différentes décompositions obtenues.
  70 + \item Le fractionnement des modes (\textit{mode splitting}) : une même composante fréquentielle peut être fractionnée sur plusieurs IMFs adjacentes si les conditions d'acceptation d'une IMF sont trop contraignantes~\cite{xu2016study}. De nombreux critères ont été proposés dans la littérature, comme la différence dans le nombre d'extrema entre deux itérations~\cite{huang2003confidence} ou l'orthogonalité avec le signal avant extraction~\cite{huang1998empirical}. Cependant, comme l'existence d'une limite explicite vers laquelle tendrait le processus d'extraction n'a pas été prouvée, il reste peu aisé d'exhiber un critère d'arrêt optimal.
  71 + \item Les effets des extrémités : le calcul des enveloppes, reposant sur une interpolation entre les différents extrema, est perturbé au début et à la fin du signal. L'erreur introduite, difficile à quantifier, dépend des implémentations du calcul des enveloppes. Les différentes solutions proposées consistent globalement à étendre le signal à ses extrémités de manière plus ou moins complexe~\cite{zare2023end}.
  72 +\end{itemize}
  73 +
  74 +\paragraph{Fréquences instantanées.} Les propriétés vérifiées par les IMFs ont été choisies de façon à définir des fréquences instantanées par le biais de la transformée de Hilbert, s'affranchissant ainsi du principe d'incertitude temps-fréquence inhérent à l'analyse de Fourier et ses dérivés. La transformée de Hilbert $\mathcal{H}$ est définie telle que :
  75 +\begin{equation}
  76 + \mathcal{H}(s)(x) = \frac{1}{\pi} v.p. \int_{\mathbb{R}} \frac{s(\tau)}{x-\tau}\, d\tau
  77 +\end{equation}
  78 +où $v.p.$ désigne la valeur principale de Cauchy. La transformée de Hilbert est plus facilement calculée dans le domaine fréquentiel, où celle-ci revient à multiplier par $i$ les termes de fréquences négatives et $-i$ les termes de fréquences positives:
  79 +\begin{equation}
  80 + \mathcal{H}(\hat{s})(\xi) = -i\text{ sign}(\xi)\cdot \hat{s}({\xi})
  81 +\end{equation}
  82 +La transformée de Hilbert permet de prolonger un signal réel $s$ en un signal analytique $Z$ dans le plan complexe tel que $Z : t \rightarrow s(t) + i\mathcal{H}(s)(t)$. En considérant la forme exponentielle du signal analytique $Z(t) = a(t)e^{i\theta(t)}$, l'amplitude instantanée correspond alors au terme $a(t)$, la phase instantanée au terme $\theta(t)$ et la fréquence instantanée $\omega(t)$ à la dérivée $\frac{d\theta(t)}{dt}$. Les propriétés des IMFs permettent de conserver certaines caractéristiques de la définition classique de la fréquence, par exemple d'obtenir une fréquence instantanée constante pour une IMF parfaitement sinusoïdale.
  83 +
  84 +\paragraph{Spectre de Hilbert.} En appliquant la transformée de Hilbert à chacune des $n$ IMFs extraites d'un signal $s$, on obtient la relation
  85 +\begin{equation}
  86 + s(t) = \text{Re}{\sum_{k=1}^{n}a_{k}(t)e^{i\theta(t)}}
  87 +\end{equation}
  88 +où Re désigne la fonction partie réelle. Par analogie avec la transformée de Fourier, il est possible de définir un spectre bivarié temps-fréquence, ou spectre de Hilbert, tel que pour une temps $t$ et une fréquence $\omega$ :
  89 +\begin{equation}
  90 + H(\omega, t) = \sum_{k=1}^{n}a_{k}(t)e^{i\int\omega_{k}(t)\,dt}
  91 +\end{equation}
  92 +En divisant le plan (temps, fréquences) en rectangles de dimensions $\delta t, \delta \xi$, la densité spectrale $S$ est définie pour le rectangle de coordonnées $a,b$ par:
  93 +\begin{equation}
  94 + S_{a,b} = \frac{1}{\Delta t \times \Delta \omega} ( \sum a_k^2(t) : t \in ( t_a - \frac{\Delta t}{2}, t_a + \frac{\Delta t}{2}), \omega \in ( \omega_b - \frac{\Delta \omega}{2}, \omega_b + \frac{\Delta \omega}{2}))
  95 +\end{equation}
  96 +Les graphiques obtenus à partir du spectre de Hilbert permettent ainsi de suivre l'évolution du contenu fréquentiel d'un signal non-stationnaire.
  97 +
  98 +\subsubsection{Filtrage itératif}
  99 +\label{FIF}
  100 +
  101 +\paragraph{Formulation.} Pour pallier aux différents manquements théoriques de l'EMD, la méthode du filtrage itératif (\textit{Iterative Filtering}, IF) a été proposée en 2009~\cite{lin2009iterative}. Cette décomposition reprend le principe de construction itérative d'IMFs, en utilisant cette fois des moyennes glissantes à la place des enveloppes pour le processus d'extraction. L'algorithme est présenté ici dans sa version rapide (\textit{Fast Iterative Filtering}, FIF, voir algorithme~\ref{algo:FIF}), accélérée en effectuant les opérations de convolution dans le domaine fréquentiel. Le processus de FIF est d'une complexité en temps comparable à l'EMD, en $O(Nlog(N))$, où $N$ est la taille du signal décomposé, contre $O(N^{2})$ pour la effectuant les moyennes glissantes dans le domaine temporel.
  102 +
  103 +\begin{algorithm}[h!]
  104 + \label{algo:FIF}
  105 + \caption{Filtrage itératif rapide (FIF)}
  106 + \Entree{signal \textit{s}}
  107 + \Sortie{ensemble d'IMFs}
  108 + IMFs = \{\}\;
  109 + \Tq{le nombre d'extrema de $s \leq 2$}{
  110 + {
  111 + Déterminer un filtre $w$ de taille $L$;
  112 + $\hat{s} \leftarrow dft(s)$\;
  113 + $\hat{w} \leftarrow dft(w)$\;
  114 + $m \leftarrow 1$\;
  115 + $\hat{s}_{m} \leftarrow \hat{s}$\;
  116 + \Tq{$s_{m}$ n'est pas accepté comme IMF}{
  117 + $\hat{s}_{m} = I - \text{diag}(\hat{w})^{m}\hat{s}$\;
  118 + $ m \leftarrow m+ 1 $\;
  119 + }
  120 +
  121 + $ IMFs \leftarrow IMFs \cup \{s_{m}\} $\;
  122 + $ s \leftarrow s - idft(s_{m}) $\;
  123 + }
  124 +
  125 + }
  126 +\end{algorithm}
  127 +Le processus de (F)IF peut être adapté au signal étudié en jouant sur les coefficients des moyennes glissantes -c'est à dire les filtres- utilisés. Une analyse théorique poussée du processus de (F)IF est rendue possible par l'existence d'une limite explicite au processus d'extraction $\mathcal{M}$ de la première IMF:
  128 +\begin{equation}
  129 + \label{eq:IMF}
  130 + IMF_{1} = \underset{n \rightarrow \infty}{M^{n}}(s)(x) =
  131 + \int_{\mathbb{R}} \hat{s}(\xi)\chi_{\{\hat{w}(\xi=0)\}}e^{i2\pi\xi x} \,d\xi
  132 +\end{equation}
  133 +où $\hat{s}$ désigne la transformée de Fourier du signal $s$ et $\hat{w}$ la transformée de Fourier du filtre $w$. La limite décrite dans l'équation \ref{eq:IMF} est garantie pour un filtre pair, positif, à support compact dans $\mathbb{R}$ et de somme 1.
  134 +La décomposition est rendue non-linéaire par la définition d'un nouveau filtre à chaque début d'extraction d'une IMF. Si le choix des coefficients et de la taille du filtre revient à l'utilisateur, les auteurs recommandent de calculer la taille $L$ d'un filtre à partir de l'espacement moyen entre deux extrema consécutifs selon la formule : $L = 2\lfloor \nu \frac{\text{taille du signal}}{\text{nombre d'extrema}} \rfloor$, où $\nu$ est un paramètre à déterminer, généralement entre 1 et 2~\cite{cicone2022multivariate}. Différentes propriétés du processus de (F)IF ont pu être étudiées théoriquement. En particulier~:
  135 +\begin{itemize}
  136 + \item Séparation des fréquences : pourvu que la taille du filtre soit choisie de façon appropriée, le procédure de FIF peut séparer deux signaux sinusoïdaux purs de fréquences aussi proches que souhaité tant que $f < 1 - \frac{1}{\nu}$, où $f$ est le ratio des fréquences et $\nu$ la longueur des signaux en nombre de périodes.
  137 + \item Conservation de l'énergie : la transformée de Fourier vérifie, dans le cas discret, la propriété $\sum_{n=0}^{N-1} \|s(n)\|^{2} = \frac{1}{N}\sum_{\xi} \|\hat{s}(\xi)\|^{2}$ (Théorème de Parseval-Plancherel). En comparaison, la procédure de (F)IF conserve l'énergie de Fourier de norme 1: $E_{1}(s) = \sum_{\xi}\hat{s}(\xi)$ \cite{cicone2024new}.
  138 + \item Orthogonalité des IMFs : comme pour l'EMD et ses dérivées, l'exacte orthogonalité ne peut pas être garantie dans le cas général, les IMFs n'étant pas générées dans un espace vectoriel prédéfini. Différentes analyses numériques montrent cependant qu'en pratique, les IMFs extraites par EMD comme par IMFs sont quasi-orthogonales, le choix de la taille des filtres pouvant même faire l'objet d'une optimisation à ce sujet~\cite{chen2023filter}.
  139 + \item Effets des extrémités : la procédure de FIF suppose une périodicité du signal à ses extrémités~\cite{cicone2021numerical}. Dans le cas contraire, des artefacts de calcul apparaissent de façon quantifiable aux bornes des IMFs extraites, en particulier dans les basses fréquences. Les auteurs préconisent d'étendre le signal à ses extrémités en jouant sur des symétries de façon à introduire une périodicité aux bornes du signal traité~\cite{cicone2020study}.
  140 +\end{itemize}
  141 +
  142 +\paragraph{IMFogramme.}
  143 +Les méthodes de calcul de fréquences instantanées basées sur la transformée de Hilbert peuvent également s'appliquer aux IMFs extraites par (F)IF, les auteurs proposent une autre représentation temps-fréquence n'impliquant pas de prolongation du signal dans le plan complexe~\cite{cicone2024new}. Celle-ci suppose cependant l'absence de modulation du signal à l'échelle d'une période.
  144 +\begin{itemize}
  145 + \item amplitude instantanée : soit $g$ une interpolation (linéaire par exemple) des maxima locaux de la valeur absolue d'une IMF. L'amplitude instantanée de cette IMF est alors définie telle que $A : t \rightarrow max(g(t), IMF(t))$.
  146 + \item fréquence instantanée : soient $(z_{k})_{k=1}^{p}$ les positions des $p$ croisements d'une IMF avec l'axe des abscisses. On note $y_{k} = \frac{1}{z_{k+1}}$ l'inverse de la durée de la $k$-ème demi-oscillation. La fréquence instantanée de cette IMF de taille $N$ est définie par l'interpolation (linéaire par exemple) de la fonction $f : k \rightarrow 2y_{k}$ sur l'intervalle $[0, N-1]$.
  147 +\end{itemize}
  148 +L'IMFogramme (\textit{IMFogram}) est une représentation obtenue sur le plan (temps, fréquences) séparé en rectangles de dimensions $\Delta t \times \Delta f$. La valeur de chaque rectangle correspond à la somme des amplitudes moyennes de chacune des IMFs sur ce rectangle.
  149 +
  150 +À titre d'exemple, une comparaison entre différentes représentations temps-fréquences d'un enregistrement de 5 minutes de PIC est présentée figure~\ref{comp}.
  151 +\begin{figure}[h!]
  152 + \centering
  153 + \includegraphics[width=1\linewidth]{mecanique/comp.png}
  154 + \caption{Trois représentations temps-fréquences d'un enregistrement de pression intracrânienne. EMD --- décomposition en modes empiriques, FIF --- filtrage itératif rapide.}
  155 + \label{fig:cppopt}
  156 +\end{figure}
  157 +
  158 +
  159 +
  160 +\section{Monitorage de la compliance cérébrale}
  161 +\label{CC}
  162 +La compliance cérébrale correspond à la relation pression-volume régnant au sein de la boîte crânienne. En d'autre termes, la compliance cérébrale décrit la capacité du système à modérer l'augmentation de la PIC en réponse à une augmentation du volume cérébral ~\cite{ocamoto2021intracranial}. Ce concept est décrit dans la littérature scientifique par le biais de nombreux termes plus ou moins synonymes : différents auteurs parlent ainsi de "compliance intracrânienne" (\textit{intracranial compliance}), de "réserve compensatoire" (\textit{compensatory reserve}), ou simplement de "relation pression-volume" (\textit{pressure-volume relationship}). De plus, certaines études préfèrent travailler sur le concept inverse d'élastance intracrânienne (\textit{intracranial elastance}). Différents mécanismes de compliance cérébrale peuvent être mis en jeu selon l'échelle de temps, la gravité et le type d'atteinte du système cérébrospinal. \`A des échelles de temps courtes, les volumes de liquide cérébrospinal, de sang et de liquide interstitiel constituent des réserves de compliance rapidement disponibles \cite{kim2009monitoring}. Dans le cas de traumatismes graves et d'hématomes volumineux, la compensation est également effectuée par une diminution conjointe du volume des neurones et des astrocytes dans différentes régions du parenchyme cérébral~\cite{kalisvaart2020update}. Dans le cas d'HTIC chroniques, un amincissement de la voûte crânienne peut également survenir~\cite{benson2023monro}. Ce dernier mécanisme de compensation à longue échelle de temps contrevient donc à la doctrine de Monroe-Kellie, selon laquelle la boîte crânienne abrite un volume incompressible. Quant à la caractérisation de la compliance cérébrale à échelle macroscopique, la relation pression-volume issue du modèle de Marmarou~\cite{marmarou1975compartmental} fait aujourd'hui consensus dans la pratique clinique :
  163 +\begin{equation}
  164 + \label{exp}
  165 + PIC = (p_{b} - p_{0})e^{E \Delta V}+p_{0}
  166 +\end{equation}
  167 +où $p_{b}$ et $p_{0}$ sont des constantes de référence, $E$ désigne l'élastance intracrânienne (soit l'inverse de la compliance), et $\Delta V$ désigne une variation de volume. Il est à noter que le modèle a historiquement été développé pour modéliser la pression du LCS lors de tests diagnostiques d'hydrocéphalie (voir section~\ref{direct}). Toutefois, l'équation~\eqref{exp} reste pertinente lorsqu'elle est appliquée à différents compartiments du système cérébrospinal~\cite{domogo2023mechanistic}. En pratique, la courbe pression-volume est classiquement divisée en trois zones (voir figure~\ref {fig:langfitt}). La première correspond à la zone de compensation (d'où l'appellation "réserve compensatoire"), où la PIC est quasi-invariante aux changements de volume. Au-delà d'un premier seuil, la PIC augmente de façon exponentielle avec le volume, tel que décrit par l'équation~\eqref{exp}. Cette relation devient caduque au-delà d'un second seuil, où l'hypertension provoque des dommages mécaniques irrémédiables aux tissus concernés. L'information de la compliance cérébrale peut être pertinente dans la prise en charge des deux grandes familles de pathologies où la mesure de la PIC est recommandable, à savoir les lésions cérébrales traumatiques et les hydrocéphalies. Dans le premier cas, la connaissance de la compliance cérébrale permet de caractériser plus précisément les atteintes du système cérébrospinal~\cite{zeiler2018impaired}, d'identifier les patients les plus à risque d'HTIC~\cite{shahsavari2011cerebrovascular}, et ainsi d'adapter la durée et le niveau de sédation. La compliance cérébrale est également un facteur pronostique~\cite{calviello2018compensatory}. Dans le cas de l'hydrocéphalie, l'information de la compliance cérébrale, en plus de sa valeur diagnostique, est un facteur de décision quant à la pose d'un dispositif de dérivation du LCS~\cite{gholampour2023intracranial}.
  168 +
  169 +\begin{figure}[h!]
  170 + \centering
  171 + \includegraphics[width=1\linewidth]{mecanique/langfitt.png}
  172 + \caption{Relation pression-volume au sein de la boîte crânienne et morphologie des pulsations cardiaques associées. PIC~: pression intracrânienne}
  173 + \label{fig:langfitt}
  174 +\end{figure}
  175 +
  176 +\subsection{Mesures directes}
  177 +\label{direct}
  178 +Les mesures directes de compliance cérébrale consistent à mesurer les variations de PIC en réaction à des variations de volume intracrânien, le plus souvent induites par des manipulations au niveau du LCS. Ces mesures, impliquant une intervention au bloc opératoire, se basent sur la relation~\ref{exp} pour calculer un coefficient de compliance (ou d'élastance) caractéristique du système cérébrospinal. Du fait de la lourdeur des manipulations nécessaires, ces méthodes sont quasi-exclusivement réservées aux patients hydrocéphales. Selon le protocole mis en place, la compliance cérébrale peut être expérimentalement mesurée à différentes échelles de temps caractéristiques. Deux principaux indices ont été proposés pour caractériser la réponse instantanée du système aux variations de volume. Le VPR (\textit{Volume-Pressure Volume}) proposé par Miller, Stanek et Langiftt en 1972 et exprimé en mmHg/mL, correspond à l'augmentation de la PIC induite par une variation de 1 mL~\cite{miller1972concepts}. Le PVI (\textit{Pressure-Volume Index}), introduit par Shulman et Marmarou en 1975, correspond au volume de solution saline nécessaire pour augmenter la PIC d'un facteur 10~\cite{marmarou1975compartmental}. Ce volume théorique, toujours utilisé aujourd'hui dans le cadre de tests diagnostiques, est calculé après injection de bolus de solution saline par voie lombaire. Des mesures de compliance cérébrale caractérisant la réponse à plus long terme peuvent également être effectuées. Un débit constant de solution saline est alors injecté dans le système. Si un PVI peut être calculé analytiquement sur la base d'une modélisation proposée par Avezaat et Eindhoven dans les années 1980~\cite{avezaat1984cerebrospinal}, ces tests d'infusion servent généralement à mesurer la résistance du système à l'écoulement du CSF. Cette propriété mécanique est classiquement caractérisée par le R\textsubscript{out}, exprimé en mmHg/(mL/min), directement issu du modèle de Marmarou. Quoiqu'il en soit, plusieurs études et méta-analyses montrent que les tests d'infusion et les injections de bolus mettent à l'épreuve des propriétés mécaniques différentes \cite{gholampour2023intracranial}. En pratique, réaliser les deux types de tests permet de caractériser au mieux les propriétés mécaniques du système cérébrospinal.
  179 +
  180 +\subsection{Caractérisations indirectes}
  181 +
  182 +\subsubsection{Indices spectraux}
  183 +Le signal de PIC a été étudié dans le domaine fréquentiel dès les années 1980 pour mesurer les amplitudes de ses différentes composantes phsyiologiques. Plusieurs caractérisations du spectre obtenu par transformée de Fourier ont été successivement proposées dans la littérature.
  184 +\par Le \textit{Higher Frequency Centroid} (HFC) est défini comme la moyenne des fréquences entre 4 et 15 Hz pondérée par leurs amplitudes respectives dans la transformée de Fourier du signal. En 1986, ses auteurs rapportent une très bonne corrélation négative avec le PVI calculé sur une cohorte variée de 48 patients~\cite{bray1986development}. Le rationnel derrière sa définition est qu'une forme de pulsation plus arrondie contient moins de fréquences aiguës. De manière contradictoire, en 1989, une étude regroupant 55 patients cérébrolésés décrit le HFC moyen ainsi que le temps passé avec un HFC supérieur à 9 Hz comme des prédicteurs significatifs de la mortalité~\cite{robertson_clinical_1989}. En 2022, le calcul du HFC sur une cohorte de 184 patients cérébrolésés montre une corrélation positive entre HFC et PIC, jusqu'à un point de cassure à environ 31 mmHg. Sur cette population, les patients décédés présentaient un HFC moyen significativement plus élevé que les survivants~\cite{uryga_analysis_2023}. En plus de sa difficulté d'interprétation, le HFC a comme limite sa dépendance à la fréquence cardiaque du patient, du fait de la définition \textit{a priori} d'une bande de fréquence d'intérêt.
  185 +\par Une façon de s'affranchir du choix de cette plage fréquentielle consiste à caractériser les harmoniques de la composante cardiaque du signal. Le $k$-ratio, défini en 1987~\cite{takizawa_changes_nodate}, propose de caractériser la puissance spectrale associée à la fréquence cardiaque $FW$ par rapport à celles de ses harmoniques n°2 à 4, respectivement notées $HW2$, $HW3$ et $HW4$ selon la formule suivante : $k = \frac{\sqrt{HW2^{2} + HW3^{2} + HW4^{2}}}{FW}$. Ses auteurs ont observé une corrélation négative entre $k$-ratio et la PIC sur modèle animal, indépendemment validée par la suite sur une cohorte de 109 patients traumatisés crâniens ~\cite{contant_intracranial_1995}.
  186 +
  187 +\par En 2021, le \textit{Higher Harmonic Centroid} (HHC) est proposé comme une alternative au HFC. Celui-ci correspond au centroïde des harmoniques n°2 à 10 de la fréquence cardiaque, pondérées par leurs amplitudes respectives (voir figure~\ref{fig:fft}). Le HHC est donc un nombre adimensionnel compris entre 2 et 10. Les auteurs du HHC ont montré une baisse significative de celui-ci lors des ondes de plateau~\cite{zakrzewska_intracranial_2021}. De manière générale, le HHC pourrait être utilisé en pratique clinique comme prédicteur d'épisode d'HTIC~\cite{uryga_analysis_2023}.
  188 +
  189 +\begin{figure}[h!]
  190 + \centering
  191 + \includegraphics[width=1\linewidth]{mecanique/FFT.png}
  192 + \caption{Transformée de Fourier d'un signal de pression intracrânienne. F: fréquence fondamentale, composante cardiaque. H$n$: harmonique n°$n$ de la composante cardiaque. Les harmoniques encadrées sont prises en compte dans le calcul du \textit{Higher Harmonic Centroid}.}
  193 + \label{fig:fft}
  194 +\end{figure}
  195 +
  196 +Bien que faciles à implémenter, ces méthodes se heurtent à l'hypothèse de stationnarité du signal exigée par la transformée de Fourier. Celle-ci est contournée en décrivant l'évolution temporelle du contenu fréquentiel par le biais d'une fenêtre glissante, mais dont le choix de la taille peut être sujet à débat. Une autre limite mathématique réside dans les différentes interactions non-linéaires entre les déterminants du signal de PIC, alors que la transformée de Fourier est, par définition, une combinaison linéaire de différentes sinusoïdes. Enfin, il peut être malaisé de relier ces différents indices spectraux à des mécanismes physiologiques sous-jacents, rendant difficiles leur adoption par le corps médical.
  197 +
  198 +\subsubsection{Amplitude du signal de PIC}
  199 +\par En considérant que la fraction du volume sanguin d'éjection systolique (VES) transmise au cerveau reste constante, on peut montrer en utilisant le modèle de Marmarou que (i) l'amplitude des pulsations d'origine cardiaque (AMP) est inversement proportionnelle à la compliance cérébrale, et (ii) qu'il existe une relation linéaire entre amplitude et PIC, dont le coefficient est également proportionnel à la compliance cérébrale \cite{czosnyka2012modeling}. L'information apportée par l'AMP a donc été largement étudiée dès la fin des années 1970. Historiquement, le premier protocole proposé en 1977~\cite{szewczykowski1977fast} consistait à rechercher la limite des capacités de compensation (c'est-à-dire le passage de la zone I à II courbe de Langfitt, voir figure~\ref{fig:langfitt}) en la présence d'une cassure sur la droite AMP - PIC réalisée pour des patients hydrocéphales au bloc opératoire. Cependant, l'AMP peut être également utilisée comme un indicateur partiel de la compliance cérébrale dans le cadre d'un monitorage en continu~\cite{wagshul2011pulsating}. Du fait de la difficulté à découper algorithmiquement les pulsations cardiaques sur un signal de PIC univarié, les modalités de calcul de l'AMP ont donné lieu à un débat dans la littérature au milieu des années 2000 entre les partisans du domaine fréquentiel et du domaine temporel. Il a notamment été montré que l'utilisation d'une transformée de Fourier pouvait sous-estimer de 2 à 3 mmHg la véritable amplitude des pulsations, du fait de la non-vérification des hypothèses préalables à l'analyse de Fourier~\cite{holm2008frequency}. Depuis, l'algorithme de Scholkmann modifié publié en 2018 semble s'être imposé comme une méthode standard dans le domaine temporel~\cite{bishop2018multi}. Concernant la pratique clinique, il a été montré que l'AMP était un prédicteur de la mortalité chez le patient cérébrolésé~\cite{uryga_analysis_2023}. En 2011, une étude randomisée en simple aveugle sur 97 patients atteints de HSA a montré que les patients traités pour viser une AMP à 5 mmHg présentaient de meilleurs \textit{outcomes} que ceux traités pour maintenir la PIC inférieure à 20 mmHg~\cite{eide2011randomized}. En 2024, une étude portant sur 60 patients atteints de traumatisme crânien rapporte pour un tiers d'entre eux des épisodes de variations cycliques de l'AMP (nommées \textit{spindle waves}), positivement corrélées avec le devenir du patient~\cite{zhu2023spindle}.
  200 +
  201 +\par L'AMP n'étant qu'au mieux proportionnelle à la véritable élastance cérébrale et sujette aux variations de la fraction du VES transmise au cerveau, d'autres indicateurs ont été proposés pour préciser l'information fournie par le calcul de l'amplitude. Le \textit{rise-time coefficient}, correspondant au coefficient directeur de la droite entre le début de la pulsation et son sommet, permet d'associer au calcul de l'amplitude la morphologie générale de la pulsation cardiaque~\cite{eide2016correlation}. L'indice RAP, proposé dans les années 1980, est défini comme la corrélation glissante entre l'AMP et la PIC moyenne \cite{czosnyka1988system}. Cet indice, positif et proche de 0 dans des conditions de compliance cérébrale préservée, tend vers 1 au fur et à mesure que la compliance se dégrade. \`A l'entrée de la zone critique d'hernie cérébrale, le RAP décroît brutalement jusqu'à devenir négatif. Historiquement proposé pour caractériser le résultat de tests d'infusion constante, le RAP a largement été étudié dans de nombreuses études rétrospectives impliquant de grandes cohortes de patients cérébrolésés~\cite{islam2024continuous}. Dans ce contexte, le RAP est alors calculé en continu. Ses auteurs préconisent de calculer la corrélation sur une fenêtre glissante de 40 échantillons de 6.4 secondes chacun, et de mesurer l'amplitude des pulsations dans le domaine fréquentiel~\cite{czosnyka2004monitoring}, mais ces valeurs ne sont pas systématiquement utilisées dans la littérature. Quoiqu'il en soit, les différentes études incluant une mesure du RAP ne parviennent pas à mettre clairement en évidence un lien avec le devenir du patient~\cite{uryga_analysis_2023}, et utilisent plutôt le RAP pour caractériser des périodes d'instabilité sujettes à des épisodes d'hypertension~\cite{donnelly2020observations, pineda2018assessing}. En parallèle, l'aire décrite par l'évolution du RAP au cours des 48 premières heures a été significativement corrélée avec certaines lésions corticales observables au scanner~\cite{zeiler2018impaired}. Le RAP est également à la base du concept de ''vraie PIC'' (\textit{true ICP}), définie telle que $true ICP = ICP(1 - RAP)$~\cite{czosnyka2005concept}. Les limitations du RAP résident principalement dans sa sensibilité à la ligne de base du signal de PIC et aux perturbations extérieures. Ainsi, les indices RAP obtenus par le biais de capteurs intraparenchymateux implantés dans des hémisphères différents peuvent dévier de plus de 0.2 dans plus de 20\% du temps~\cite{eide2013intracranial}. Conçu pour davantage de robustesse aux perturbations extérieures, l'indice RAQ (\textit{Respiratory Amplitude Quotient}), publié en 2020, propose d'étudier les variation d'amplitude induites par la vague respiratoire~\cite{spiegelberg2020raq}. Cependant, celui-ci n'a fait l'objet d'aucune étude impliquant un monitorage invasif de la PIC entre sa date de publication et 2025.
  202 +
  203 +\subsubsection{Morphologie des pulsations cardiaques}
  204 +
  205 +\par À l'échelle du cycle cardiaque, la compliance cérébrale est un déterminant de l'allure générale des pulsations visibles sur le signal de PIC. Celle-ci peut être décrite de façon géométrique en prenant pour repères les positions et hauteurs relatives des pics P1, P2 et P3, ou bien de façon plus globale par un score déterminé par apprentissage supervisé.
  206 +
  207 +\par Dans le premier cas, la reconnaissance automatique des pics P1, P2 et P3 représente un challenge technique, dont les solutions présentées dans la littérature font systématiquement appel à de l'apprentissage automatique \cite{lee2015morphological}~\cite{kalaiarasan2024novel}. En particulier, l'algorithme MOCAIP (\textit{MOrphological Clustering and Analysis of continuous Intracranial Pressure}), publié en 2008 \cite{hu2008morphological}, propose de calculer 24 métriques associées aux pics P1, P2 et P3.
  208 +%
  209 +Pour ce faire, la pulsation caractéristique d'une période de référence est déterminée par clustering. Les pics P1, P2 et P3 sont ensuite identifiés sur cette pulsation par un algorithme d'apprentissage supervisé. Différentes alternatives au modèle gaussien initial ont été successivement proposées dans la littérature par les auteurs de MOCAIP \cite{hu2010intracranial, scalzo2012bayesian, rashidinejad2020patient}. Quel que soit l'algorithme de détection choisi, celui-ci choisit les pics P1, P2 et P3 parmi un ensemble de candidats correspondant à des extrema de la fonction courbure, définie pour un vecteur $v \in {\mathcal{C}}^{2}(\mathbb{R})$ par l'application $v \rightarrow \frac{v''}{(1+ v'^{2})^{(3/2)}}$.
  210 +%
  211 +Si l'algorithme MOCAIP n'a jamais été utilisé dans un contexte clinique en temps réel, sa conception prend en compte les différentes perturbations auxquelles le signal de PIC peut être sujet. En effet, l'étape de clustering permet d'éliminer les pulsations statistiquement anormales, au risque d'une perte d'information importante en cas de forte variabilité de la forme des pulsations. Quoiqu'il en soit, l'algorithme MOCAIP comme ses dérivés reposent sur un signal auxiliaire (pression artérielle et/ou électrocardiogramme) pour l'identification des pics et/ou des pulsations, pouvant compliquer son utilisation en temps réel dans les hôpitaux. Cette difficulté s'ajoute au coût calculatoire de l'étape de clustering dans un contexte de monitorage par un dispositif embarqué.
  212 +
  213 +
  214 +%applications cliniques
  215 +\par Une solution pour s'affranchir de la détection exacte des positions de P1, P2 et P3 consiste à attribuer un score à l'allure générale des pulsations par apprentissage supervisé. Cette possibilité implique de définir rigoureusement des critères de classification, répétable et reproductible par des experts lors du processus d'annotation des exemples d'entraînement. La publication des premiers travaux liés au \textit{pulse shape index} (PSI) en 2021~\cite{mataczynski2021end} a permis d'affiner une première ébauche proposée en 2016~\cite{nucci2016intracranial}. Le PSI correspond à la moyenne d'un score de classification calculé indépendamment sur chacune des pulsations cardiaques d'une fenêtre cinq minutes mise à jour toutes les dix secondes. La classification retenue, appelée par la suite classification de Wroclaw, consiste en quatre classes de pulsations allant de "T1 - normal" à "T4 - pathologique", auxquelles s'ajoute une classe "A+E - Artefact / Erreur" (voir figure~\ref{fig:PSI}). La robustesse de la classification de Wroclaw a été validée par l'annotation indépendante de 3 médecins sur un échantillon de 20 000 exemples extraits de signaux de PIC acquis sur 49 patients. La réalisation d'un \textit{benchmark} parmi plus d'une dizaine d'algorithmes d'apprentissages supervisés, allant des forêts aléatoires à différentes architectures de réseaux récurrents, a permis de sélectionner une architecture de réseaux de neurones à résidus (\textit{Residual Neural Network}, RNN) comme référence pour le calcul du PSI. La précision revendiquée au moment de la publication est de 86.00\%. Un PSI plus élevé a été associé à la présence de lésions cérébrales visibles au scanner~\cite{kazimierska2023relationship} ainsi qu'avec une mortalité plus élevée~\cite{uryga_analysis_2023}.
  216 +
  217 +\begin{figure}[h!]
  218 + \centering
  219 + \includegraphics[width=1\linewidth]{mecanique/PSI.png}
  220 + \caption{Classification de Wroclaw, utilisée pour le calcul du \textit{Pulse Shape Index}. Traduit et adapté de~\cite{mataczynski2021end}.}
  221 + \label{fig:PSI}
  222 +\end{figure}
  223 +
  224 +\section{Autorégulation cérébrale}
  225 +\label{autoregulation}
  226 +
  227 +La régulation du débit sanguin cérébral (DSC) est d'une importance toute particulière au bon fonctionnement du cerveau, dans la mesure où cet organe, pourvu de très faibles réserves en oxygène~\cite{powers1985cerebral}, absorbe au repos 15 à 20\% du volume d'éjection systolique~\cite{williams1989reference}. Le DSC peut être exprimé comme le ratio de la PPC et de la résistance vasculaire cérébrale (RVC), fonction de la vasoconstriction des artérioles cérébrales, selon la formule $DSC = \frac{PPC}{RVC}$. La littérature distingue généralement quatre grands mécanismes de régulation du DSC, fonctionnant de façon simultanée et redondante~:
  228 +
  229 +\begin{itemize}
  230 +\item Neurogénique. Le DSC peut être régulé par des neurotransmetteurs comme le NO$_{2}$, l'acétylcholine ou la sérotonine. Ce couplage neurovasculaire, largement médié par l'activité des astrocytes, permet une adaptation locale du DSC à l'activité neuronale~\cite{phillips2016neurovascular}.
  231 +\item Métabolique. La vasoconstriction des artérioles cérébrales est modulée par des marqueurs d'activité métabolique telles que la pression partielle en O$_{2}$ \cite{jackson2016arteriolar} ou en CO$_{2}$ \cite{dietvorst2024development}.
  232 +\item Endothélial. Des cellules de l'endothélium vasculaire (cérébral comme périphérique) régulent le DSC en secrétant certains messagers chimiques comme NO$_{2}$ ou des prostaglandines~\cite{beaudin2017human}.\cite{ashby2021endothelial}.
  233 +\item Myogénique. Il s'agit du mécanismes prépondérant de la régulation du DSC~\cite{hamner2014relative}. Il correspond à la contraction graduelle des muscles lisses des parois artérielles en réaction à des changements de pression transmurale~\cite{willie2014integrative}. Seules les artérioles de diamètre compris entre 30 et 250 µm de diamètre sont capables de vasoconstriction pression-dépendante~\cite{lidington2018cerebral}. Le mécanisme moléculaire de vasoconstriction, médié par la concentration intracellulaire en ions Ca$^{2+}$, repose sur différentes protéines mécano-sensibles~\cite{jackson2021calcium}. Le délai de réponse à un changement rapide de pression est de l'ordre de 250 ms~\cite{halpern1984mechanical}.
  234 +\end{itemize}
  235 +
  236 +Selon les auteurs, l'autorégulation cérébrale (AC) désigne soit la régulation du DSC dans son ensemble \cite{gomez2025individualized}\cite{rivera2017cerebral}, soit uniquement le mécanisme de protection d'origine myogénique \cite{claassen2021regulation}\cite{willie2014integrative}. Si ces différentes voies de régulation ne sont pas mutuellement exclusives, les études mentionnées dans le présent document s'intéressent principalement à la composante myogénique de l'AC. Historiquement, le concept est formalisé par Niels Lassen en 1959, dans un article agglomérant les résultats de protocoles très divers ayant pour point commun l'étude du DSC~\cite{lassen1959cerebral}. L'article contient un graphique où le DSC est décrit comme constant entre 50 et 150 mmHg de PPC, et chute brutalement en deçà de 50 mmHg. Si la méta-regression originale comporte différentes faiblesses méthodologiques, cette description du DSC comme fonction de la PPC est progressivement affinée pour former la courbe de Lassen consensuelle (figure~\ref{fig:lassen}). Les modifications apportées à la publication originale sont les suivantes :
  237 +\begin{itemize}
  238 +\item En abscisse, la pression veineuse en sortie de l'arbre vasculaire cérébral est généralement négligée. La PPC peut alors être approximée par la pression artérielle systémique, sauf dans le cas de pathologies où la PIC doit être prise en compte (TC, HSA, \textit{etc.}). Dans ce cas, le différentiel de pression est approximé par la formule $PPC = PA - PIC$.
  239 +\item Le plateau d'autorégulation n'est pas parfaitement horizontal ; les mécanismes d'AC ne compensent qu'une partie des variations de PPC. Ses limites ne correspondent pas à des cassures nettes. Par rapport à la publication originale de Lassen, sa largeur est fortement réduite (de l'ordre de la dizaine de mmHg). Il est à noter que la largeur ainsi que la position du plateau sont très variables d'un patient à l'autre, mais aussi d'une pathologie à l'autre~\cite{howells2025vasomotion}.
  240 +\item La limite inférieure du plateau correspond à la pression où les mécanismes de vasoconstriction ne permettent plus de compenser le faible différentiel de pression : le DSC dépend alors directement de la PPC. Cette limite inférieure d'autorégulation est généralement désignée sous le nom de LLA (\textit{Lower Limit of Autoregulation}).
  241 +\item Une limite supérieure est progressivement introduite~\cite{paulson1990cerebral}. Celle-ci correspond à la PPC où les sphincters responsables de la vasoconstriction n'exercent pas une force suffisante pour diminuer l'écoulement du sang. Cette limite supérieure d'autorégulation est généralement désignée sous le nom de ULA (\textit{Upper Limit of Autoregulation}).
  242 +\item Une seconde cassure inférieure, située en-dessous de la LLA, est parfois mentionnée dans la littérature~\cite{czosnyka2022pro}. Il s'agit de la pression de fermeture critique (\textit{critical closing pressure}, CrCP), correspondant à une PPC où le différentiel de pression s'annule au sein même de l'arbre vasculaire cérébral.
  243 +\end{itemize}
  244 +
  245 +\begin{figure}[h!]
  246 + \centering
  247 + \includegraphics[width=1\linewidth]{mecanique/Lassen.png}
  248 + \caption{Allure du débit sanguin cérébral en fonction de la pression de perfusion cérébrale, ou courbe de Lassen. CrCP -- Pression critique de fermeture. LLA --- Limite inférieure d'autorégulation. ULA --- Limite supérieure d'autorégulation.}
  249 + \label{fig:lassen}
  250 +\end{figure}
  251 +
  252 +
  253 +
  254 +Certains auteurs distinguent l'AC statique, correspondant à des adaptations de long terme à des variations spontanées de la PA, et l'AC dynamique, désignant la réponse du système à une perturbation ponctuelle. Toutefois, cette distinction relève principalement d'une classification artificielle des protocoles de mesure, du fait de la similarité des mécanismes mis en jeu et du continuum existant entre ces deux extrêmes~\cite{claassen2021regulation}. Quoiqu'il en soit, la mesure de l'autorégulation cérébrale s'appuie toujours sur un monitorage adjoint de la PA systémique et d'un dérivé du DSC et/ou du volume sanguin cérébral (VSC): vitesse moyenne du sang dans une artère cérébrale (V\textsubscript{m}) mesurée par ultrasonographie, pression partielle en oxygène, tomographie, PIC, etc.
  255 +
  256 +\subsection{Caractérisation dans le domaine temporel}
  257 +\label{cambridge}
  258 +L'étude de l'AC chez les patients cérébrolésés fait l'objet d'un riche corpus d'études rétrospectives reposant sur le calcul d'indices caractéristiques dans le domaine temporel. Les plus utilisés d'entre eux correspondent à des corrélations glissantes entre deux signaux de monitorage, l'un correspondant à la PPC, potentiellement approximée par la PA, et le second à un dérivé du VSC (PIC) ou du DSC (V\textsubscript{m}, pression partielle en oxygène, \textit{etc}). Le rationnel derrière la définition de ces indices est décrit par la courbe de Lassen : dans la zone d'autorégulation fonctionnelle, les variations de DSC sont amorties par les mécaniques d'AC, et sont donc peu dépendantes des variations de PPC. La corrélation entre la PPC et le dérivé du DSC est donc proche de 0. Au contraire, lorsque les mécanismes d'AC sont détériorés, les variations de PPC sont transmises passivement au DSC. La corrélation s'approche alors de 1. Un seuil pathologique est associé à chacun de ces indices, généralement autour de 0.3, au-delà duquel l'AC est considérée comme inopérante. Ces indices de corrélation glissante sont étroitement liés à la définition d'une valeur de PPC pour laquelle les mécanismes d'AC sont les plus fonctionnels. Cette valeur de PPC optimale, notée PPC\textsubscript{opt}, est située entre les deux bornes du plateau d'autorégulation (\textit{i.e.}, la ULA et la LLA). L'algorithme de détermination de la PPC\textsubscript{opt} consiste à tracer le portrait de phase de l'indice d'autorégulation en fonction de la PPC. Une régression quadratique permet alors d'identifier la valeur de PPC\textsubscript{opt} qui minimise l'indice d'autorégulation, et donc maximise l'AC. Les limites du plateau d'autorégulation sont situées aux croisements de la courbe parabolique (désignée dans le littérature sous le nom de \textit{U-shape curve}) avec la droite horizontale d'équation $y$ = 0.3 (ou tout autre seuil considéré comme pathologique). Le schéma de détermination de la PPC\textsubscript{opt} est présenté figure~\ref{fig:cppopt}.
  259 +
  260 +\begin{figure}[h!]
  261 + \centering
  262 + \includegraphics[width=1\linewidth]{mecanique/CPPopt.png}
  263 + \caption{Schéma de détermination de la pression de perfusion cérébrale optimale. PPC\textsubscript{opt} --- Pression de perfusion cérébrale optimale. LLA --- Limite inférieure d'autorégulation. ULA --- Limite supérieure d'autorégulation.}
  264 + \label{fig:cppopt}
  265 +\end{figure}
  266 +
  267 +
  268 +Parmi ces indices d'autorégulation glissante, il convient de citer :
  269 +
  270 +\paragraph{Le Mx (\textit{Mean Flow Index}.)} Il correspond à la corrélation glissante entre la PPC et la V\textsubscript{m}~\cite{czosnyka1996monitoring}. La notation \textit{Mxa} est utilisée lorsque la PPC est approximée par la PA. Le seuil pathologique de Mx est généralement situé à 0.3~\cite{lang2002continuous}. Toutefois, dans le cas du Mxa, certains auteurs ont proposé le seuil de 0.45~\cite{schmidt2003symmetry}. Dans la mesure où le Mxa ne nécessite aucun monitorage invasif, cet indice a pu être étudié pour un large éventail de pathologies dépassant le cadre de la neuro-réanimation~\cite{olsen2022reliability}. Dans le cas du TC, différentes études rétrospectives montrent une corrélation significative entre le Mx et la mortalité des patients, et entre le Mx et l'état clinique de sortie~\cite{budohoski2012monitoring}~\cite{schmidt2016autoregulation}. Contrairement aux indices présentés ci-dessous, les paramètres de calcul du Mx ne font pas consensus dans la littérature~\cite{olsen2022reliability}, ce qui pose problème lors de la comparaison des résultats de différentes études, bien que des recommandations sur les paramètres de la fenêtre glissante tendent à émerger~\cite{kostoglou2024time}.
  271 +
  272 +\paragraph{Le PRx (\textit{Pressure Reactivity Index}).} Cet indice est défini comme la corrélation glissante entre les signaux PA et de PIC~\cite{czosnyka1997continuous}. Le standard qui s'est imposé dans la littérature consiste à calculer le PRx à partir des deux signaux échantillonnés à 0.1 Hz sur une fenêtre glissante de 30 valeurs (soit 5 minutes) actualisée toutes les 10 secondes~\cite{tsigaras2023pressure}. Le PRx est un indice basé sur les variations de volume cérébral. Lorsque les mécanismes d'AC sont fonctionnels, une augmentation de la PA provoque une vasoconstriction des artérioles cérébrales de façon à maintenir un DSC constant. Cette vasoconstriction cause une diminution du volume du sanguin cérébral, qui se traduit par une baisse de la PIC. À compliance cérébrale constante, un PRx maintenu nul ou négatif est donc le reflet d'une AC fonctionnelle. Selon les auteurs, le seuil pathologique est fixé entre 0.2 et 0.3~\cite{svedung2023autoregulatory}~\cite{trukhan2022effect}~\cite{needham2017cerebral}. Le PRx est l'indice d'AC le plus fréquemment utilisé en neuro-réanimation~\cite{depreitere2021cerebrovascular}. En effet, le monitorage continu de la PIC et de la PA constituent des standards dans le traitement de patients cérébrolésés~\cite{carney2017guidelines}, et le calcul du PRx ne nécessite aucune intervention supplémentation du praticien une fois les capteurs de PIC et de PA mis en place. Cette facilité d'acquisition des données permet un suivi continu du PRx et de sa PPC\textsubscript{opt} associé. Toutefois, l'allure du portrait de phase entre la PPC et le PRx ne permet systématiquement la détermination d'une PPC\textsubscript{opt}. Différents critères de qualité de la régression quadratique ont été définis (étendue des valeurs de PRx et de PPC observées, R$^{2}$ de la régression quadratique) de façon à s'assurer du sens physique de la valeur de PPC\textsubscript{opt} obtenue. Les auteurs du PRx et développeurs du logiciel de référence ICM+ (Cambridge Enterprise Ltd., Royaume-Uni) revendiquent aujourd'hui l'affichage d'une PPC\textsubscript{opt} dans plus de 90\% du temps de monitorage~\cite{beqiri2021optimal} contre 55\% du temps initialement~\cite{aries2012continuous}. Cette amélioration est la conséquence de différents artefacts de calcul progressivement développés entre 2002 et 2024~\cite{tsigaras2023pressure}. Comme le calcul de la PPC\textsubscript{opt} repose uniquement sur des variations spontanées de la PPC, un minimum de 4h de monitorage est nécessaire avant l'affichage d'une valeur de PPC\textsubscript{opt}.
  273 +\par Du fait de la relative facilité d'acquisition des données, de nombreuses études rétrospectives ont analysé les corrélations entre le PRx, l'écart à la PPC\textsubscript{opt} calculé et le devenir des patients cérébrolésés. Une asymétrie de tolérance de l'écart aux cibles de PPC semble se dégager. Ainsi, le pourcentage du temps de monitorage passé en-dessous de la LLA estimée au moyen du PRx a été significativement corrélé à une plus forte mortalité et à de moins bons \textit{outcomes}~\cite{donnelly2017individualizing}. D'autres études montrent des résultats similaires pour le temps passé en-dessous de la PPC\textsubscript{opt}~\cite{kramer2019continuous}~\cite{bogli2025cerebral}. En 2021, l'étude prospective COGiTATe~\cite{tas2021targeting} incluant 60 patients testait la sécurité du protocole de définition de la PPC\textsubscript{opt} définie au moyen du PRx. Les participants étaient répartis aléatoirement en deux cohortes. Pour la première d'entre elles (le groupe contrôle), la PPC était maintenue entre 60 et 70 mmHg, selon les recommandations actuelles~\cite{carney2017guidelines}, tandis que la seconde(le groupe d'intervention) bénéficiait d'une cible de PPC personnalisée par le biais du calcul d'une PPC\textsubscript{opt}. L'étude s'est conclue sur un plus faible taux de mortalité parmi le groupe d'intervention, ainsi qu'un meilleur score GOS à 6 mois, sans pour autant que ces différences ne soient significatives. COGiTATe a cependant permis de confirmer la sécurité du protocole basé sur la PPC\textsubscript{opt} ; en effet, les scores d'intensité thérapeutiques (TIL) se sont révélés comparables dans les deux cohortes. Par la suite, certaines nuances sur le protocole de définition de la PPC\textsubscript{opt} ont été apportées par des études rétrospectives. En particulier, chez les patients de plus de 65 ans, un PRx négatif n'est pas corrélé avec un meilleur \textit{outcome}~\cite{lenell2024cerebrovascular}. Le protocole classique de définition de la PPC\textsubscript{opt} semble également perdre de sa pertinence pour les patients présentant de sévères contusions~\cite{svedung2024should}.
  274 +
  275 +\paragraph{Les indicateurs dérivés du PRx.} Différentes variantes du PRx ont été définies dans des contextes particuliers. En premier lieu, plusieurs versions du PRx à plus basse résolution (\textit{(ultra) low-frequency PRx, (U)L-PRx}), utilisant des valeurs de PIC et de PA moyennées de 1 à 5 min, pour des fenêtres de temps allant de 10 à 120 min, ont été proposées dans la littérature~\cite{hong2024critical}. L'objectif affiché est de réduire l'espace de stockage nécessaire au calcul des mesures d'AC. Ces L-PRx présentent un pouvoir pronostic moindre que le PRx classique, mais toujours significatif~\cite{riemann2020low}. Deux dérivés du PRx proposent d'exploiter l'amplitude du signal de PIC : le PAx (corrélation PA - AMP) et le RAC (corrélation PPC - AMP). L'intérêt des ces indices, bien que moins discriminants que le PRx dans l'identification de la LLA~\cite{zeiler2018validation}, réside dans la possibilité d'utiliser un monitorage non-invasif de la PIC pour le calcul de l'AMP~\cite{hassett2023assessment}. Une version du PRx basée sur la transformée en ondelettes (\textit{wavelet PRx}, wPRx) a été également été étudiée. Le wPRx correspond au cosinus du déphasage mesuré entre les signaux de PIC et de PA sur une plage de fréquence allant de 0.0067 Hz à 0.05 Hz. Dans le contexte d'une étude rétrospective incluant 515 cas de TC, le wPRx a présenté un meilleur pouvoir pronostique et une plus grande stabilité temporelle que le PRx~\cite{liu2017cerebrovascular}. L'utilisation d'ondelettes implique cependant une complexité calculatoire plus importante.
  276 +
  277 +
  278 +\par Plusieurs critiques peuvent être adressées aux méthodologies basées sur les indices de corrélations glissantes. En premier lieu, ceux-ci sont par nature sujet à un fort bruit de mesure~\cite{motroni2024reliability}~;~leur utilisation doit donc s'appuyer plusieurs heures de monitorage pour en dégager des tendances informatives des capacité d'autorégulation du patient~\cite{beqiri2021optimal}. De plus, ceux-ci s'appuient sur des variations spontanées des variations de PPC. Les artefacts de mesure doivent donc être soigneusement identifiés par les praticiens de façon à ce qu'ils ne soient pas pris en compte dans le calcul du plateau d'autorégulation~\cite{ayasse2023cerebral}. Le calcul de la PPC\textsubscript{opt} est largement dépendant de l'implémentation de l'algorithme utilisé ~;~en 2024, Plourde \textit{et al.} reportaient une étude de cas où deux logiciels d'estimation continue de la PPC\textsubscript{opt} différaient de plus de 10 mmHg dans plus de 50\% du temps de monitorage~\cite{plourde2024variations}. Enfin, le corpus de preuves, bien que conséquent, s'appuie exclusivement sur la mortalité et/ou le devenir des patients en sortie de neuro-réanimation, sans établir formellement un lien entre les indices de corrélation et les mécanismes physiologiques dont ils sont censés être les reflets.
  279 +
  280 +\par D'autres indices d'AC ont été proposés dans le domaine temporel. Ceux-ci, moins répandus, s'appuient sur des formulations mathématiques plus complexes qu'une simple corrélation~\cite{kostoglou2024awhite}. En particulier, l'analyse pression-débit multimodale (\textit{Multimodal Pressure-Flow Analysis}) consiste à calculer le déphasage instantané entre le signal de PIC et de PA à différentes échelles de temps, au moyen de la transformée de Hilbert-Huang (c'est-à-dire de l'application de la transformée de Hilbert aux différentes IMFs obtenues par EMD)~\cite{lo2008multimodal}. Ces méthodes s'inspirent directement des caractérisation de l'AC effectuées dans le domaine fréquentiel.
  281 +
  282 +\subsection{Caractérisation dans le domaine fréquentiel}
  283 +\label{carnet}
  284 +Du fait du délai du mécanisme de réactivité myogénique, l'AC produit joue le rôle d'un filtre passe-haut entre les variations de PA systémique et les variations de DSC. L'étude de l'AC dans le domaine fréquentiel repose donc sur l'analyse de la fonction de transfert (\textit{Transfer Function Analysis}, TFA) entre un signal d'entrée, correspondant à la PPC possiblement approximée par la PA, et un signal de sortie, classiquement le signal de DSC. Plus formellement, on définit le cross-spectre $S_{XY}$ de deux signaux $X$ et $Y$ par la relation
  285 +\begin{equation}
  286 + S_{XY} = \hat{X} \cdot \hat{Y}^{*}
  287 +\end{equation}
  288 +
  289 +où $\hat{X}$ désigne la transformée de Fourier de $X$, $Y^{*}$ le conjugué complexe de $Y$ et $\cdot$ le produit terme à terme. Le cross-spectre est l'équivalent de la cross-corrélation dans le domaine fréquentiel, du fait que l'opération transformée de Fourier vérifie la relation $X * Y$ = $\hat{X} \cdot \hat{Y}$ , où $*$ désigne le produit de convolution. Le cross-spectre permet de définir la fonction de transfert $H_{X\rightarrow Y}$ = $S_{XY} / S_{XX}$ . Cette fonction de transfert $H$ est utile pour mesurer l'impact des variations de PPC sur le signal de V\textsubscript{m}. Classiquement, l'étude de l'AC par TFA repose sur trois grandeurs caractéristiques liées à la fonction de transfert $H_{PPC \rightarrow VSC}$ :
  290 +\begin{itemize}
  291 +\item Le gain $G$, correspondant au module $|H_{PPC \rightarrow VSC}|$, exprimé en (cm/s)/mmHg. Ce calcul permet de quantifier l'amortissement des variations de PPC transmises à la V\textsubscript{m} du fait des
  292 +mécanismes d'AC.
  293 +\item Le déphasage, défini par la relation $\Phi = arctan\frac{Im(H_{PPC \rightarrow V_m})}{Re(H_{PPC \rightarrow V_m})}$ est exprimé en radians. Du fait de l'amortissement des variations de VSC par les mécanismes d'AC, la V\textsubscript{m} revient plus rapidement à son niveau initial que la PPC lorsque cette dernière subit des perturbations~\cite{claassen2021regulation}. Les signaux d'entrée et de sortie observent donc une désynchronisation quantifiée par le déphasage.
  294 +\item La transformée de Fourier décomposant un signal donné en une combinaison linéaire de fonctions sinusoïdes, la fonction de transfert $H$ ne peut décrire que les interactions linéaires existant entre le signal d'entrée et le signal de sortie. La cohérence $\frac{S_{XY}^{2}}{S_{XX}S_{YY}}$, comparable à la corrélation de Pearson dans le domaine fréquentiel, permet de quantifier la linéarité de la relation observée entre deux signaux $X$ et $Y$ . En pratique, la cohérence peut être utilisée de deux façons : soit comme un indicateur en soi du fonctionnement de l'AC --- une cohérence proche de 0 indique alors des mécanismes d'AC préservés, soit comme un outil de validation des mesures de gain et de déphasage décrites ci-dessus. Selon le temps de mesure disponible, différents seuils de cohérence minimale ont été définis de façon à s'assurer du sens physique de la TFA~\cite{panerai2023transfer}.
  295 +\end{itemize}
  296 +
  297 +L'avantage de la TFA est de pouvoir comparer la qualité de l'AC à différentes échelles de temps. En particulier, du fait du délai d'activation des mécanismes myogéniques, les oscillations de fréquence supérieure à environ 0.5 Hz sont transmises passivement de la PPC à la VSC. Ce seuil correspond donc à une augmentation du gain, une diminution du déphasage et une augmentation de la cohérence dans les hautes fréquences. En pratique, il est recommandé de présenter les résultats de la TFA dans trois plages de fréquences : de 0.02 à 0.07 Hz (très basses fréquences), de 0.07 à 0.2 Hz (basses fréquences) et de 0.2 à 0.5 Hz (hautes fréquences). Les résultats peuvent de plus être agrégés dans tout le domaine d'étude classique de l'AC, c'est-à-dire de 0.02 à 0.5 Hz. Ceux-ci peuvent alors être comparés aux différentes valeurs de référence obtenues dans de larges cohortes de patients sains~\cite{panerai2023transfer}.
  298 +
  299 +\par Si les méthodes de la TFA ont été appliquées à de nombreuses pathologies, de la maladie d'Alzheimer~\cite{heutz2023dynamic} aux accidents vasculaires cérébraux~\cite{intharakham2019assessment}, relativement peu d'études ont appliqué ces méthodes aux patients admis en neuro-réanimation, où les indices de corrélation tels que le PRx restent prépondérants~\cite{vitt2023multimodal}. Ce constat, au-delà des considérations de communautés scientifiques distinctes, peut s'expliquer de plusieurs façons : en premier lieu, la plupart protocoles de mesure de l'AC dynamique impliquent des changements de positions successifs~\cite{burma2024systematic} et ne sont donc pas applicables aux patients cérébrolésés. De manière plus générale, la TFA repose sur des temps de monitorage courts, de l'ordre de quelques minutes~\cite{burma2021recording}, incluant potentiellement une perturbation passagère, là où les unités de soins intensifs disposent de monitorages longs sur des patients fragiles. Les différentes études basées sur la TFA visent ainsi davantage un diagnostic à un instant précis, plutôt qu'un suivi des capacités d'AC sur le temps long. De plus, en pratique clinique, les neuro-réanimateurs disposent de différents outils de régulation continue de la PPC, pour laquelle une plage optimale est recherchée en prenant en compte les interactions entre PA et PIC~\cite{claassen2021regulation}. La complexité des résultats de la TFA rend moins directe la localisation du plateau d'autorégulation en comparaison d'algorithmes expressément dédiés et tirant parti du temps long~\cite{deimantavicius2022feasibility}. Les quelques études comparant les mesures d'AC obtenues par TFA ou par des indices de corrélation dans le domaine temporel montrent un faible accord entre les deux méthodes~\cite{liu2015comparison}\cite{olsen2022reliability}, suggérant que ces différents indices ne sont pas interchangeables et mesurent différents aspects de l'AC.
... ... @@ -36,6 +36,7 @@
36 36 \tableofcontents
37 37  
38 38 \chapter*{Introduction}
  39 +\markboth{Introduction}{Introduction}
39 40 \input{chapters/Introduction}
40 41  
41 42 % état de l'art
42 43  
43 44  
44 45  
45 46  
... ... @@ -67,19 +68,20 @@
67 68 \input{chapters/OptiMAP}
68 69  
69 70 \chapter*{Conclusion et perspectives}
  71 +\markboth{Conclusion et perspectives}{Conclusion et perspectives}
70 72 \input{chapters/conclusion}
71 73  
72   -\cleardoublepage
73 74 \chapter*{Bibliographie personnelle}
  75 +\markboth{Bibliographie personnelle}{Bibliographie personnelle}
74 76 Articles publiés:
75 77 \begin{itemize}
76 78 \item Donatien Legé, Laurent Gergelé, Marion Prud’homme, Jean-Christophe Lapayre, Yoann Launey, Julien Henriet. 2023. A Deep Learning-Based Automated Framework for Subpeak Designation on Intracranial Pressure Signals. \textit{Sensors} 23(18): 7834, 2023.
77 79 \item Donatien Legé, Pierre-Henri Murgat, Russell Chabanne, Kevin Lagarde, Clément Magand, Jean-François Payen, Marion Prud'homme, Yoann Launey, Laurent Gergelé. Cerebral compliance assessment from intracranial pressure waveform analysis: Is a positional shift-related increase in intracranial pressure predictable? \textit{PLoS ONE} 9(12): e0316167, 2024.
78 80 \end{itemize}
79 81  
80   -Articles acceptés en cours de publication:
  82 +Accepté pour publication en août 2025:
81 83 \begin{itemize}
82   -\item Donatien Legé, Baptiste Balança, Agnieszka Kazimierska, Gwendan Percevault, Valentin Ghibaudo, Marion Prud'homme, Célestin Kokonendji, Julien Henriet. ICP-SWAn: A Selective Waveform Analysis Pipeline for Conformal Subpeak Detection in Intracranial Pressure Signals.
  84 +\item Donatien Legé, Baptiste Balança, Agnieszka Kazimierska, Gwendan Percevault, Valentin Ghibaudo, Marion Prud'homme, Célestin Kokonendji, Julien Henriet. ICP-SWAn: A Selective Waveform Analysis Pipeline for Conformal Subpeak Detection in Intracranial Pressure Signals. \textit{Biomedical Signal Processing and Control}, Elsevier.
83 85 \end{itemize}
84 86  
85 87 \markboth{}{}