Commit 51a0e4e7ac8abc9ff988ac6986064a1c4b497f88

Authored by dsotofor
1 parent 9486a07a15
Exists in main

version correct to chapter 6 and chapter 7 in evaluation

Showing 7 changed files with 29 additions and 33 deletions Side-by-side Diff

chapters/Conclusions.tex View file @ 51a0e4e
... ... @@ -4,16 +4,16 @@
4 4  
5 5 Étant donné l'importance des modules de recommandation dans les EIAH pour améliorer le système, le faire plus dynamique et aider l'apprenant dans son processus d'apprentissage et acquisition de la connaissance, il est nécessaire de trouver des stratégies et algorithmes adaptés et intégrables qui permettent d'exploiter et d'analyser toute l'information récolté pour le système sur l'évolution de l'apprenant et ses possibles lacunes ainsi comme des algorithmes capables de proposer des alternatives de parcours dynamiques et diverses pour chaque cas en visant la réussite prédéfinie par l'apprenant et le professeur.
6 6  
7   -C'est ainsi que les outils de IA et apprentissage automatique se trouvent au centre des possibles solutions dans cette problématique, car ils permettent de travailler avec des données structurées selon un contexte déterminé, explorer et exploiter les espaces ou sont définis ces données, analyser et extraire l'information utile pour connaître les comportements, tendances et faiblesses des apprenants. De tous les outils d'IA ceux dont le fonctionnement a besoin de peu de données pour bien extraire, identifier et prédire sont les plus adaptés pour résoudre le problème, car il est très compliqué d'avoir grand quantités de données pour entrainer et évaluer une IA comme celles qui appartiennent au ensemble du deep learning. C'est l'une des raisons pour lesquelles les contributions réalisées dans ce travail ont permis d'améliorer l'environnement informatique d'apprentissage humain AI-VT, en proposant des recommandations dynamiques et plus adaptées à chaque apprenant en utilisant l'apprentissage par renforcement, la génération de solutions stochastique, le raisonnement Bayésien, les approches d'ensemble avec plusieurs algorithmes dans deux stages, l'optimisation stochastique itérative, l'intégration d'approches locales et collaboratifs, le raisonnement à partir de cas avec les systèmes multi-agents et le processus de Hawkes.
  7 +C'est ainsi que les outils de IA et apprentissage automatique se trouvent au centre des possibles solutions dans cette problématique, car ils permettent de travailler avec des données structurées selon un contexte déterminé, explorer et exploiter les espaces ou sont définis ces données, analyser et extraire l'information utile pour connaître les comportements, tendances et faiblesses des apprenants. De tous les outils d'IA ceux dont le fonctionnement a besoin de peu de données pour bien extraire, identifier et prédire sont les plus adaptés pour résoudre le problème, car il est très compliqué d'avoir grand quantités de données pour entrainer et évaluer une IA comme celles qui appartiennent au ensemble du deep learning. C'est l'une des raisons pour lesquelles les contributions réalisées dans ce travail ont permis d'améliorer l'environnement informatique d'apprentissage humain AI-VT, en proposant des recommandations dynamiques et plus adaptées à chaque apprenant en utilisant l'apprentissage par renforcement, la génération de solutions stochastique, le raisonnement Bayésien, les approches d'ensemble avec plusieurs algorithmes dans deux stages empilés, l'optimisation stochastique itérative, l'intégration d'approches locales et collaboratifs, le raisonnement à partir de cas avec les systèmes multi-agents et le processus de Hawkes.
8 8  
9 9 Les jeux de données testés (réels et simulé) ont permis de tester la solidité du modèle pour chacune des étapes du développement ainsi comme l'amélioration progressive jusque l'unification de tous les modèles proposés. Aussi pour tester la qualité des recommandations générées ont été définies deux métriques qui ont permis de mesurer avec précision le degré d'adaptabilité en rapport avec la performance de chaque apprenant.
10 10  
11   -Les résultats obtenus avec chaque modèle proposé dans les étapes d'évolution en suivant les métriques définies, montrent que il y a une performance compétitive par rapport aux algorithmes et modèles qui sont utilisés actuellement comme référence de l'état de l'art. L'implémentation des algorithmes selon l'architecture proposée a permis d'obtenir les avantages de chacun et ainsi améliorer globalement la performance et le précision pour le problème d'adaptation du système AI-VT en fonction des résultats partiels des apprenants de façon réactive.
  11 +Le modèle complet qui intègre tous les modules développes considère des aspects pertinents du processus d'apprentissage comme le renforcement des connaissances, la dynamiques de l'information, la progression variable, le temps d'apprentissage non-linéaire et la courbe de l'oubli.
12 12  
  13 +Les résultats obtenus avec chaque modèle proposé dans les étapes d'évolution en suivant les métriques définies, montrent que il y a une performance progressive compétitive par rapport aux algorithmes et modèles qui sont utilisés actuellement comme référence de l'état de l'art. L'implémentation des algorithmes selon l'architecture proposée a permis d'obtenir les avantages de chacun et ainsi améliorer globalement la performance et le précision pour le problème d'adaptation du système AI-VT en fonction des résultats partiels et dynamiques des apprenants de façon réactive.
  14 +
13 15 \section{Perspectives}
14 16  
15   -Le système devrait être testé avec des données réelles dans un environnement standard réel afin d'obtenir des informations sur certains groupes caractéristiques spécifiques d'étudiants et de comparer les résultats obtenus avec les résultats théoriques, consolidant ainsi les preuves comportementales et l'efficacité du modèle proposé.
16   -
17 17 Comme travail futur, il est proposé d'intégrer dans le modèle d'autres variables obtenues avec des algorithmes d'intelligence artificielle complémentaires tels que l'analyse vidéo, l'analyse audio et même l'analyse des données obtenues des apprenants tout au long du processus d'apprentissage. Analyser le modèle avec différentes configurations paramétriques, afin de déterminer quelles sont les configurations les plus appropriées et comment chaque variable influence le comportement global des algorithmes exécutés et le résultat final.
18 18  
19 19 Comme perspectives de ce travail peuvent être envisagées :
20 20  
21 21  
... ... @@ -22,16 +22,16 @@
22 22 \item Analyser le comportement de l'algorithme avec des métriques de distance différentes de la distance Euclidiene.
23 23 \item Analyser la modification de la fonction de optimisation associé au choix de la meilleure solution dans les solutions générées par le second stacking processus.
24 24 \item Déterminer le point de rupture pour différents scénarios.
  25 + \item Implémenter la prédiction des notes avec une autre approche pour enrichir l'analyse des données.
25 26 \end{itemize}
26 27  
27 28 Pour l'échantillonnage de Thompson les perspectives ouvertes par ce travail sont :
28 29 \begin{itemize}
29 30 \item Changer la famille des distributions de probabilité et étudier la performance obtenue.
30 31 \item Calculer de façon dynamique les taux corrélées d'actualisation des distributions de probabilité pour chaque niveau de complexité.
31   - \item Ajouter une comportement décroissante à l'actualisation des distributions de probabilité pour améliorer l'adaptabilité su modèle.
32 32 \end{itemize}
33 33  
34 34 Aussi, évaluer le système avec une base de données avec des erreurs pour mesurer la résilience du modèle et comment il peut s'autocorriger face à d'éventuels dysfonctionnements.
35 35  
36   -De façon générale il est possible de définir des intervalles pour chaque paramètre et exécuter un analyse de sensibilité pour évaluer les résultats avec l'objectif d'estimer la stabilité du système et les limites numériques.
  36 +De façon générale il est possible de définir des intervalles pour chaque paramètre et exécuter un analyse de sensibilité pour évaluer les résultats avec l'objectif d'estimer la stabilité du système et les limites numériques. Ainsi comme ajouter des concepts ou théories pédagogiques pour améliorer encore plus la présentation des contenus et exercices face aux apprenants.
chapters/TS.aux View file @ 51a0e4e
... ... @@ -110,9 +110,9 @@
110 110 \@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Nombre de recommandations par niveau de complexité\relax }}{93}{figure.caption.63}\protected@file@percent }
111 111 \newlabel{fig:stabilityBP}{{7.9}{93}{Nombre de recommandations par niveau de complexité\relax }{figure.caption.63}{}}
112 112 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent }
113   -\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}\protected@file@percent }
114 113 \@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Précision de la recommandation\relax }}{94}{figure.caption.64}\protected@file@percent }
115 114 \newlabel{fig:precision}{{7.10}{94}{Précision de la recommandation\relax }{figure.caption.64}{}}
  115 +\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{94}{subsubsection.7.3.3.6}\protected@file@percent }
116 116 \newlabel{eqjs4}{{7.34}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.34}{}}
117 117 \newlabel{eqjs5}{{7.35}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.35}{}}
118 118 \@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.\relax }}{95}{figure.caption.65}\protected@file@percent }
119 119  
120 120  
121 121  
... ... @@ -125,16 +125,16 @@
125 125 \citation{10.1145/3578337.3605122}
126 126 \@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{97}{section.7.4}\protected@file@percent }
127 127 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{97}{subsection.7.4.1}\protected@file@percent }
128   -\newlabel{hp1}{{7.36}{97}{Modèle Proposé}{equation.7.4.36}{}}
129 128 \@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }}{98}{figure.caption.68}\protected@file@percent }
130 129 \newlabel{fig:Amodel}{{7.14}{98}{Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }{figure.caption.68}{}}
  130 +\newlabel{hp1}{{7.36}{98}{Modèle Proposé}{equation.7.4.36}{}}
131 131 \newlabel{hp21}{{7.37}{98}{Modèle Proposé}{equation.7.4.37}{}}
132 132 \newlabel{hp22}{{7.38}{98}{Modèle Proposé}{equation.7.4.38}{}}
133 133 \newlabel{hp30}{{7.39}{98}{Modèle Proposé}{equation.7.4.39}{}}
134 134 \newlabel{hp31}{{7.40}{98}{Modèle Proposé}{equation.7.4.40}{}}
135   -\newlabel{hpfa}{{7.41}{98}{Modèle Proposé}{equation.7.4.41}{}}
136   -\newlabel{hpfb}{{7.42}{98}{Modèle Proposé}{equation.7.4.42}{}}
137 135 \citation{Kuzilek2017}
  136 +\newlabel{hpfa}{{7.41}{99}{Modèle Proposé}{equation.7.4.41}{}}
  137 +\newlabel{hpfb}{{7.42}{99}{Modèle Proposé}{equation.7.4.42}{}}
138 138 \newlabel{eqBetaH}{{7.43}{99}{Modèle Proposé}{equation.7.4.43}{}}
139 139 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{99}{subsection.7.4.2}\protected@file@percent }
140 140 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{99}{subsubsection.7.4.2.1}\protected@file@percent }
chapters/TS.tex View file @ 51a0e4e
... ... @@ -567,7 +567,7 @@
567 567  
568 568 Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d'intéragir au cours de l'exécution et de l'exploration.
569 569  
570   -ESCBR-SMA utilise une fonction noyau pour obtenir la meilleure approximation de la solution du problème cible. Dans notre cas, l'obtention de la meilleure solution est un problème NP\colorbox{yellow}{NP-complet ? / NP-Difficile ?} car la formulation est similaire au problème de Fermat-Weber à $N$ dimensions \cite{doi:10.1137/23M1592420}.
  570 +ESCBR-SMA utilise une fonction noyau pour obtenir la meilleure approximation de la solution du problème cible. Dans notre cas, l'obtention de la meilleure solution est un problème NP-Difficile car la formulation est similaire au problème de Fermat-Weber à $N$ dimensions \cite{doi:10.1137/23M1592420}.
571 571  
572 572 Les différents scénarios du tableau \ref{tab:scenarios} ont été considérés dans un premier temps. Dans le scénario $E_1$, il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario $E_2$ considère les notes de 8 questions et l'objectif est de prédire la note de 9 questions dans le même niveau de complexité. Le scénario $E_3$ considère les données permettant de prédire le passage à un niveau de complexité supérieur après 4 questions.
573 573 \colorbox{yellow}{Je ne comprends pas ce scénario E3. La reformulation suivante est-elle correcte ? }\\
... ... @@ -699,7 +699,7 @@
699 699 \label{fig:stabilityBP}
700 700 \end{figure}
701 701  
702   -La précision de la recommandation pour tous les apprenants est évaluée en considérant comme comportement correct deux états : i) le modèle recommande un niveau où l'apprenant a une note supérieure ou égal à 6 et ii) le modèle recommande un niveau inférieur au niveau réel évalué par l'apprenant. La figure \ref{fig:precision} montre les résultats de cette métrique après 100 exécutions.\
  702 +La précision de la recommandation pour tous les apprenants est évaluée en considérant comme comportement correct deux états : i) le modèle recommande un niveau où l'apprenant a une note supérieure ou égal à 6 et ii) le modèle recommande un niveau inférieur au niveau réel évalué par l'apprenant. Le premier cas montre que le modèle a identifié le moment précis où l'apprenant doit augmenter le niveau de complexité, le second cas permet d'établir que le modèle propose de renforcer un niveau de complexité plus faible, puis la précision est calculée comme le rapport entre le nombre d'états correspondant aux comportements corrects définis et le nombre total de recommandations. La figure \ref{fig:precision} montre les résultats de cette métrique après 100 exécutions.\
703 703  
704 704 \begin{figure}[!ht]
705 705 \centering
... ... @@ -915,7 +915,7 @@
915 915  
916 916 \subsection{Conclusion}
917 917  
918   -Cette partie a présenté un algorithme intégrant un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson, un modèle de régression d'ensemble fondé sur le raisonnement par cas et système multi-agents, et une fonction d'oubli fondée sur le processus de Hawkes. Nous avons mesuré ses performances sur un ensemble de données générées permettant de simuler les notes et temps de réponses obtenues par 1000 apprenants sur un EIAH proposant des exercices répartis sur 5 niveaux de complexité. Ces tests ont été réalisés en vue d'une intégration à l'EIAH AI-VT. Les résultats montrent que le module final permet de réviser les séances d'entrainement, de proposer des exercices progressivement plus difficiles, tout en intégrant des rappels de notions.
  918 +Cette partie a présenté un algorithme intégrant un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson, un modèle de régression d'ensemble fondé sur le raisonnement par cas et système multi-agents, et une fonction d'oubli fondée sur le processus de Hawkes. Nous avons mesuré ses performances sur un ensemble de données générées permettant de simuler les notes et temps de réponses obtenues par 1000 apprenants sur un EIAH proposant des exercices répartis sur cinq niveaux de complexité. Ces tests ont été réalisés en vue d'une intégration à l'EIAH AI-VT. Les résultats montrent que le module final permet de réviser les séances d'entrainement, de proposer des exercices progressivement plus difficiles, tout en intégrant des rappels de notions.
919 919  
920 920 \colorbox{yellow}{Il manque une conclusion au chapitre :}\\
921 921 \colorbox{yellow}{ - rappel du fonctionnement global du module final,}\\
1   -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 5 JUL 2025 23:31
  1 +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 6 JUL 2025 17:23
2 2 entering extended mode
3 3 restricted \write18 enabled.
4 4 %&-line parsing enabled.
5 5  
... ... @@ -1199,13 +1199,8 @@
1199 1199 Underfull \vbox (badness 10000) has occurred while \output is active []
1200 1200  
1201 1201 [7]
1202   -Overfull \hbox (1.29184pt too wide) detected at line 89
1203   - [][]\T1/phv/m/n/10.95 100[]
1204   - []
1205   -
1206   -
1207 1202 Overfull \hbox (1.29184pt too wide) detected at line 90
1208   - [][]\T1/phv/m/n/10.95 100[]
  1203 + [][]\T1/phv/m/n/10.95 101[]
1209 1204 []
1210 1205  
1211 1206  
1212 1207  
... ... @@ -1962,11 +1957,14 @@
1962 1957 Package pdftex.def Info: Figures/GradesEv.jpg used on input line 717.
1963 1958 (pdftex.def) Requested size: 427.43153pt x 321.44128pt.
1964 1959 [92 <./Figures/kEvol_TS.jpg>]
1965   -<Figures/LevelsEv.jpg, id=1515, 742.775pt x 557.08125pt>
  1960 +<Figures/LevelsEv.jpg, id=1514, 742.775pt x 557.08125pt>
1966 1961 File: Figures/LevelsEv.jpg Graphic file (type jpg)
1967 1962 <use Figures/LevelsEv.jpg>
1968 1963 Package pdftex.def Info: Figures/LevelsEv.jpg used on input line 726.
1969 1964 (pdftex.def) Requested size: 427.43153pt x 320.58275pt.
  1965 +
  1966 +Underfull \vbox (badness 10000) has occurred while \output is active []
  1967 +
1970 1968 [93 <./Figures/stabilityBoxplot.png (PNG copy)>]
1971 1969 Overfull \hbox (28.0266pt too wide) in paragraph at lines 759--765
1972 1970 [][][][][][]
1973 1971  
1974 1972  
1975 1973  
1976 1974  
... ... @@ -1982,20 +1980,18 @@
1982 1980 [][][][][][]
1983 1981 []
1984 1982  
1985   -<Figures/Metric4.jpg, id=1527, 1429.34pt x 786.94pt>
  1983 +[94 <./Figures/precision.png (PNG copy)>]
  1984 +<Figures/Metric4.jpg, id=1533, 1429.34pt x 786.94pt>
1986 1985 File: Figures/Metric4.jpg Graphic file (type jpg)
1987 1986 <use Figures/Metric4.jpg>
1988 1987 Package pdftex.def Info: Figures/Metric4.jpg used on input line 768.
1989 1988 (pdftex.def) Requested size: 427.43153pt x 235.32733pt.
1990   -[94 <./Figures/precision.png (PNG copy)>]
1991 1989  
  1990 +
1992 1991 LaTeX Warning: `!h' float specifier changed to `!ht'.
1993 1992  
  1993 +[95 <./Figures/GradesEv.jpg>]
1994 1994  
1995   -Underfull \vbox (badness 3039) has occurred while \output is active []
1996   -
1997   - [95 <./Figures/GradesEv.jpg>]
1998   -
1999 1995 LaTeX Warning: Text page 96 contains only floats.
2000 1996  
2001 1997 [96 <./Figures/LevelsEv.jpg> <./Figures/Metric4.jpg>]
2002 1998  
... ... @@ -2011,13 +2007,13 @@
2011 2007 []
2012 2008  
2013 2009 [97] [98 <./Figures/ModelHawkes.png>]
2014   -<./Figures/stabilityBoxplot1.png, id=1574, 742.775pt x 520.94624pt>
  2010 +<./Figures/stabilityBoxplot1.png, id=1573, 742.775pt x 520.94624pt>
2015 2011 File: ./Figures/stabilityBoxplot1.png Graphic file (type png)
2016 2012 <use ./Figures/stabilityBoxplot1.png>
2017 2013 Package pdftex.def Info: ./Figures/stabilityBoxplot1.png used on input line 86
2018 2014 9.
2019 2015 (pdftex.def) Requested size: 427.43153pt x 299.78818pt.
2020   -<./Figures/stabilityBoxplot2.png, id=1575, 742.775pt x 520.94624pt>
  2016 +<./Figures/stabilityBoxplot2.png, id=1574, 742.775pt x 520.94624pt>
2021 2017 File: ./Figures/stabilityBoxplot2.png Graphic file (type png)
2022 2018 <use ./Figures/stabilityBoxplot2.png>
2023 2019 Package pdftex.def Info: ./Figures/stabilityBoxplot2.png used on input line 87
2024 2020  
... ... @@ -2032,12 +2028,12 @@
2032 2028  
2033 2029  
2034 2030 [100 <./Figures/stabilityBoxplot1.png> <./Figures/stabilityBoxplot2.png>]
2035   -<Figures/Var.png, id=1592, 1408.26125pt x 749.80125pt>
  2031 +<Figures/Var.png, id=1591, 1408.26125pt x 749.80125pt>
2036 2032 File: Figures/Var.png Graphic file (type png)
2037 2033 <use Figures/Var.png>
2038 2034 Package pdftex.def Info: Figures/Var.png used on input line 905.
2039 2035 (pdftex.def) Requested size: 427.43153pt x 227.57355pt.
2040   -<Figures/VarH.png, id=1593, 1408.26125pt x 749.80125pt>
  2036 +<Figures/VarH.png, id=1592, 1408.26125pt x 749.80125pt>
2041 2037 File: Figures/VarH.png Graphic file (type png)
2042 2038 <use Figures/VarH.png>
2043 2039 Package pdftex.def Info: Figures/VarH.png used on input line 911.
... ... @@ -2209,7 +2205,7 @@
2209 2205 lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/
2210 2206 uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf
2211 2207 b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb>
2212   -Output written on main.pdf (122 pages, 7925401 bytes).
  2208 +Output written on main.pdf (122 pages, 7925747 bytes).
2213 2209 PDF statistics:
2214 2210 1831 PDF objects out of 2073 (max. 8388607)
2215 2211 1562 compressed objects within 16 object streams

No preview for this file type

main.synctex.gz View file @ 51a0e4e

No preview for this file type

... ... @@ -80,7 +80,7 @@
80 80 \contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec une base de données d'étudiants réels}{91}{subsubsection.7.3.3.3}%
81 81 \contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}%
82 82 \contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}%
83   -\contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}%
  83 +\contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{94}{subsubsection.7.3.3.6}%
84 84 \contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}%
85 85 \contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{97}{section.7.4}%
86 86 \contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{97}{subsection.7.4.1}%