Commit 3d2fc91d2f4f7586ca290894e2e4768b0540cd94
1 parent
307695ce68
Exists in
main
version correct to chapter 5 and corrections to do in chapter 6
Showing 5 changed files with 73 additions and 77 deletions Side-by-side Diff
chapters/TS.aux
View file @
3d2fc91
... | ... | @@ -39,19 +39,19 @@ |
39 | 39 | \newlabel{figCmp4}{{7.4}{82}{Résultats pour le troisième Test\relax }{figure.caption.50}{}} |
40 | 40 | \newlabel{eqXc}{{7.10}{82}{Résultats}{equation.7.2.10}{}} |
41 | 41 | \newlabel{eqYc}{{7.11}{82}{Résultats}{equation.7.2.11}{}} |
42 | -\@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.52}\protected@file@percent } | |
43 | -\newlabel{tabRM}{{7.4}{82}{Résultats de la métrique $rp_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.52}{}} | |
42 | +\@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.52}\protected@file@percent } | |
43 | +\newlabel{tabRM}{{7.4}{82}{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.52}{}} | |
44 | 44 | \@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Métrique pour le parcours standard\relax }}{83}{figure.caption.51}\protected@file@percent } |
45 | 45 | \newlabel{figMetric}{{7.5}{83}{Métrique pour le parcours standard\relax }{figure.caption.51}{}} |
46 | 46 | \newlabel{eqMetricS1}{{7.12}{83}{Résultats}{equation.7.2.12}{}} |
47 | 47 | \newlabel{eqMetricS2}{{7.13}{83}{Résultats}{equation.7.2.13}{}} |
48 | 48 | \@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }}{84}{figure.caption.53}\protected@file@percent } |
49 | 49 | \newlabel{figMetric2}{{7.6}{84}{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }{figure.caption.53}{}} |
50 | -\@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Résultats de la métrique $rs_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{84}{table.caption.54}\protected@file@percent } | |
51 | -\newlabel{tabRM2}{{7.5}{84}{Résultats de la métrique $rs_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.54}{}} | |
50 | +\@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{84}{table.caption.54}\protected@file@percent } | |
51 | +\newlabel{tabRM2}{{7.5}{84}{Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.54}{}} | |
52 | 52 | \newlabel{eqCS}{{7.14}{84}{Résultats}{equation.7.2.14}{}} |
53 | -\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{84}{table.caption.55}\protected@file@percent } | |
54 | -\newlabel{tabCS}{{7.6}{84}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.55}{}} | |
53 | +\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{84}{table.caption.55}\protected@file@percent } | |
54 | +\newlabel{tabCS}{{7.6}{84}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.55}{}} | |
55 | 55 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{85}{subsection.7.2.3}\protected@file@percent } |
56 | 56 | \citation{jmse11050890} |
57 | 57 | \citation{ZHANG2018189} |
58 | 58 | |
... | ... | @@ -112,9 +112,9 @@ |
112 | 112 | \newlabel{fig:EvGrades}{{7.9}{95}{Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }{figure.caption.62}{}} |
113 | 113 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{95}{subsubsection.7.3.3.5}\protected@file@percent } |
114 | 114 | \newlabel{eqjs4}{{7.37}{95}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.37}{}} |
115 | +\newlabel{eqjs5}{{7.38}{95}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.38}{}} | |
115 | 116 | \@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }}{96}{figure.caption.63}\protected@file@percent } |
116 | 117 | \newlabel{fig:EvCL}{{7.10}{96}{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }{figure.caption.63}{}} |
117 | -\newlabel{eqjs5}{{7.38}{96}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.38}{}} | |
118 | 118 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{96}{subsection.7.3.4}\protected@file@percent } |
119 | 119 | \citation{10.1145/3578337.3605122} |
120 | 120 | \@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Normalisation de la différence de progression entre l'échantillonnage de Thompson et l'échantillonnage de Thompson avec ESCBR pour 1000 apprenants\relax }}{97}{figure.caption.64}\protected@file@percent } |
121 | 121 | |
122 | 122 | |
123 | 123 | |
... | ... | @@ -123,27 +123,27 @@ |
123 | 123 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{97}{subsection.7.4.1}\protected@file@percent } |
124 | 124 | \@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Architecture Proposed Algorithm\relax }}{98}{figure.caption.65}\protected@file@percent } |
125 | 125 | \newlabel{fig:Amodel}{{7.12}{98}{Architecture Proposed Algorithm\relax }{figure.caption.65}{}} |
126 | -\newlabel{IntEq1}{{7.39}{98}{Modèle Proposé}{equation.7.4.39}{}} | |
127 | -\newlabel{IntEq2}{{7.40}{98}{Modèle Proposé}{equation.7.4.40}{}} | |
128 | -\newlabel{eqMixModels}{{7.41}{98}{Modèle Proposé}{equation.7.4.41}{}} | |
129 | -\@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Parameters (p), variables (v) and functions (f) of proposed algorithm and metrics\relax }}{99}{table.caption.66}\protected@file@percent } | |
130 | -\newlabel{tabvp}{{7.11}{99}{Parameters (p), variables (v) and functions (f) of proposed algorithm and metrics\relax }{table.caption.66}{}} | |
126 | +\@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Parameters (p), variables (v) and functions (f) of proposed algorithm and metrics\relax }}{98}{table.caption.66}\protected@file@percent } | |
127 | +\newlabel{tabvp}{{7.11}{98}{Parameters (p), variables (v) and functions (f) of proposed algorithm and metrics\relax }{table.caption.66}{}} | |
128 | +\citation{Kuzilek2017} | |
129 | +\newlabel{IntEq1}{{7.39}{99}{Modèle Proposé}{equation.7.4.39}{}} | |
130 | +\newlabel{IntEq2}{{7.40}{99}{Modèle Proposé}{equation.7.4.40}{}} | |
131 | +\newlabel{eqMixModels}{{7.41}{99}{Modèle Proposé}{equation.7.4.41}{}} | |
131 | 132 | \newlabel{hp1}{{7.42}{99}{Modèle Proposé}{equation.7.4.42}{}} |
132 | 133 | \newlabel{hp21}{{7.43}{99}{Modèle Proposé}{equation.7.4.43}{}} |
133 | 134 | \newlabel{hp22}{{7.44}{99}{Modèle Proposé}{equation.7.4.44}{}} |
134 | 135 | \newlabel{hp31}{{7.45}{99}{Modèle Proposé}{equation.7.4.45}{}} |
135 | 136 | \newlabel{hpfa}{{7.46}{99}{Modèle Proposé}{equation.7.4.46}{}} |
136 | -\citation{Kuzilek2017} | |
137 | -\newlabel{hpfb}{{7.47}{100}{Modèle Proposé}{equation.7.4.47}{}} | |
138 | -\newlabel{eqBetaH}{{7.48}{100}{Modèle Proposé}{equation.7.4.48}{}} | |
137 | +\newlabel{hpfb}{{7.47}{99}{Modèle Proposé}{equation.7.4.47}{}} | |
138 | +\newlabel{eqBetaH}{{7.48}{99}{Modèle Proposé}{equation.7.4.48}{}} | |
139 | 139 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{100}{subsection.7.4.2}\protected@file@percent } |
140 | 140 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{100}{subsubsection.7.4.2.1}\protected@file@percent } |
141 | 141 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{100}{subsubsection.7.4.2.2}\protected@file@percent } |
142 | 142 | \newlabel{metric1}{{7.49}{100}{Base de données simulée (ESCBR, TS avec Hawkes)}{equation.7.4.49}{}} |
143 | +\@writefile{lot}{\contentsline {table}{\numberline {7.12}{\ignorespaces Metric comparison ESCBR-TS and ESCBR-TS-Hawkes\relax }}{100}{table.caption.68}\protected@file@percent } | |
144 | +\newlabel{tab:my_label}{{7.12}{100}{Metric comparison ESCBR-TS and ESCBR-TS-Hawkes\relax }{table.caption.68}{}} | |
143 | 145 | \@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Number of recommendations by complexity level (left static learning process, right dynamic learning process with Hawkes process)\relax }}{101}{figure.caption.67}\protected@file@percent } |
144 | 146 | \newlabel{fig:stabilityBP}{{7.13}{101}{Number of recommendations by complexity level (left static learning process, right dynamic learning process with Hawkes process)\relax }{figure.caption.67}{}} |
145 | -\@writefile{lot}{\contentsline {table}{\numberline {7.12}{\ignorespaces Metric comparison ESCBR-TS and ESCBR-TS-Hawkes\relax }}{102}{table.caption.68}\protected@file@percent } | |
146 | -\newlabel{tab:my_label}{{7.12}{102}{Metric comparison ESCBR-TS and ESCBR-TS-Hawkes\relax }{table.caption.68}{}} | |
147 | 147 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{102}{subsection.7.4.3}\protected@file@percent } |
148 | 148 | \@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Variance evolution for Beta distribution of probability and all complexity levels (Top: static learning process. Bottom: dynamic learning process with Hawkes process)\relax }}{103}{figure.caption.69}\protected@file@percent } |
149 | 149 | \newlabel{fig:vars}{{7.14}{103}{Variance evolution for Beta distribution of probability and all complexity levels (Top: static learning process. Bottom: dynamic learning process with Hawkes process)\relax }{figure.caption.69}{}} |
chapters/TS.tex
View file @
3d2fc91
... | ... | @@ -2,13 +2,13 @@ |
2 | 2 | |
3 | 3 | \section{Introduction} |
4 | 4 | |
5 | -Ce chapitre est divisé en trois parties, la première partie explicite un algorithme de recommandation proposé fondé sur les résultats produits par l'apprenant en temps réel. La plupart du contenu est extrait et traduit de l'article Soto \textit{et al.} \cite{Soto2}. C'est un modèle d'adaptation automatique en temps réel d'une session prédéterminée à l'intérieur du système AI-VT. Dans cette adaptation le processus fait partie d'un modèle global de raisonnement à partir de cas. Le modèle proposé est stochastique et a été testé avec trois scénarios différents. Les résultats montrent l'adaptation dynamique du modèle proposé, les adaptations obtenues aidant le système à évoluer plus rapidement et identifier les faiblesses des apprenants dans les différents niveaux de complexité ainsi que la génération de recommandations pertinentes dans des cas spécifiques pour chaque capacité d'apprenant. | |
5 | +Ce chapitre est divisé en trois parties, la première partie explicite un algorithme de recommandation proposé fondé sur les résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans Soto \textit{et al.} \cite{Soto2}. C'est un modèle d'adaptation automatique en temps réel d'une séance prédéterminée à l'intérieur du système AI-VT. Dans cette adaptation le processus fait partie d'un modèle global de raisonnement à partir de cas. Le modèle proposé est stochastique et a été testé avec trois scénarios différents. Les résultats montrent l'adaptation dynamique du modèle proposé, les adaptations obtenues aidant le système à évoluer plus rapidement et identifier les faiblesses des apprenants dans les différents niveaux de complexité ainsi que la génération de recommandations pertinentes dans des cas spécifiques pour chaque capacité d'apprenant. | |
6 | 6 | |
7 | 7 | Le module mis en œuvre pour AI-VT est classé dans la catégorie des systèmes de recommandation. Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les talents, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise des concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types, l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et l'adaptation de la navigation qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}. |
8 | 8 | |
9 | 9 | Les techniques de recommandation sont utiles dans les EIAH car elles peuvent détecter les changements et évoluer vers un état optimal, comme l'algorithme d'échantillonnage de Thompson (TS), qui est un algorithme de type probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement, où l'algorithme choisit au temps $t$ une action $a$ à partir d'un ensemble $A$, obtient une récompense pour l'action $a$ et, en fonction de la valeur de la récompense, ajuste sa stratégie de décision pour choisir au temps $t + 1$ une autre action $a$, dans le but de maximiser la récompense. Il est fondé sur le principe Bayésien, où il y a une distribution de probabilité a priori et avec les données obtenues une distribution de probabilité a posteriori est générée qui vise à maximiser l'estimation de la valeur attendue. Pour la variante de Bernoulli, où la récompense n'a que deux valeurs possibles 0 et 1 ou succès et échec, la distribution de base utilisée est la distribution Beta qui est définie sur [0, 1] et paramétrée par deux valeurs $\alpha$ et $\beta$ \cite{9870279}. |
10 | 10 | |
11 | -La deuxième partie de ce chapitre présente l'intégration de tous les algorithmes développés et explicités dans les chapitres précédents. Le modèle intégré est appliqué au AI-VT système sur une base de données générée et une base de données réelle. Plusieurs types de test sont exécutés pour montrer que le modèle final permet en effet d'améliorer les capacités d'identification et adaptation. | |
11 | +La deuxième partie de ce chapitre présente l'intégration de tous les algorithmes développés et explicités dans les chapitres précédents. Le modèle intégré est appliqué au système AI-VT sur une base de données générée et une base de données réelle. Plusieurs types de test sont exécutés pour montrer que le modèle final permet en effet d'améliorer les capacités d'identification et adaptation. | |
12 | 12 | |
13 | 13 | Les contributions de la deuxième partie sont : |
14 | 14 | \begin{itemize} |
15 | 15 | |
... | ... | @@ -31,9 +31,9 @@ |
31 | 31 | |
32 | 32 | \subsection{Modèle Proposé} |
33 | 33 | |
34 | -Le modèle proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT, puis adapte les sessions pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. Le modèle est conçu comme une modification de l'algorithme d'échantillonnage de Thompson avec l'intégration de l'échantillonnage stratifié pour obtenir l'adaptation. | |
34 | +Le modèle proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT, puis adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. Le modèle est conçu comme une modification de l'algorithme d'échantillonnage de Thompson avec l'intégration de l'échantillonnage stratifié pour obtenir l'adaptation. | |
35 | 35 | |
36 | -On utilise la famille Beta de distributions de probabilité pour définir dynamiquement le nouveau niveau de complexité (équation \ref{eqBeta}) inspiré de l'algorithme d'échantillonnage de Thompson. Cette version du modèle permet de recommander des niveaux de complexité non contigus, mais la priorité est de recommander les niveaux dans lesquels des défauts ont été détectés. La paramétrisation initiale de toutes les distributions de probabilité peut forcer le modèle à recommander des niveaux de complexité contigus plus élémentaires. | |
36 | +La famille de distributions de probabilité Betq est utilisée pour définir dynamiquement le nouveau niveau de complexité (équation \ref{eqBeta}) inspiré de l'algorithme d'échantillonnage de Thompson. Cette version du modèle permet de recommander des niveaux de complexité non contigus, mais la priorité est de recommander les niveaux dans lesquels des défauts ont été détectés. La paramétrisation initiale de toutes les distributions de probabilité peut forcer le modèle à recommander des niveaux de complexité contigus plus élémentaires. | |
37 | 37 | |
38 | 38 | \begin{equation} |
39 | 39 | B(x, \alpha, \beta) = |
... | ... | @@ -68,7 +68,7 @@ |
68 | 68 | $\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\ |
69 | 69 | $G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\ |
70 | 70 | $x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\ |
71 | -$n_c$&Nombre total de questions dans une session&$\mathbb{N} \; | \; n_c>0$\ | |
71 | +$n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\ | |
72 | 72 | $ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\ |
73 | 73 | $y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\ |
74 | 74 | $r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\ |
... | ... | @@ -179,7 +179,7 @@ |
179 | 179 | \label{tabgm1} |
180 | 180 | \end{table} |
181 | 181 | |
182 | -Les résultats de la première comparaison sans données historiques (démarrage à froid) entre le modèle proposé, un système de recommandation déterministe et le système original (CBR) sont présentés dans la figure \ref{figCmp2}, où apparaissent différents nombres et échelles de transitions, le système original ne présente pas de transitions, tous les apprenants sont évalués au niveau de complexité 0, les notes obtenues pendant la session ne sont pas prises en compte. Le système avec des modèles de recommandation tente d'adapter le niveau de complexité en fonction des notes obtenues. Le modèle déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus, la tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. Le modèle proposé (stochastique), commence par proposer tous les niveaux de complexité possibles mais se concentre sur le niveau 0, les transitions sont constantes mais pour un petit nombre d'apprenants, la tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la hausse pour les niveaux 1, 2 et 3. | |
182 | +Les résultats de la première comparaison sans données historiques (démarrage à froid) entre le modèle proposé, un système de recommandation déterministe et le système original (RàPC) sont présentés dans la figure \ref{figCmp2}, où apparaissent différents nombres et échelles de transitions, le système original ne présente pas de transitions, tous les apprenants sont évalués au niveau de complexité 0, les notes obtenues pendant la séance ne sont pas prises en compte. Le système avec des modèles de recommandation tente d'adapter le niveau de complexité en fonction des notes obtenues. Le modèle déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus, la tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. Le modèle proposé (stochastique), commence par proposer tous les niveaux de complexité possibles mais se concentre sur le niveau 0, les transitions sont constantes mais pour un petit nombre d'apprenants, la tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la hausse pour les niveaux 1, 2 et 3. | |
183 | 183 | |
184 | 184 | \begin{figure} |
185 | 185 | \includegraphics[width=\textwidth]{./Figures/comp2.png} |
... | ... | @@ -187,7 +187,7 @@ |
187 | 187 | \label{figCmp2} |
188 | 188 | \end{figure} |
189 | 189 | |
190 | -Après la génération de la première session, le système peut continuer avec la liste suivante d'exercices, dans ce cas les trois modèles ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir la première transition du système original, cette transition montre que le système agit uniquement avec les notes obtenues dans le passé et les transitions sont très lentes, même si les notes sont différentes au cours de la session, tous les apprenants doivent suivre le même chemin. Cependant, les modèles de recommandation changent, le modèle déterministe présente trois transitions dans les questions 3, 5 et 12. Les tendances sont statiques pour le niveau 3, variables pour le niveau 2 et fortement descendantes pour le niveau 0. Le modèle stochastique continue avec des transitions douces mais essaie toujours de préférer le niveau le plus faible, dans ce cas le modèle a identifié le niveau de complexité 1. Ici, les niveaux 0 et 1 sont descendants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. | |
190 | +Après la génération de la première séance, le système peut continuer avec la liste suivante d'exercices, dans ce cas les trois modèles ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir la première transition du système original, cette transition montre que le système agit uniquement avec les notes obtenues dans le passé et les transitions sont très lentes, même si les notes sont différentes au cours de la séance, tous les apprenants doivent suivre le même chemin. Cependant, les modèles de recommandation changent, le modèle déterministe présente trois transitions dans les questions 3, 5 et 12. Les tendances sont statiques pour le niveau 3, variables pour le niveau 2 et fortement descendantes pour le niveau 0. Le modèle stochastique continue avec des transitions douces mais essaie toujours de préférer le niveau le plus faible, dans ce cas le modèle a identifié le niveau de complexité 1. Ici, les niveaux 0 et 1 sont descendants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. | |
191 | 191 | |
192 | 192 | \begin{figure} |
193 | 193 | \includegraphics[width=\textwidth]{./Figures/comp3.png} |
194 | 194 | |
195 | 195 | |
196 | 196 | |
... | ... | @@ -253,24 +253,24 @@ |
253 | 253 | \hline |
254 | 254 | Test 1\\ |
255 | 255 | \hline |
256 | -CBR&0.5388&-&-&-&-&0.5388&10.776\ | |
256 | +RàPC&0.5388&-&-&-&-&0.5388&10.776\ | |
257 | 257 | DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\ |
258 | 258 | SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\ |
259 | 259 | \hline |
260 | 260 | Test 2\\ |
261 | 261 | \hline |
262 | -CBR&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\ | |
262 | +RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\ | |
263 | 263 | DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\ |
264 | 264 | SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\ |
265 | 265 | \hline |
266 | 266 | Test3\\ |
267 | 267 | \hline |
268 | -CBR&-&0.8559&0.7377&-&-&1.5936&31.872 | |
268 | +RàPC&-&0.8559&0.7377&-&-&1.5936&31.872 | |
269 | 269 | \\ |
270 | 270 | DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\ |
271 | 271 | SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\ |
272 | 272 | \end{tabular} |
273 | -\caption{Résultats de la métrique $rp_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} | |
273 | +\caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} | |
274 | 274 | \label{tabRM} |
275 | 275 | \end{table} |
276 | 276 | |
277 | 277 | |
278 | 278 | |
279 | 279 | |
... | ... | @@ -310,24 +310,24 @@ |
310 | 310 | \hline |
311 | 311 | Test 1\\ |
312 | 312 | \hline |
313 | -CBR&\textbf{0.9979}&-&-&-&-&0.9979&19.96\ | |
313 | +RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\ | |
314 | 314 | DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\ |
315 | 315 | SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\ |
316 | 316 | \hline |
317 | 317 | Test 2\\ |
318 | 318 | \hline |
319 | -CBR&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\ | |
319 | +RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\ | |
320 | 320 | DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\ |
321 | 321 | SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\ |
322 | 322 | \hline |
323 | 323 | Test3\\ |
324 | 324 | \hline |
325 | -CBR&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74 | |
325 | +RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74 | |
326 | 326 | \\ |
327 | 327 | DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\ |
328 | 328 | SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\ |
329 | 329 | \end{tabular} |
330 | -\caption{Résultats de la métrique $rs_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} | |
330 | +\caption{Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} | |
331 | 331 | \label{tabRM2} |
332 | 332 | \end{table} |
333 | 333 | |
334 | 334 | |
335 | 335 | |
336 | 336 | |
337 | 337 | |
338 | 338 | |
339 | 339 | |
... | ... | @@ -343,32 +343,32 @@ |
343 | 343 | \begin{tabular}{cccc} |
344 | 344 | Model&Scenario 1&Scenario 2&Scenario 3\\ |
345 | 345 | \hline |
346 | -CBR&1&1&1\ | |
346 | +RàPC&1&1&1\ | |
347 | 347 | DM&0.9540&0.9887&0.9989\\ |
348 | 348 | SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\ |
349 | 349 | \end{tabular} |
350 | -\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} | |
350 | +\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} | |
351 | 351 | \label{tabCS} |
352 | 352 | \end{table} |
353 | 353 | |
354 | 354 | \subsection{Discussion et Conclusions} |
355 | -Avec la génération d'exercices CBR, le système propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, presque un changement toutes les 3 ou 4 sessions, ceci parce que le système ne prend pas en compte les notes obtenues pendant la session. Les systèmes de recommandation sont plus dynamiques et les évolutions sont plus rapides mais en considérant les notes des apprenants, le modèle déterministe suggère des changements de niveaux à un grand nombre d'apprenants soudainement parce qu'ils sont regroupés à l'intérieur d'un intervalle de taux de maîtrise, alors que le modèle stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modèles proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la session à leurs besoins particuliers. | |
355 | +Avec la génération d'exercices RàPC, le système propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, presque un changement toutes les 3 ou 4 séances, ceci parce que le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes de recommandation sont plus dynamiques et les évolutions sont plus rapides mais en considérant les notes des apprenants, le modèle déterministe suggère des changements de niveaux à un grand nombre d'apprenants soudainement parce qu'ils sont regroupés à l'intérieur d'un intervalle de taux de maîtrise, alors que le modèle stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modèles proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers. | |
356 | 356 | |
357 | 357 | La base de données générée a permis de simuler diverses situations avec les notes de 1000 apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations. |
358 | 358 | |
359 | -Les résultats numériques utilisant la métrique définie montrent que les distributions des questions dans une session par les deux versions du modèle de recommandation sont différentes mais avec une tendance générale similaire pour tous les apprenants. Le modèle proposé tente de répartir les questions dans tous les niveaux de complexité définis. Globalement, avec la métrique définie, le modèle stochastique a obtenu un meilleur score. Par rapport au système original, le modèle de recommandation (versions déterministe et stochastique) obtient une augmentation globale de l'adaptabilité comprise entre 15\% et 68\% pour tous les niveaux de complexité. | |
359 | +Les résultats numériques utilisant la métrique définie montrent que les distributions des questions dans une séance par les deux versions du modèle de recommandation sont différentes mais avec une tendance générale similaire pour tous les apprenants. Le modèle proposé tente de répartir les questions dans tous les niveaux de complexité définis. Globalement, avec la métrique définie, le modèle stochastique a obtenu un meilleur score. Par rapport au système original, le modèle de recommandation (versions déterministe et stochastique) obtient une augmentation globale de l'adaptabilité comprise entre 15\% et 68\% pour tous les niveaux de complexité. | |
360 | 360 | |
361 | 361 | Selon la métrique de la similarité cosinus, le modèle de recommandation proposé augmente la diversité des propositions par rapport au système original dans les trois scénarios évalués, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de faire progresser les apprenants entre les niveaux de complexité. La diversité des propositions est une caractéristique essentielle du modèle de recommandation dans ses deux versions. |
362 | 362 | |
363 | -Les modules de recommandation sont une pièce essentielle pour les systèmes ITS car ils aident à guider le processus d'apprentissage individuel, permettent d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les versions du modèle proposé peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la session vers le meilleur niveau de complexité possible afin d'aider l'apprenant à acquérir et à maîtriser les connaissances avant de passer aux niveaux de complexité supérieurs, car généralement les connaissances des niveaux de complexité inférieurs sont nécessaires pour compléter les niveaux supérieurs. Même si l'ensemble de données généré est une simulation des temps de réponse et des notes des apprenants, les tests qui l'utilisent permettent de voir la flexibilité et la robustesse du modèle de recommandation proposé, car les données relatives aux apprenants présentent une grande diversité et obligent le système à s'adapter à différents types de configurations. Par conséquent, il est possible de conclure que le modèle de recommandation proposé a la capacité de fonctionner dans différentes situations et dans chaque cas de proposer des chemins alternatifs pour améliorer le processus d'apprentissage global, même si l'objectif d'apprentissage est différent pour chaque apprenant, comme le démontrent les résultats obtenus dans l'évaluation des deux métriques proposées. Le modèle proposé permet également la diversité et la personnalisation du système, puisque selon les résultats de la comparaison avec la similarité cosinus entre toutes les recommandations générées pour chaque apprenant, il y a une augmentation par rapport au système original.\\ | |
363 | +Les modules de recommandation sont une pièce essentielle pour certaines EIAH car ils aident à guider le processus d'apprentissage individuel, permettent d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les versions du modèle proposé peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le meilleur niveau de complexité possible afin d'aider l'apprenant à acquérir et à maîtriser les connaissances avant de passer aux niveaux de complexité supérieurs, car généralement les connaissances des niveaux de complexité inférieurs sont nécessaires pour compléter les niveaux supérieurs. Même si l'ensemble de données généré est une simulation des temps de réponse et des notes des apprenants, les tests qui l'utilisent permettent de voir la flexibilité et la robustesse du modèle de recommandation proposé, car les données relatives aux apprenants présentent une grande diversité et obligent le système à s'adapter à différents types de configurations. Par conséquent, il est possible de conclure que le modèle de recommandation proposé a la capacité de fonctionner dans différentes situations et dans chaque cas de proposer des chemins alternatifs pour améliorer le processus d'apprentissage global, même si l'objectif d'apprentissage est différent pour chaque apprenant, comme le démontrent les résultats obtenus dans l'évaluation des deux métriques proposées. Le modèle proposé permet également la diversité et la personnalisation du système, puisque selon les résultats de la comparaison avec la similarité cosinus entre toutes les recommandations générées pour chaque apprenant, il y a une augmentation par rapport au système original.\\ | |
364 | 364 | |
365 | 365 | \section{DEUXIÈME PARTIE} |
366 | 366 | |
367 | 367 | \subsection{Concepts Associés} |
368 | 368 | |
369 | -Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du modèle proposé, ainsi que les modèles et les mesures fondamentaux. Le premier paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (CBR), qui permet d'exploiter les connaissances historiquement acquises et l'expérience accumulée en ce qui concerne un problème spécifique. Ce paradigme est utilisé pour générer des solutions émergentes pour un nouveau problème en utilisant une base de données de connaissances. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. La CBR est particulièrement utile lorsque les causes sous-jacentes d'un problème ne sont pas bien comprises. Le raisonnement à base de cas définit un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}. | |
369 | +Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du modèle proposé, ainsi que les modèles et les mesures fondamentaux. Le premier paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances historiquement acquises et l'expérience accumulée en ce qui concerne un problème spécifique. Ce paradigme est utilisé pour générer des solutions émergentes pour un nouveau problème en utilisant une base de données de connaissances. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC est particulièrement utile lorsque les causes sous-jacentes d'un problème ne sont pas bien comprises. Le raisonnement à base de cas définit un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}. | |
370 | 370 | |
371 | -Puisque l'objectif ici est d'adapter les exercices proposés par AI-VT, il est nécessaire de connaître le fonctionnement de l'un des algorithmes les plus utilisés pour effectuer l'adaptation du contenu et des exercices dans certains STI, afin de comparer les résultats avec l'algorithme proposé et de voir dans quelle mesure il permet d'obtenir une amélioration de l'adaptation et de la performance des apprenants. L'un des modèles les plus couramment utilisés dans les STI pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (Bayesian Knowledge Tracing) \cite{ZHANG2018189}. Ce modèle utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur.$P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour avec les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée. | |
371 | +Puisque l'objectif ici est d'adapter les exercices proposés par AI-VT, il est nécessaire de connaître le fonctionnement de l'un des algorithmes les plus utilisés pour effectuer l'adaptation du contenu et des exercices dans certains STI, afin de comparer les résultats avec l'algorithme proposé et de voir dans quelle mesure il permet d'obtenir une amélioration de l'adaptation et de la performance des apprenants. L'un des modèles les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (Bayesian Knowledge Tracing) \cite{ZHANG2018189}. Ce modèle utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur.$P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour avec les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée. | |
372 | 372 | |
373 | 373 | \begin{equation} |
374 | 374 | P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)} |
375 | 375 | |
376 | 376 | |
... | ... | @@ -487,13 +487,13 @@ |
487 | 487 | |
488 | 488 | Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine. |
489 | 489 | |
490 | -La prédiction utilisée dans le modèle proposé est fondée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement à partir de cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle fondé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet d'éviter le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation par raisonnement à partir de cas. | |
490 | +La prédiction utilisée dans le modèle proposé est fondée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement à partir de cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle fondé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet fondé sur le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation dans le raisonnement à partir de cas. | |
491 | 491 | |
492 | 492 | \subsection{Modèle Proposé} |
493 | 493 | |
494 | -Le modèle proposé est une intégration du modèle d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec le raisonnement à base de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée. | |
494 | +Le modèle proposé est une intégration du modèle d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec le raisonnement à partir de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée. | |
495 | 495 | |
496 | -L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en se basant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec CBR). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel}, où l'on peut voir que les deux modèles TS et CBR sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}. | |
496 | +L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en utilisant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec RàPC). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel}, où l'on peut voir que les deux modèles TS et RàPC sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}. | |
497 | 497 | |
498 | 498 | \begin{figure} |
499 | 499 | \centering |
500 | 500 | |
... | ... | @@ -548,13 +548,13 @@ |
548 | 548 | |
549 | 549 | \subsection{Résultats et Discussion} |
550 | 550 | |
551 | -Cette section présente la description de la base de données et les paramètres utilisés pour mesurer la précision, la performance et la progression des connaissances, les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'IA-VT. Cette section présente les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'IA-VT. | |
551 | +Cette section présente la description de la base de données et les paramètres utilisés pour mesurer la précision, la performance et la progression des connaissances, les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'AI-VT. Cette section présente les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'AI-VT. | |
552 | 552 | |
553 | 553 | La base de données a été générée avec la distribution logit-normale pour simuler les notes des apprenants, car il s'agit d'un bon modèle pour se rapprocher du monde réel. La base de données représente les notes et les temps de réponse d'un apprenant pour cinq questions à chaque niveau de complexité. |
554 | 554 | |
555 | 555 | Le principal inconvénient de ce système de validation « en situation réelle » est la difficulté de la collecte des données. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulé, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment et que les données peuvent être incomplètes \cite{badier:hal-04092828}. |
556 | 556 | |
557 | -Quatre tests différents ont été effectués pour démontrer les avantages de l'intégration de la TS et de la CBR dans les EIAH. Le premier est l'utilisation de CBR pour la régression avec une base de données d'apprenants afin de démontrer la capacité du modèle à prédire les notes à différents niveaux de complexité, le deuxième est l'évaluation de la progression des connaissances avec TS afin de déterminer l'efficacité du modèle dans la recommandation personnalisée pour chaque apprenant, La troisième est la comparaison entre les modèles de recommandation BKT et TS afin d'établir la performance du modèle TS en utilisant BKT comme modèle de base et enfin, la comparaison entre TS seul et TS avec ESCBR-SMA pour démontrer que l'intégration entre les deux modèles améliore l'ensemble du système de recommandation dans AI-VT. | |
557 | +Quatre tests différents ont été effectués pour démontrer les avantages de l'intégration de la TS et de la RàPC dans les EIAH. Le premier est l'utilisation du RàPC pour la régression avec une base de données d'apprenants afin de démontrer la capacité du modèle à prédire les notes à différents niveaux de complexité, le deuxième est l'évaluation de la progression des connaissances avec TS afin de déterminer l'efficacité du modèle dans la recommandation personnalisée pour chaque apprenant, La troisième est la comparaison entre les modèles de recommandation BKT et TS afin d'établir la performance du modèle TS en utilisant BKT comme modèle de base et enfin, la comparaison entre TS seul et TS avec ESCBR-SMA pour démontrer que l'intégration entre les deux modèles améliore l'ensemble du système de recommandation dans AI-VT. | |
558 | 558 | |
559 | 559 | \subsubsection{Régression dans la base de données des apprenants avec ESCBR-SMA} |
560 | 560 | |
561 | 561 | |
... | ... | @@ -590,13 +590,13 @@ |
590 | 590 | A2&K-Nearest Neighbor&A7&Ridge Regression\\ |
591 | 591 | A3&Decision Tree&A8&Lasso Regression\\ |
592 | 592 | A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ |
593 | -A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking CBR\ | |
593 | +A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\ | |
594 | 594 | \end{tabular} |
595 | 595 | \caption{Liste des algorithmes évalués } |
596 | 596 | \label{tabAlgs} |
597 | 597 | \end{table} |
598 | 598 | |
599 | -Les algorithmes ont été évalués à l'aide de trois mesures (Root Mean Squared Error - RMSE, Median Absolute Error - MedAE, Mean Absolute Error - MAE), dont les résultats figurent dans le tableau \ref{tab:results}, où l'on constate que l'algorithme proposé obtient de meilleurs résultats que les autres algorithmes avec lesquels il a été comparé, sauf dans les cas E1(MedAE), E1(MAE), E2(MedAE), E2(MAE), E3 et E4(MedAE) où les meilleurs résultats sont obtenus par l'algorithme A9, mais l'algorithme proposé occupe la deuxième place dans ces cas avec des résultats très proches. Il est possible de conclure que l'intégration de plusieurs algorithmes de recherche et de génération de solutions dans le cadre des paradigmes CBR et Stacking est efficace dans le cas de l'application à la prédiction des notes des apprenants. | |
599 | +Les algorithmes ont été évalués à l'aide de trois mesures (Root Mean Squared Error - RMSE, Median Absolute Error - MedAE, Mean Absolute Error - MAE), dont les résultats figurent dans le tableau \ref{tab:results}, où l'on constate que l'algorithme proposé obtient de meilleurs résultats que les autres algorithmes avec lesquels il a été comparé, sauf dans les cas E1(MedAE), E1(MAE), E2(MedAE), E2(MAE), E3 et E4(MedAE) où les meilleurs résultats sont obtenus par l'algorithme A9, mais l'algorithme proposé occupe la deuxième place dans ces cas avec des résultats très proches. Il est possible de conclure que l'intégration de plusieurs algorithmes de recherche et de génération de solutions dans le cadre des paradigmes RàPC et Stacking est efficace dans le cas de l'application à la prédiction des notes des apprenants. | |
600 | 600 | |
601 | 601 | \begin{table}[!ht] |
602 | 602 | \centering |
603 | 603 | |
... | ... | @@ -675,11 +675,11 @@ |
675 | 675 | \label{fig:evolution} |
676 | 676 | \end{figure} |
677 | 677 | |
678 | -La figure \ref{fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une seule session de formation. Entre la première et la dernière question de la même session, tous les apprenants ont statistiquement augmenté leur niveau de connaissance puisque la moyenne a augmenté, la variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants, à partir de là la variabilité diminue et la moyenne augmente. La figure {fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une même session de formation. | |
678 | +La figure \ref{fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une seule séance de formation. Entre la première et la dernière question de la même séance, tous les apprenants ont statistiquement augmenté leur niveau de connaissance puisque la moyenne a augmenté, la variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants, à partir de là la variabilité diminue et la moyenne augmente. La figure {fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une même séance de formation. | |
679 | 679 | |
680 | 680 | \subsubsection{Comparaison entre TS et BKT} |
681 | 681 | |
682 | -L'évolution du système de recommandation TS est testée en comparaison avec BKT, la figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même session. Dans ce cas, le modèle TS génère moins de variabilité que BKT, mais si est faite la comparaison des moyennes générées par chaque question, l'évolution est très similaire. La figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent au cours de la même session. | |
682 | +L'évolution du système de recommandation TS est testée en comparaison avec BKT, la figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le modèle TS génère moins de variabilité que BKT, mais si est faite la comparaison des moyennes générées par chaque question, l'évolution est très similaire. La figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent au cours de la même séance. | |
683 | 683 | |
684 | 684 | \begin{figure}[!ht] |
685 | 685 | \centering |
686 | 686 | |
... | ... | @@ -699,13 +699,13 @@ |
699 | 699 | |
700 | 700 | \subsubsection{Système de recommandation avec ESCBR-SMA} |
701 | 701 | |
702 | -Le troisième test est l'intégration entre deux modèles. Cette combinaison est faite pour éviter le paradoxe de Stein, en essayant de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (Thomson sampling recommender) et le filtre collaboratif (Case-base reasoning prediction) pour améliorer la personnalisation. Le test est une comparaison entre le système de recommandation TS et le système de recommandation TS avec la prédiction ESCBR-SMA afin de déterminer si l'intégration des deux modèles permet d'améliorer l'évolution du processus d'apprentissage proposé par le système AI-VT. | |
702 | +Le troisième test est l'intégration entre deux modèles. Cette combinaison est faite fondée sur le paradoxe de Stein, en essayant de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (Thomson sampling recommender) et le filtre collaboratif (Case-base reasoning prediction) pour améliorer la personnalisation. Le test est une comparaison entre le système de recommandation TS et le système de recommandation TS avec la prédiction ESCBR-SMA afin de déterminer si l'intégration des deux modèles permet d'améliorer l'évolution du processus d'apprentissage proposé par le système AI-VT. | |
703 | 703 | |
704 | 704 | La comparaison est effectuée après la question 6 pour tous les apprenants, car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité pour la question suivante. |
705 | 705 | |
706 | 706 | \subsubsection{Progression des connaissances TS vs TS et ESCBR-SMA} |
707 | 707 | |
708 | -Pour établir la différence entre le modèle de recommandation TS et le même modèle associé à la prédiction fondée sur le raisonnement à partir de cas ESCBR-SMA, le quatrième test est défini en utilisant la métrique de Jensen-Shannon, mais dans ce cas la comparaison est faite entre les différents modèles (TS, TS-ESCBR) sur le même niveau de complexité dans le même temps $t$. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}. | |
708 | +Pour établir la différence entre le modèle de recommandation TS et le même modèle associé à la prédiction fondée sur le raisonnement à partir de cas ESCBR-SMA, le quatrième test est défini en utilisant la métrique de Jensen-Shannon, mais dans ce cas la comparaison est faite entre les différents modèles (TS, TS-ESCBR) sur le même niveau de complexité dans le même temps $t$. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}. | |
709 | 709 | |
710 | 710 | \begin{multline} |
711 | 711 | k_{t,c}=\frac{1}{2} |
... | ... | @@ -725,7 +725,7 @@ |
725 | 725 | %\end{equation} |
726 | 726 | \end{multline} |
727 | 727 | |
728 | -La comparaison entre l'évolution des connaissances présente une bifurcation après la septième question, et l'intégration de l'échantillonnage de Thompson et du raisonnement à partir de cas permet d'améliorer l'évolution des connaissances par rapport au seul modèle d'échantillonnage de Thompson (Figure \ref{fig_cmp2}). Pour toutes les questions de la même session, en moyenne, la progression est supérieure par rapport à l'utilisation du seul modèle d'échantillonnage de Thompson comme modèle de recommandation. | |
728 | +La comparaison entre l'évolution des connaissances présente une bifurcation après la septième question, et l'intégration de l'échantillonnage de Thompson et du raisonnement à partir de cas permet d'améliorer l'évolution des connaissances par rapport au seul modèle d'échantillonnage de Thompson (Figure \ref{fig_cmp2}). Pour toutes les questions de la même séance, en moyenne, la progression est supérieure par rapport à l'utilisation du seul modèle d'échantillonnage de Thompson comme modèle de recommandation. | |
729 | 729 | |
730 | 730 | \begin{figure}[!h] |
731 | 731 | \centering |
732 | 732 | |
733 | 733 | |
... | ... | @@ -736,17 +736,17 @@ |
736 | 736 | |
737 | 737 | \subsection{Conclusion} |
738 | 738 | |
739 | -Ce chapitre présente un modèle intégré entre deux modèles développés précédemment, un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson et un modèle de régression d'ensemble fondé sur le raisonnement par cas. Le modèle intégré est appliqué à un ITS appelé AI-VT, les résultats montrent en effet que l'intégration permet d'améliorer la performance des deux modèles utilisés séparément, en outre il montre de meilleurs résultats dans la révision/adaptation des étapes de solutions pour chaque apprenant, en fonction des métriques utilisées et des tests définis, donnant une meilleure personnalisation du système et facilitant l'acquisition de connaissances. | |
739 | +Cette partie a présenté un modèle intégré entre deux modèles développés précédemment, un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson et un modèle de régression d'ensemble fondé sur le raisonnement par cas. Le modèle intégré est appliqué au système AI-VT, les résultats montrent en effet que l'intégration permet d'améliorer la performance des deux modèles utilisés séparément, en outre il montre de meilleurs résultats dans la révision/adaptation des étapes de solutions pour chaque apprenant, en fonction des métriques utilisées et des tests définis, donnant une meilleure personnalisation du système et facilitant l'acquisition de connaissances. | |
740 | 740 | %Le modèle intégré est appliqué à un ITS appelé AI-VT.\\ |
741 | 741 | |
742 | -Les avantages du modèle proposé sont les suivants : i) il permet de générer des recommandations personnalisées pour chaque apprenant avec relativement peu de données historiques, ii) étant donné que de multiples points de vue (différents algorithmes) sur le même problème et avec la même base de données sont intégrés, le risque de tomber dans des paradoxes statistiques (Stein, Simpson) est réduit, iii) les deux modèles se complètent mutuellement en améliorant les résultats finaux d'une manière généralisée. Le modèle proposé a été conçu pour être utilisé dans le cadre d'un projet de recherche et de développement en cours.\\ | |
742 | +Les avantages du modèle proposé sont les suivants : i) il permet de générer des recommandations personnalisées pour chaque apprenant avec relativement peu de données historiques, ii) l'intégration de plusieurs perspectives de solution sur une même problématique, selon le principe du paradoxe de Stein, permet de limiter le risque d'être confronté au paradoxe de Simpson, iii) les deux modèles se complètent mutuellement en améliorant les résultats finaux d'une manière généralisée. Le modèle proposé a été conçu pour être utilisé dans le cadre d'un projet de recherche et de développement en cours.\\ | |
743 | 743 | |
744 | 744 | \section{TROISIÈME PARTIE} |
745 | 745 | |
746 | 746 | \subsection{Modèle Proposé} |
747 | 747 | L'algorithme proposé est une intégration de la recommandation stochastique (fondée sur l'échantillonnage de Thompson), du raisonnement à partir de cas (ESCBR-SMA) et du processus de Hawkes. Dans ce cas, l'algorithme de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée, le processus de Hawkes simule la courbe d'oubli dans le processus d'apprentissage. |
748 | 748 | |
749 | -L'idée de l'unification est d'obtenir des informations d'un point de vue local où une recommandation est obtenue en se basant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson), la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec CBR) et le processus d'apprentissage dynamique avec le processus de Hawkes. L'architecture de l'algorithme est présentée dans la figure \ref{fig:Amodel}, où TS et CBR sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque algorithme sont obtenus, les résultats sont unifiés par une fonction de pondération et une distribution de probabilité mises à jour dynamiquement en fonction des événements passés et du niveau de complexité sélectionné, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des deux résultats globaux permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. | |
749 | +L'idée de l'unification est d'obtenir des informations d'un point de vue local où une recommandation est obtenue en se basant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson), la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec RàPC) et le processus d'apprentissage dynamique avec le processus de Hawkes. L'architecture de l'algorithme est présentée dans la figure \ref{fig:Amodel}, où TS et RàPC sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque algorithme sont obtenus, les résultats sont unifiés par une fonction de pondération et une distribution de probabilité mises à jour dynamiquement en fonction des événements passés et du niveau de complexité sélectionné, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des deux résultats globaux permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. | |
750 | 750 | |
751 | 751 | \begin{figure}[!ht] |
752 | 752 | \centering |
... | ... | @@ -908,7 +908,5 @@ |
908 | 908 | |
909 | 909 | \subsection{Conclusion} |
910 | 910 | |
911 | -Ce chapitre a présenté un algorithme intégré entre deux modèles développés précédemment, un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson, un modèle de régression d'ensemble fondé sur le raisonnement par cas et une simulation de courbe d'oubli en utilisant le processus de Hawkes. L'algorithme intégré est appliqué à un EIAH appelé AI-VT. Les résultats montrent en effet que l'intégration permet d'obtenir des résultats similaires, mais avec un processus plus réaliste, ce qui permet de mieux personnaliser le système et de faciliter l'acquisition de connaissances. | |
912 | - | |
913 | -Les avantages du modèle proposé sont les suivants : i) il permet de générer des recommandations personnalisées pour chaque apprenant avec relativement peu de données historiques, ii) étant donné que plusieurs points de vue (différents algorithmes) sur le même problème et avec la même base de données sont intégrés sur la base du paradoxe de Stein, le risque de tomber dans les paradoxes de Simpson est réduit, iii) les deux modèles avec le processus de Hawkes sont plus réalistes et dynamiques dans le processus d'apprentissage global. | |
911 | +Cette partie a présenté un algorithme intégré entre deux modèles développés précédemment, un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson, un modèle de régression d'ensemble fondé sur le raisonnement par cas et une simulation de courbe d'oubli en utilisant le processus de Hawkes. L'algorithme intégré est appliqué à un EIAH appelé AI-VT. Les résultats montrent en effet que l'intégration permet d'obtenir des résultats similaires, mais avec un processus plus réaliste, ce qui permet de mieux personnaliser le système et de faciliter l'acquisition de connaissances. Les deux modèles avec le processus de Hawkes sont plus réalistes et dynamiques dans le processus d'apprentissage global. |
main.log
View file @
3d2fc91
1 | -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 14 JUN 2025 20:48 | |
1 | +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 15 JUN 2025 00:15 | |
2 | 2 | entering extended mode |
3 | 3 | restricted \write18 enabled. |
4 | 4 | %&-line parsing enabled. |
... | ... | @@ -1012,6 +1012,9 @@ |
1012 | 1012 | LaTeX Warning: Label `fig:Amodel' multiply defined. |
1013 | 1013 | |
1014 | 1014 | |
1015 | +LaTeX Warning: Label `tabvp' multiply defined. | |
1016 | + | |
1017 | + | |
1015 | 1018 | LaTeX Warning: Label `IntEq1' multiply defined. |
1016 | 1019 | |
1017 | 1020 | |
... | ... | @@ -1020,9 +1023,6 @@ |
1020 | 1023 | |
1021 | 1024 | LaTeX Warning: Label `eqMixModels' multiply defined. |
1022 | 1025 | |
1023 | - | |
1024 | -LaTeX Warning: Label `tabvp' multiply defined. | |
1025 | - | |
1026 | 1026 | ) (./chapters/Conclusions.aux) (./chapters/Publications.aux)) |
1027 | 1027 | \openout1 = `main.aux'. |
1028 | 1028 | |
... | ... | @@ -1983,11 +1983,8 @@ |
1983 | 1983 | <use Figures/LevelsEv.jpg> |
1984 | 1984 | Package pdftex.def Info: Figures/LevelsEv.jpg used on input line 695. |
1985 | 1985 | (pdftex.def) Requested size: 427.43153pt x 320.58275pt. |
1986 | - [94 <./Figures/kEvol_TS.jpg>] | |
1987 | -Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1988 | - | |
1989 | - [95 <./Figures/GradesEv.jpg>] | |
1990 | -<Figures/TS-ESCBR.png, id=1528, 1697.34125pt x 819.06pt> | |
1986 | + [94 <./Figures/kEvol_TS.jpg>] [95 <./Figures/GradesEv.jpg>] | |
1987 | +<Figures/TS-ESCBR.png, id=1526, 1697.34125pt x 819.06pt> | |
1991 | 1988 | File: Figures/TS-ESCBR.png Graphic file (type png) |
1992 | 1989 | <use Figures/TS-ESCBR.png> |
1993 | 1990 | Package pdftex.def Info: Figures/TS-ESCBR.png used on input line 732. |
... | ... | @@ -1996,7 +1993,7 @@ |
1996 | 1993 | |
1997 | 1994 | LaTeX Warning: `!h' float specifier changed to `!ht'. |
1998 | 1995 | |
1999 | -[96 <./Figures/LevelsEv.jpg>] | |
1996 | + | |
2000 | 1997 | Underfull \hbox (badness 10000) in paragraph at lines 742--743 |
2001 | 1998 | |
2002 | 1999 | [] |
2003 | 2000 | |
2004 | 2001 | |
... | ... | @@ -2006,19 +2003,20 @@ |
2006 | 2003 | |
2007 | 2004 | [] |
2008 | 2005 | |
2009 | -[97 <./Figures/TS-ESCBR.png (PNG copy)>] | |
2006 | +[96 <./Figures/LevelsEv.jpg>] [97 <./Figures/TS-ESCBR.png (PNG copy)>] | |
2010 | 2007 | File: Figures/Model.png Graphic file (type png) |
2011 | 2008 | <use Figures/Model.png> |
2012 | 2009 | Package pdftex.def Info: Figures/Model.png used on input line 753. |
2013 | 2010 | (pdftex.def) Requested size: 213.71576pt x 175.76495pt. |
2014 | - [98] [99] | |
2015 | -<./Figures/stabilityBoxplot1.png, id=1569, 742.775pt x 520.94624pt> | |
2011 | + [98] | |
2012 | +[99] | |
2013 | +<./Figures/stabilityBoxplot1.png, id=1568, 742.775pt x 520.94624pt> | |
2016 | 2014 | File: ./Figures/stabilityBoxplot1.png Graphic file (type png) |
2017 | 2015 | <use ./Figures/stabilityBoxplot1.png> |
2018 | 2016 | Package pdftex.def Info: ./Figures/stabilityBoxplot1.png used on input line 86 |
2019 | 2017 | 1. |
2020 | 2018 | (pdftex.def) Requested size: 427.43153pt x 299.78818pt. |
2021 | -<./Figures/stabilityBoxplot2.png, id=1570, 742.775pt x 520.94624pt> | |
2019 | +<./Figures/stabilityBoxplot2.png, id=1569, 742.775pt x 520.94624pt> | |
2022 | 2020 | File: ./Figures/stabilityBoxplot2.png Graphic file (type png) |
2023 | 2021 | <use ./Figures/stabilityBoxplot2.png> |
2024 | 2022 | Package pdftex.def Info: ./Figures/stabilityBoxplot2.png used on input line 86 |
2025 | 2023 | |
... | ... | @@ -2030,12 +2028,12 @@ |
2030 | 2028 | |
2031 | 2029 | [101 <./Figures/stabilityBoxplot1.png (PNG copy)> <./Figures/stabilityBoxplot2. |
2032 | 2030 | png (PNG copy)>] |
2033 | -<Figures/Var.png, id=1588, 1408.26125pt x 749.80125pt> | |
2031 | +<Figures/Var.png, id=1587, 1408.26125pt x 749.80125pt> | |
2034 | 2032 | File: Figures/Var.png Graphic file (type png) |
2035 | 2033 | <use Figures/Var.png> |
2036 | 2034 | Package pdftex.def Info: Figures/Var.png used on input line 898. |
2037 | 2035 | (pdftex.def) Requested size: 427.43153pt x 227.57355pt. |
2038 | -<Figures/VarH.png, id=1589, 1408.26125pt x 749.80125pt> | |
2036 | +<Figures/VarH.png, id=1588, 1408.26125pt x 749.80125pt> | |
2039 | 2037 | File: Figures/VarH.png Graphic file (type png) |
2040 | 2038 | <use Figures/VarH.png> |
2041 | 2039 | Package pdftex.def Info: Figures/VarH.png used on input line 904. |
... | ... | @@ -2146,7 +2144,7 @@ |
2146 | 2144 | ) [115 |
2147 | 2145 | |
2148 | 2146 | ] |
2149 | -<spimufcphdthesis-backpage.pdf, id=1659, 597.432pt x 844.83629pt> | |
2147 | +<spimufcphdthesis-backpage.pdf, id=1657, 597.432pt x 844.83629pt> | |
2150 | 2148 | File: spimufcphdthesis-backpage.pdf Graphic file (type pdf) |
2151 | 2149 | <use spimufcphdthesis-backpage.pdf> |
2152 | 2150 | Package pdftex.def Info: spimufcphdthesis-backpage.pdf used on input line 392. |
2153 | 2151 | |
... | ... | @@ -2202,10 +2200,10 @@ |
2202 | 2200 | lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/ |
2203 | 2201 | uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf |
2204 | 2202 | b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb> |
2205 | -Output written on main.pdf (124 pages, 7703732 bytes). | |
2203 | +Output written on main.pdf (124 pages, 7702772 bytes). | |
2206 | 2204 | PDF statistics: |
2207 | - 1831 PDF objects out of 2073 (max. 8388607) | |
2208 | - 1576 compressed objects within 16 object streams | |
2205 | + 1829 PDF objects out of 2073 (max. 8388607) | |
2206 | + 1574 compressed objects within 16 object streams | |
2209 | 2207 | 469 named destinations out of 1000 (max. 500000) |
2210 | 2208 | 978 words of extra memory for PDF output out of 10000 (max. 10000000) |
main.pdf
View file @
3d2fc91
main.synctex.gz
View file @
3d2fc91