TS_ESCBR-SMA.tex
32 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
\chapter{Application du Raisonnement à partir de cas (RàPC) et des Systèmes Multi-Agent (SMA) au système AI-VT}
\section{Introduction}
Ce chapitre présente l'intégration de tous les algorithmes développés et explicités dans les chapitres précedents. Le modèle integré est appliqué au AI-VT système sur une base de données générée et une base de données réelle. Plusieurs types de test sont executés pour montrer que le modèle final permet en effet d'amméliorer les capacités d'identification et adaptation.
Les contributions de ce chapitre sont les suivantes :
\begin{itemize}
\item Vérification de l'efficacité du modèle de raisonnement basé sur les cas pour la prédiction avec une base de données de notes d'apprenants par rapport à d'autres algorithmes.
\item Calcul explicite de l'évolution de l'acquisition des connaissances en analysant le changement des distributions de probabilité générées par le modèle de recommandation stochastique.
\item Intégration du modèle de recommandation stochastique à la prédiction par raisonnement basé sur les cas pour améliorer la personnalisation de l'ITS.
\end{itemize}
\section{Concepts Associés}
Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du modèle proposé, ainsi que les modèles et les mesures fondamentaux. Le premier paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (CBR), qui permet d'exploiter les connaissances historiquement acquises et l'expérience accumulée en ce qui concerne un problème spécifique. Ce paradigme est utilisé pour générer des solutions émergentes pour un nouveau problème en utilisant une base de données de connaissances. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. La CBR est particulièrement utile lorsque les causes sous-jacentes d'un problème ne sont pas bien comprises. Le raisonnement à base de cas définit un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}.
Puisque l'objectif ici est d'adapter les exercices proposés par AI-VT, il est nécessaire de connaître le fonctionnement de l'un des algorithmes les plus utilisés pour effectuer l'adaptation du contenu et des exercices dans certains STI, afin de comparer les résultats avec l'algorithme proposé et de voir dans quelle mesure il permet d'obtenir une amélioration de l'adaptation et de la performance des apprenants. L'un des modèles les plus couramment utilisés dans les STI pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (Bayesian Knowledge Tracing) \cite{ZHANG2018189}. Ce modèle utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur.$P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour avec les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée.
\begin{equation}
P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)}
\label{eqbkt1}
\end{equation}
\begin{equation}
P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))}
\label{eqbkt2}
\end{equation}
\begin{equation}
P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w)
\label{eqbkt3}
\end{equation}
Le modèle de recommandation proposé, associé à AI-VT, est basé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. L'algorithme utilisé pour l'adaptation est un algorithme d'apprentissage par renforcement appelé échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus analysé spécifique \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Bêta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}.
%\begin{equation}
% Beta(x,\alpha,\beta)=\begin{cases}
% \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\
% 0&otherwise
% \end{cases}
%\end{equation}
\begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{fbeta}
\end{equation}
En utilisant la definition formelle de la fonction Gamma $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant des variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}).
\begin{equation}
\Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx
\label{eqGamma1}
\end{equation}
\begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{f2beta}
\end{equation}
En exprimant les deux intégrales du denominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue.
\begin{equation}
\int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv
\label{f3Beta}
\end{equation}
Après, sont remplacées $u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$, avec le résultat du Jacobien \ref{eqJac}, alors l'expression finale est comme montre l'équation \ref{f4Beta}.
\begin{equation}
\left (
\begin{matrix}
\frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\
\frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\
\end{matrix}
\right ) =
\left (
\begin{matrix}
sdt & tds \\
-sdt & (1-t)ds\\
\end{matrix}
\right ) = s \; dtds
\label{eqJac}
\end{equation}
\begin{equation}
\int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt
\label{f4Beta}
\end{equation}
Si les intégrales sont exprimées en fonction des variables indépendantes $s$ et $t$ l'équation \ref{f5Beta} est générée.
\begin{equation}
\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
\label{f5Beta}
\end{equation}
En plaçant les termes dans l'équation le résultat est l'équation \ref{f6Beta}.
\begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{f6Beta}
\end{equation}
Finalement, la famille de fonctions de distribution Beta peut être exprimée comme l'équation \ref{f7Beta}. Les métriques utilisées dans ce chapitre s'expriment en fonction de cette définition.
\begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
}
\label{f7Beta}
\end{equation}
L'évolution de l'algorithme de recommandation TS est établie par le changement des distributions de probabilité, mais au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude, sous la forme d'une métrique qui détermine numériquement les différences entre elles. L'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est basée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'information nécessaire pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. La divergence de Kullback-Liebler (équation \ref{dkl}) est largement utilisée, mais elle présente l'inconvénient de ne pas pouvoir être utilisée comme métrique dans certains cas, car il ne s'agit pas d'une mesure symétrique, $D_{KL}(p,q) \neq D_{KL}(q,p)$, elle ne satisfait pas à l'inégalité triangulaire et elle n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon.
\begin{equation}
D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx
\label{dkl}
\end{equation}
La divergence de Jenser-Shannon est basée sur la divergence de Kullback-Liebler, à la différence qu'une distribution de probabilité auxiliaire $m$ est créée dont la définition est basée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités basée sur $p(x)$ et $q(x)$, l'équation \ref{djs2} montre comment elle est calculée. La divergence de Jensen-Shannon est un mélange de distributions de probabilités basé sur $p(x)$ et $q(x)$.
%Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\
\begin{equation}
D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x))
\label{djs}
\end{equation}
\begin{equation}
m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x)
\label{djs2}
\end{equation}
Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine.
La prédiction utilisée dans le modèle proposé est basée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement basé sur les cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle basé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet d'éviter le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation par raisonnement basé sur les cas.
\section{Modèle Proposé}
Le modèle proposé est une intégration du modèle d'adaptation stochastique (basé sur l'échantillonnage de Thompson) avec le raisonnement à base de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée.
L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en se basant uniquement sur les informations des apprenants individuels (modèle basé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec CBR). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel}, où l'on peut voir que les deux modèles TS et CBR sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}.
\begin{figure}
\centering
\includegraphics[width=0.5\linewidth]{Figures/Model.png}
\caption{Schéma de l'architecture du modèle proposé}
\label{fig:Amodel}
\end{figure}
La première étape est l'adaptation avec l'échantillonnage de Thompson, puis la prédiction ECBR-SMA et enfin la prise de décision à envoyer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité de l'apprenant et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées.
\begin{table}[!ht]
\centering
\footnotesize
\begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c}
ID&Type&Description&Domain\\
\hline
$\alpha$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\
$\beta$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\
$t$&p&Temps défini comme itérations&$\mathbb{N}$\\
$c$&p&Niveau de complexité&$\mathbb{N}$\\
$k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\
$vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\
$TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\
$TSN_c$&v&Normalization de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\
$ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\
$p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\
$D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\
\end{tabular}
\caption{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées}
\label{tabvp}
\end{table}
L'intégration se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le modèle TS (équation \ref{IntEq1}), une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée comme indiqué dans l'équation \ref{IntEq2}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par le modèle ESCBR-SMA, comme le montre l'équation \ref{eqMixModels}.
\begin{equation}
TS_c=rand(Beta(\alpha_c, \beta_c))
\label{IntEq1}
\end{equation}
\begin{equation}
TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i}
\label{IntEq2}
\end{equation}
\begin{equation}
n_c=argmax_c(TSN_c*ESCBR_c)
\label{eqMixModels}
\end{equation}
Avec les valeurs finales calculées pour chaque niveau de complexité, le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels}). Le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels}).
\section{Résultats et Discussion}
Cette section présente la description de la base de données et les paramètres utilisés pour mesurer la précision, la performance et la progression des connaissances, les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'IA-VT. Cette section présente les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'IA-VT.
La base de données a été générée avec la distribution logit-normale pour simuler les notes des apprenants, car il s'agit d'un bon modèle pour se rapprocher du monde réel. La base de données représente les notes et les temps de réponse d'un apprenant pour cinq questions à chaque niveau de complexité.
Le principal inconvénient de ce système de validation « en situation réelle » est la difficulté de la collecte des données. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulé, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment et que les données peuvent être incomplètes \cite{badier:hal-04092828}.
Quatre tests différents ont été effectués pour démontrer les avantages de l'intégration de la TS et de la CBR dans les EIAH. Le premier est l'utilisation de CBR pour la régression avec une base de données d'apprenants afin de démontrer la capacité du modèle à prédire les notes à différents niveaux de complexité, le deuxième est l'évaluation de la progression des connaissances avec TS afin de déterminer l'efficacité du modèle dans la recommandation personnalisée pour chaque apprenant, La troisième est la comparaison entre les modèles de recommandation BKT et TS afin d'établir la performance du modèle TS en utilisant BKT comme modèle de base et enfin, la comparaison entre TS seul et TS avec ESCBR-SMA pour démontrer que l'intégration entre les deux modèles améliore l'ensemble du système de recommandation dans AI-VT.
\subsection{Régression dans la base de données des apprenants avec ESCBR-SMA}
Le SMA utilise le raisonnement bayésien, ce qui permet aux agents d'apprendre des données et des interactions au cours de l'exécution et de l'exploration.
L'algorithme utilise une fonction noyau pour obtenir la meilleure approximation de la solution du nouveau problème, le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions. Le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions \cite{doi:10.1137/23M1592420}.
La première série de tests est définie sous la forme de différents scénarios, comme le montre le tableau \ref{tab:scenarios}. Dans le scénario 1 (E1), il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario 2 (E2) contient les notes de 8 questions et l'objectif est de prédire la note de 9 questions dans le même niveau de complexité. Le scénario 3 (E3) contient les données permettant de prédire le passage à un niveau de complexité supérieur après 4 questions. Le scénario 4 (E4) contient 4 questions et la prédiction de 2 notes dans un niveau de complexité supérieur.
\begin{table}[!ht]
\centering
\begin{tabular}{ccc}
Scenario&Features&Output Dimension\\
\hline
E1 & 5 & 1\\
E2 & 15& 1\\
E3 & 9 & 1\\
E4 & 9 & 2\\
\end{tabular}
\caption{Description des scénarios}
\label{tab:scenarios}
\end{table}
Le modèle a été comparé à neuf algorithmes bien connus utilisés pour résoudre les problèmes de régression. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}.
\begin{table}[!ht]
\footnotesize
\begin{tabular}{ll|ll}
ID&Algorithm&ID&Algorithm\\
\hline
A1&Linear Regression&A6&Polinomial Regression\\
A2&K-Nearest Neighbor&A7&Ridge Regression\\
A3&Decision Tree&A8&Lasso Regression\\
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\
A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking CBR\\
\end{tabular}
\caption{Liste des algorithmes évalués }
\label{tabAlgs}
\end{table}
Les algorithmes ont été évalués à l'aide de trois mesures (Root Mean Squared Error - RMSE, Median Absolute Error - MedAE, Mean Absolute Error - MAE), dont les résultats figurent dans le tableau \ref{tab:results}, où l'on constate que l'algorithme proposé obtient de meilleurs résultats que les autres algorithmes avec lesquels il a été comparé, sauf dans les cas E1(MedAE), E1(MAE), E2(MedAE), E2(MAE), E3 et E4(MedAE) où les meilleurs résultats sont obtenus par l'algorithme A9, mais l'algorithme proposé occupe la deuxième place dans ces cas avec des résultats très proches. Il est possible de conclure que l'intégration de plusieurs algorithmes de recherche et de génération de solutions dans le cadre des paradigmes CBR et Stacking est efficace dans le cas de l'application à la prédiction des notes des apprenants.
\begin{table}[!ht]
\centering
\footnotesize
\begin{tabular}{c|cccccccccc}
&\multicolumn{10}{c}{\textbf{Algorithme}}\\
\hline
& A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
\textbf{Scenario (Metrique)}\\
\hline
E1 (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\
E1 (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\
E1 (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\
\hline
E2 (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\
E2 (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\
E2 (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\
\hline
E3 (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\
E3 (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\
E3 (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\
\hline
E4 (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\
E4 (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\
E4 (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\
\end{tabular}
\caption{Résultats de la régression pour la base de données des apprenants avec 100 exécutions}
\label{tab:results}
\end{table}
\subsection{Progression des connaissances}
Le modèle de recommandation TS est basé sur le paradigme bayésien, ce qui est très utile lorsque les données sont limitées et l'incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ fois a été utilisée comme second test. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
%\begin{equation}
\begin{multline}
k_{t,c}=\frac{1}{2}
\int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx
\\
+\frac{1}{2}
\int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx
\label{eqprog1}
\end{multline}
%\end{equation}
\begin{multline}
m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\
+\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right )
%\end{equation}
\label{eqprog2}
\end{multline}
La progression totale des connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). en utilisant l'évaluation de la progression de la variabilité (équation \ref{eqVarP}).
\begin{equation}
vk_{t,c}=\begin{cases}
D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\
-D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise
\end{cases}
\label{eqVarP}
\end{equation}
\begin{equation}
k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0}
\begin{cases}
\alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\
0;&Otherwise
\end{cases}
\label{eqTEK}
\end{equation}
\begin{figure}
\centering
\includegraphics[scale=0.5]{Figures/kEvol_TS.jpg}
\caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon}
\label{fig:evolution}
\end{figure}
La figure \ref{fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une seule session de formation. Entre la première et la dernière question de la même session, tous les apprenants ont statistiquement augmenté leur niveau de connaissance puisque la moyenne a augmenté, la variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants, à partir de là la variabilité diminue et la moyenne augmente. La figure {fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une même session de formation.
\subsection{Comparaison entre TS et BKT}
L'évolution du système de recommandation TS est testée en comparaison avec BKT, la figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même session. Dans ce cas, le modèle TS génère moins de variabilité que BKT, mais si est faite la comparaison des moyennes générées par chaque question, l'évolution est très similaire. La figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent au cours de la même session.
\begin{figure}
\centering
\includegraphics[scale=0.5]{Figures/GradesEv.jpg}
\caption{Comparaison de l'évolution des notes entre les algorithmes BKT et TS}
\label{fig:EvGrades}
\end{figure}
Mais, si les résultats obtenus sont comparés par rapport à l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), le modèle TS fait évoluer le niveau de complexité des apprénants, alors que le modèle BKT a tendance à laisser les apprénants au même niveau de complexité, c'est-à-dire qu'avec le modèle BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En examinant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}) et en établissant des comparaisons, le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité.\N- Le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité. Le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité.
\begin{figure}
\centering
\includegraphics[scale=0.5]{Figures/LevelsEv.jpg}
\caption{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS}
\label{fig:EvCL}
\end{figure}
\subsection{Système de recommandation avec ESCBR-SMA}
Le troisième test est l'intégration entre deux modèles. Cette combinaison est faite pour éviter le paradoxe de Stein, en essayant de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (Thomson sampling recommender) et le filtre collaboratif (Case-base reasoning prediction) pour améliorer la personnalisation. Le test est une comparaison entre le système de recommandation TS et le système de recommandation TS avec la prédiction ESCBR-SMA afin de déterminer si l'intégration des deux modèles permet d'améliorer l'évolution du processus d'apprentissage proposé par le système AI-VT.
La comparaison est effectuée après la question 6 pour tous les apprenants, car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité pour la question suivante.
\subsection{Progression des connaissances TS vs TS et ESCBR-SMA}
Pour établir la différence entre le modèle de recommandation TS et le même modèle associé à la prédiction basée sur le raisonnement à partir de cas ESCBR-SMA, le quatrième test est défini en utilisant la métrique de Jensen-Shannon, mais dans ce cas la comparaison est faite entre les différents modèles (TS, TS-ESCBR) sur le même niveau de complexité dans le même temps $t$. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}.
\begin{multline}
k_{t,c}=\frac{1}{2}
\int_{0}^{1}p_c(\alpha_{p1,t},\beta_{p1,t},x)
log \left(\frac{p_c(\alpha_{p1,t},\beta_{p1,t},x)}{m(p_c(\alpha_{p1,t},\beta_{p1,t},x),p_c(\alpha_{p2,t},\beta_{p2,t},x))} \right)dx
\\
+\frac{1}{2}
\int_{0}^{1}p_c(\alpha_{p2,t},\beta_{p2,t},x) log \left(\frac{p_c(\alpha_{p2,t},\beta_{p2,t},x)}{m(p_c(\alpha_{p1,t},\beta_{p1,t},x),p_c(\alpha_{p2,t},\beta_{p2,t},x))} \right)dx
\label{eqjs4}
\end{multline}
%\end{equation}
\begin{multline}
m(p(\alpha_{p1,t},\beta_{p1,t},x),p(\alpha_{p2,t},\beta_{p2,t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{p1,t}-1}(1-x)^{\beta_{p1,t}-1}}{\int_0^1 u^{\alpha_{p1,t}-1}(1-u^{\beta_{p1,t}-1})du} \right )\\
+\frac{1}{2} \left (\frac{x^{\alpha_{p2,t}-1}(1-x)^{\beta_{p2,t}-1}}{\int_0^1 u^{\alpha_{p2,t}-1}(1-u^{\beta_{p2,t}-1})du} \right )
\label{eqjs5}
%\end{equation}
\end{multline}
La comparaison entre l'évolution des connaissances présente une bifurcation après la septième question, et l'intégration de l'échantillonnage de Thompson et du raisonnement à partir de cas permet d'améliorer l'évolution des connaissances par rapport au seul modèle d'échantillonnage de Thompson (Figure \ref{fig_cmp2}). Pour toutes les questions de la même session, en moyenne, la progression est supérieure par rapport à l'utilisation du seul modèle d'échantillonnage de Thompson comme modèle de recommandation.
\begin{figure}[!h]
\centering
\includegraphics[scale=0.23]{Figures/TS-ESCBR.png}
\caption{Normalisation de la différence de progression entre l'échantillonnage de Thompson et l'échantillonnage de Thompson avec ESCBR pour 1000 apprenants}
\label{fig_cmp2}
\end{figure}
\section{Conclusion}
Ce chapitre présente un modèle intégré entre deux modèles développés précédemment, un système de recommandation basé sur l'algorithme d'échantillonnage de Thompson et un modèle de régression d'ensemble basé sur le raisonnement par cas. Le modèle intégré est appliqué à un ITS appelé AI-VT, les résultats montrent en effet que l'intégration permet d'améliorer la performance des deux modèles utilisés séparément, en outre il montre de meilleurs résultats dans la révision/adaptation des étapes de solutions pour chaque apprenant, en fonction des métriques utilisées et des tests définis, donnant une meilleure personnalisation du système et facilitant l'acquisition de connaissances.
%Le modèle intégré est appliqué à un ITS appelé AI-VT.\\
Les avantages du modèle proposé sont les suivants : i) il permet de générer des recommandations personnalisées pour chaque apprenant avec relativement peu de données historiques, ii) étant donné que de multiples points de vue (différents algorithmes) sur le même problème et avec la même base de données sont intégrés, le risque de tomber dans des paradoxes statistiques (Stein, Simpson) est réduit, iii) les deux modèles se complètent mutuellement en améliorant les résultats finaux d'une manière généralisée. Le modèle proposé a été conçu pour être utilisé dans le cadre d'un projet de recherche et de développement en cours.