Commit 3da9f1eb5c8f55e7571702f7695bd419a5be399d

Authored by dsotofor
1 parent 0946e7e4c6
Exists in main

version correct to chapter 6 and chapter 7 in evaluation

Showing 1 changed file with 1 additions and 1 deletions Inline Diff

chapters/TS.tex View file @ 3da9f1e
\chapter{Système de Recommandation dans AI-VT} 1 1 \chapter{Système de Recommandation dans AI-VT}
2 2
\section{Introduction} 3 3 \section{Introduction}
4 4
Ce chapitre est divisé en trois parties, la première partie explicite un algorithme de recommandation proposé fondé sur les résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans Soto \textit{et al.} \cite{Soto2}. C'est un modèle d'adaptation automatique en temps réel d'une séance prédéterminée à l'intérieur du système AI-VT. Dans cette adaptation le processus fait partie d'un modèle global de raisonnement à partir de cas. Le modèle proposé est stochastique et a été testé avec trois scénarios différents. Les résultats montrent l'adaptation dynamique du modèle proposé, les adaptations obtenues aidant le système à évoluer plus rapidement et identifier les faiblesses des apprenants dans les différents niveaux de complexité ainsi que la génération de recommandations pertinentes dans des cas spécifiques pour chaque capacité d'apprenant. 5 5 Ce chapitre est divisé en trois parties, la première partie explicite un algorithme de recommandation proposé fondé sur les résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans Soto \textit{et al.} \cite{Soto2}. C'est un modèle d'adaptation automatique en temps réel d'une séance prédéterminée à l'intérieur du système AI-VT. Dans cette adaptation le processus fait partie d'un modèle global de raisonnement à partir de cas. Le modèle proposé est stochastique et a été testé avec trois scénarios différents. Les résultats montrent l'adaptation dynamique du modèle proposé, les adaptations obtenues aidant le système à évoluer plus rapidement et identifier les faiblesses des apprenants dans les différents niveaux de complexité ainsi que la génération de recommandations pertinentes dans des cas spécifiques pour chaque capacité d'apprenant.
6 6
Le module mis en œuvre pour AI-VT est classé dans la catégorie des systèmes de recommandation. Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les talents, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise des concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types, l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et l'adaptation de la navigation qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}. 7 7 Le module mis en œuvre pour AI-VT est classé dans la catégorie des systèmes de recommandation. Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les talents, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise des concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types, l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et l'adaptation de la navigation qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}.
8 8
Les techniques de recommandation sont utiles dans les EIAH car elles peuvent détecter les changements et évoluer vers un état optimal, comme l'algorithme d'échantillonnage de Thompson (TS), qui est un algorithme de type probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement, où l'algorithme choisit au temps $t$ une action $a$ à partir d'un ensemble $A$, obtient une récompense pour l'action $a$ et, en fonction de la valeur de la récompense, ajuste sa stratégie de décision pour choisir au temps $t + 1$ une autre action $a$, dans le but de maximiser la récompense. Il est fondé sur le principe Bayésien, où il y a une distribution de probabilité a priori et avec les données obtenues une distribution de probabilité a posteriori est générée qui vise à maximiser l'estimation de la valeur attendue. Pour la variante de Bernoulli, où la récompense n'a que deux valeurs possibles 0 et 1 ou succès et échec, la distribution de base utilisée est la distribution Beta qui est définie sur [0, 1] et paramétrée par deux valeurs $\alpha$ et $\beta$ \cite{9870279}. 9 9 Les techniques de recommandation sont utiles dans les EIAH car elles peuvent détecter les changements et évoluer vers un état optimal, comme l'algorithme d'échantillonnage de Thompson (TS), qui est un algorithme de type probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement, où l'algorithme choisit au temps $t$ une action $a$ à partir d'un ensemble $A$, obtient une récompense pour l'action $a$ et, en fonction de la valeur de la récompense, ajuste sa stratégie de décision pour choisir au temps $t + 1$ une autre action $a$, dans le but de maximiser la récompense. Il est fondé sur le principe Bayésien, où il y a une distribution de probabilité a priori et avec les données obtenues une distribution de probabilité a posteriori est générée qui vise à maximiser l'estimation de la valeur attendue. Pour la variante de Bernoulli, où la récompense n'a que deux valeurs possibles 0 et 1 ou succès et échec, la distribution de base utilisée est la distribution Beta qui est définie sur [0, 1] et paramétrée par deux valeurs $\alpha$ et $\beta$ \cite{9870279}.
10 10
La deuxième partie de ce chapitre présente l'intégration de tous les algorithmes développés et explicités dans les chapitres précédents. Le modèle intégré est appliqué au système AI-VT sur une base de données générée et une base de données réelle. Plusieurs types de test sont exécutés pour montrer que le modèle final permet en effet d'améliorer les capacités d'identification et adaptation. 11 11 La deuxième partie de ce chapitre présente l'intégration de tous les algorithmes développés et explicités dans les chapitres précédents. Le modèle intégré est appliqué au système AI-VT sur une base de données générée et une base de données réelle. Plusieurs types de test sont exécutés pour montrer que le modèle final permet en effet d'améliorer les capacités d'identification et adaptation.
12 12
Les contributions de la deuxième partie sont : 13 13 Les contributions de la deuxième partie sont :
\begin{itemize} 14 14 \begin{itemize}
\item Vérification de l'efficacité du modèle de raisonnement à partir de cas pour la prédiction avec une base de données de notes d'apprenants par rapport à d'autres algorithmes. 15 15 \item Vérification de l'efficacité du modèle de raisonnement à partir de cas pour la prédiction avec une base de données de notes d'apprenants par rapport à d'autres algorithmes.
\item Calcul explicite de l'évolution de l'acquisition des connaissances en analysant le changement des distributions de probabilité générées par le modèle de recommandation stochastique. 16 16 \item Calcul explicite de l'évolution de l'acquisition des connaissances en analysant le changement des distributions de probabilité générées par le modèle de recommandation stochastique.
\item Intégration du modèle de recommandation stochastique à la prédiction par raisonnement à partir de cas pour améliorer la personnalisation de l'EIAH. 17 17 \item Intégration du modèle de recommandation stochastique à la prédiction par raisonnement à partir de cas pour améliorer la personnalisation de l'EIAH.
\end{itemize} 18 18 \end{itemize}
19 19
L'un des principaux modules des EIAH est le système de recommandation, qui vise à trouver les faiblesses et à adapter la plateforme localement ou globalement pour faciliter le processus d'apprentissage et l'acquisition des connaissances, ce module est très important car il permet d'adapter le système et de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants, l'efficacité du système dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce module \cite{Liu2023}. Il est donc nécessaire de trouver des techniques et des algorithmes capables d'exploiter les données disponibles et d'explorer les options d'apprentissage de manière dynamique, afin d'améliorer les performances globales des EIAH. 20 20 L'un des principaux modules des EIAH est le système de recommandation, qui vise à trouver les faiblesses et à adapter la plateforme localement ou globalement pour faciliter le processus d'apprentissage et l'acquisition des connaissances, ce module est très important car il permet d'adapter le système et de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants, l'efficacité du système dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce module \cite{Liu2023}. Il est donc nécessaire de trouver des techniques et des algorithmes capables d'exploiter les données disponibles et d'explorer les options d'apprentissage de manière dynamique, afin d'améliorer les performances globales des EIAH.
21 21
Dans la troisième partie seront détaillées les contributions réalisées avec l'incorporation du processus de Hawkes : 22 22 Dans la troisième partie seront détaillées les contributions réalisées avec l'incorporation du processus de Hawkes :
23 23
\begin{itemize} 24 24 \begin{itemize}
\item Simulation de la courbe d'oubli dans le processus d'apprentissage à l'aide du processus stochastique de Hawkes. 25 25 \item Simulation de la courbe d'oubli dans le processus d'apprentissage à l'aide du processus stochastique de Hawkes.
\item Intégration du raisonnement par cas, des systèmes multi-agents et du processus de Hawkes dans un algorithme de recommandation. 26 26 \item Intégration du raisonnement par cas, des systèmes multi-agents et du processus de Hawkes dans un algorithme de recommandation.
\item Vérification de la progression, de la stabilité, la précision et évolution de l'algorithme de recommandation stochastique proposé à l'aide de bases de données simulées et hétérogènes d'étudiants réels.\\\\ 27 27 \item Vérification de la progression, de la stabilité, la précision et évolution de l'algorithme de recommandation stochastique proposé à l'aide de bases de données simulées et hétérogènes d'étudiants réels.\\\\
\end{itemize} 28 28 \end{itemize}
29 29
\section{Système de recommandation stochastique fondé sur l'échantillonnage de Thompson} 30 30 \section{Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}
\sectionmark{Système de recommandation fondé sur TS} 31 31 \sectionmark{Système de recommandation fondé sur TS}
32 32
\subsection{Modèle Proposé} 33 33 \subsection{Modèle Proposé}
34 34
Le modèle proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT, puis adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. Le modèle est conçu comme une modification de l'algorithme d'échantillonnage de Thompson avec l'intégration de l'échantillonnage stratifié pour obtenir l'adaptation. 35 35 Le modèle proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT, puis adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. Le modèle est conçu comme une modification de l'algorithme d'échantillonnage de Thompson avec l'intégration de l'échantillonnage stratifié pour obtenir l'adaptation.
36 36
La famille de distributions de probabilité Betq est utilisée pour définir dynamiquement le nouveau niveau de complexité (équation \ref{eqBeta}) inspiré de l'algorithme d'échantillonnage de Thompson. Cette version du modèle permet de recommander des niveaux de complexité non contigus, mais la priorité est de recommander les niveaux dans lesquels des défauts ont été détectés. La paramétrisation initiale de toutes les distributions de probabilité peut forcer le modèle à recommander des niveaux de complexité contigus plus élémentaires. 37 37 La famille de distributions de probabilité Betq est utilisée pour définir dynamiquement le nouveau niveau de complexité (équation \ref{eqBeta}) inspiré de l'algorithme d'échantillonnage de Thompson. Cette version du modèle permet de recommander des niveaux de complexité non contigus, mais la priorité est de recommander les niveaux dans lesquels des défauts ont été détectés. La paramétrisation initiale de toutes les distributions de probabilité peut forcer le modèle à recommander des niveaux de complexité contigus plus élémentaires.
38 38
\begin{equation} 39 39 \begin{equation}
B(x, \alpha, \beta) = 40 40 B(x, \alpha, \beta) =
\begin{cases} 41 41 \begin{cases}
\frac{x^{\alpha-1}(1-x)^{\beta - 1}}{\int_0^1 u^{\alpha - 1}(1-u)^{\beta - 1}du} & si \; x \in [0, 1] \\ 42 42 \frac{x^{\alpha-1}(1-x)^{\beta - 1}}{\int_0^1 u^{\alpha - 1}(1-u)^{\beta - 1}du} & si \; x \in [0, 1] \\
0&sinon 43 43 0&sinon
\end{cases} 44 44 \end{cases}
\label{eqBeta} 45 45 \label{eqBeta}
\end{equation} 46 46 \end{equation}
47 47
Les variables qui font partie du modèle sont spécifiées dans le tableau \ref{tabPar}. 48 48 Les variables qui font partie du modèle sont spécifiées dans le tableau \ref{tabPar}.
49 49
\begin{table}[!ht] 50 50 \begin{table}[!ht]
\centering 51 51 \centering
\begin{tabular}{ccc} 52 52 \begin{tabular}{ccc}
ID&Description&Domain\\ 53 53 ID&Description&Domain\\
\hline 54 54 \hline
$c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\ 55 55 $c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\
$g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\ 56 56 $g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\
$g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\ 57 57 $g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\
$s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\ 58 58 $s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\
$s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\ 59 59 $s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\
$\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\ 60 60 $\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\
$t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\ 61 61 $t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\
$g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\ 62 62 $g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\
$ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\ 63 63 $ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\
$t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\ 64 64 $t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\
$ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\ 65 65 $ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\
$\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\ 66 66 $\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\
$\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\ 67 67 $\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\
$\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\ 68 68 $\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\
$\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\ 69 69 $\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\
$G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\ 70 70 $G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\
$x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\ 71 71 $x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\
$n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\\ 72 72 $n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\\
$ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\ 73 73 $ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\
$y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\ 74 74 $y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\
$r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\ 75 75 $r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\
$sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\ 76 76 $sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\
\end{tabular} 77 77 \end{tabular}
\caption{Variables et paramètres du modèle proposé} 78 78 \caption{Variables et paramètres du modèle proposé}
\label{tabPar} 79 79 \label{tabPar}
\end{table} 80 80 \end{table}
81 81
Dans ce cas, il est nécessaire d'utiliser la variable de seuil de grade $g_t$ pour déterminer la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les équations \ref{eqsMg}, \ref{eqgtc} et \ref{eqltc} montrent les règles de mise à jour corrélées, ces règles modifient les valeurs par récompense inverse. Chaque niveau de complexité est associé à une distribution de probabilité Beta avec des valeurs initiales prédéfinies pour les paramètres $\alpha$ et $\beta$. 82 82 Dans ce cas, il est nécessaire d'utiliser la variable de seuil de grade $g_t$ pour déterminer la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les équations \ref{eqsMg}, \ref{eqgtc} et \ref{eqltc} montrent les règles de mise à jour corrélées, ces règles modifient les valeurs par récompense inverse. Chaque niveau de complexité est associé à une distribution de probabilité Beta avec des valeurs initiales prédéfinies pour les paramètres $\alpha$ et $\beta$.
83 83
\begin{equation} 84 84 \begin{equation}
ng_c=g_c 85 85 ng_c=g_c
\label{eqsMg} 86 86 \label{eqsMg}
\end{equation} 87 87 \end{equation}
88 88
\begin{equation} 89 89 \begin{equation}
ng_c \ge g_t \rightarrow 90 90 ng_c \ge g_t \rightarrow
\begin{cases} 91 91 \begin{cases}
\beta_c=\beta_c+\Delta_s\\ 92 92 \beta_c=\beta_c+\Delta_s\\
\beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\ 93 93 \beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\
\alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2} 94 94 \alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2}
\end{cases} 95 95 \end{cases}
\label{eqgtc} 96 96 \label{eqgtc}
\end{equation} 97 97 \end{equation}
98 98
\begin{equation} 99 99 \begin{equation}
ng_c < g_t \rightarrow 100 100 ng_c < g_t \rightarrow
\begin{cases} 101 101 \begin{cases}
\alpha_c=\alpha_c+\Delta_s\\ 102 102 \alpha_c=\alpha_c+\Delta_s\\
\alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\ 103 103 \alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\
\beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2} 104 104 \beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2}
\end{cases} 105 105 \end{cases}
\label{eqltc} 106 106 \label{eqltc}
\end{equation} 107 107 \end{equation}
108 108
Le nouveau niveau de complexité est l'indice de la valeur aléatoire maximale (générée à partir de la distribution Beta de chaque niveau de complexité, équation \ref{eqBRnd}) pour tous les niveaux de complexité (équation \ref{eqsncl}). 109 109 Le nouveau niveau de complexité est l'indice de la valeur aléatoire maximale (générée à partir de la distribution Beta de chaque niveau de complexité, équation \ref{eqBRnd}) pour tous les niveaux de complexité (équation \ref{eqsncl}).
110 110
\begin{equation} 111 111 \begin{equation}
\theta_c = Beta(\alpha_c, \beta_c) 112 112 \theta_c = Beta(\alpha_c, \beta_c)
\label{eqBRnd} 113 113 \label{eqBRnd}
\end{equation} 114 114 \end{equation}
115 115
\begin{equation} 116 116 \begin{equation}
ncl=max_x(\mathbb{E}[\theta_x]), 0<=x<=c_n 117 117 ncl=max_x(\mathbb{E}[\theta_x]), 0<=x<=c_n
\label{eqsncl} 118 118 \label{eqsncl}
\end{equation} 119 119 \end{equation}
120 120
La note des apprenants peut considérer aussi le temps de réponse comme une pénalité, et dans ce cas-là la note est calcule comme la équation \ref{eqsGT}. 121 121 La note des apprenants peut considérer aussi le temps de réponse comme une pénalité, et dans ce cas-là la note est calcule comme la équation \ref{eqsGT}.
122 122
\begin{equation} 123 123 \begin{equation}
ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right) 124 124 ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right)
\label{eqsGT} 125 125 \label{eqsGT}
\end{equation} 126 126 \end{equation}
127 127
Le détail des pas d'exécution du modèle proposé sont dans l'algorithme \ref{alg2}. 128 128 Le détail des pas d'exécution du modèle proposé sont dans l'algorithme \ref{alg2}.
129 129
\begin{algorithm} 130 130 \begin{algorithm}
\caption{Stochastic Recommendation Model} 131 131 \caption{Stochastic Recommendation Model}
\begin{algorithmic} 132 132 \begin{algorithmic}
\State Initialize the a-priori distributions of probability 133 133 \State Initialize the a-priori distributions of probability
\For {\textbf{each} questions $q$} 134 134 \For {\textbf{each} questions $q$}
\State With $i$ as actual complexity level $c$ 135 135 \State With $i$ as actual complexity level $c$
\State Calculate $ng_i$ \Comment{eq \ref{eqsMg} or eq \ref{eqsGT}} 136 136 \State Calculate $ng_i$ \Comment{eq \ref{eqsMg} or eq \ref{eqsGT}}
\State Update parameters $\alpha_i$ and $\beta_i$ \Comment{eq \ref{eqgtc} and eq \ref{eqltc}} 137 137 \State Update parameters $\alpha_i$ and $\beta_i$ \Comment{eq \ref{eqgtc} and eq \ref{eqltc}}
\State Get random values $\theta_c$ with Beta distribution\Comment{$\forall c$, eq \ref{eqBRnd}} 138 138 \State Get random values $\theta_c$ with Beta distribution\Comment{$\forall c$, eq \ref{eqBRnd}}
\State Get $ncl$ \Comment{eq \ref{eqsncl}} 139 139 \State Get $ncl$ \Comment{eq \ref{eqsncl}}
\EndFor 140 140 \EndFor
\end{algorithmic} 141 141 \end{algorithmic}
\label{alg2} 142 142 \label{alg2}
\end{algorithm} 143 143 \end{algorithm}
144 144
\subsection{Résultats} 145 145 \subsection{Résultats}
146 146
Le comportement du modèle a été testé avec un jeu de données généré, ce jeu de données contient les notes et les temps de réponse de 1000 apprenants pour 5 niveaux de complexité différents, la description des données est indiquée dans le Tableau \ref{tabDataSet}. Les notes des apprenants sont générées avec la distribution logit-normale de probabilité, car c'est expérimentalement le meilleur modèle de représentation \cite{Arthurs}. 147 147 Le comportement du modèle a été testé avec un jeu de données généré, ce jeu de données contient les notes et les temps de réponse de 1000 apprenants pour 5 niveaux de complexité différents, la description des données est indiquée dans le Tableau \ref{tabDataSet}. Les notes des apprenants sont générées avec la distribution logit-normale de probabilité, car c'est expérimentalement le meilleur modèle de représentation \cite{Arthurs}.
148 148
L'ensemble de données généré est une simulation des notes des apprenants pour les réponses à quinze questions à chacun des cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants dans les dix premières questions. La difficulté de la complexité est également simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la distribution de l'ensemble de données des notes de 1000 apprenants par niveau de complexité. 149 149 L'ensemble de données généré est une simulation des notes des apprenants pour les réponses à quinze questions à chacun des cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants dans les dix premières questions. La difficulté de la complexité est également simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la distribution de l'ensemble de données des notes de 1000 apprenants par niveau de complexité.
150 150
\begin{figure} 151 151 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/dataset.png} 152 152 \includegraphics[width=\textwidth]{./Figures/dataset.png}
\caption{Boîte à moustaches pour la base de données générée} 153 153 \caption{Boîte à moustaches pour la base de données générée}
\label{figData} 154 154 \label{figData}
\end{figure} 155 155 \end{figure}
156 156
\begin{table}[!ht] 157 157 \begin{table}[!ht]
\centering 158 158 \centering
\begin{tabular}{ccc} 159 159 \begin{tabular}{ccc}
ID&Description&Domain\\ 160 160 ID&Description&Domain\\
\hline 161 161 \hline
$q_{c}$&Niveau de complexité de une question $q$&$[0, c_n] \in \mathbb{N}$\\ 162 162 $q_{c}$&Niveau de complexité de une question $q$&$[0, c_n] \in \mathbb{N}$\\
$q_{g,c}$&Note obtenue $g$ pour la question $q$ avec complexité $c$ &$[0,g_m] \in \mathbb{R}$\\ 163 163 $q_{g,c}$&Note obtenue $g$ pour la question $q$ avec complexité $c$ &$[0,g_m] \in \mathbb{R}$\\
$q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\ 164 164 $q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\
\end{tabular} 165 165 \end{tabular}
\caption{Description des variables utilisées dans la base de données evaluée} 166 166 \caption{Description des variables utilisées dans la base de données evaluée}
\label{tabDataSet} 167 167 \label{tabDataSet}
\end{table} 168 168 \end{table}
169 169
Toutes les valeurs des paramètres pour tester le modèle sont dans le tableau \ref{tabgm1}. 170 170 Toutes les valeurs des paramètres pour tester le modèle sont dans le tableau \ref{tabgm1}.
171 171
\begin{table}[!ht] 172 172 \begin{table}[!ht]
\centering 173 173 \centering
\begin{tabular}{c|cccccccccccccc} 174 174 \begin{tabular}{c|cccccccccccccc}
ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\ 175 175 ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\
\hline 176 176 \hline
Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\ 177 177 Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\
\end{tabular} 178 178 \end{tabular}
\caption{Valeurs des paramètres pour les scénarios evalués} 179 179 \caption{Valeurs des paramètres pour les scénarios evalués}
\label{tabgm1} 180 180 \label{tabgm1}
\end{table} 181 181 \end{table}
182 182
Les résultats de la première comparaison sans données historiques (démarrage à froid) entre le modèle proposé, un système de recommandation déterministe et le système original (RàPC) sont présentés dans la figure \ref{figCmp2}, où apparaissent différents nombres et échelles de transitions, le système original ne présente pas de transitions, tous les apprenants sont évalués au niveau de complexité 0, les notes obtenues pendant la séance ne sont pas prises en compte. Le système avec des modèles de recommandation tente d'adapter le niveau de complexité en fonction des notes obtenues. Le modèle déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus, la tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. Le modèle proposé (stochastique), commence par proposer tous les niveaux de complexité possibles mais se concentre sur le niveau 0, les transitions sont constantes mais pour un petit nombre d'apprenants, la tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la hausse pour les niveaux 1, 2 et 3. 183 183 Les résultats de la première comparaison sans données historiques (démarrage à froid) entre le modèle proposé, un système de recommandation déterministe et le système original (RàPC) sont présentés dans la figure \ref{figCmp2}, où apparaissent différents nombres et échelles de transitions, le système original ne présente pas de transitions, tous les apprenants sont évalués au niveau de complexité 0, les notes obtenues pendant la séance ne sont pas prises en compte. Le système avec des modèles de recommandation tente d'adapter le niveau de complexité en fonction des notes obtenues. Le modèle déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus, la tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. Le modèle proposé (stochastique), commence par proposer tous les niveaux de complexité possibles mais se concentre sur le niveau 0, les transitions sont constantes mais pour un petit nombre d'apprenants, la tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la hausse pour les niveaux 1, 2 et 3.
184 184
\begin{figure} 185 185 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp2.png} 186 186 \includegraphics[width=\textwidth]{./Figures/comp2.png}
\caption{Résultats pour le premier test} 187 187 \caption{Résultats pour le premier test}
\label{figCmp2} 188 188 \label{figCmp2}
\end{figure} 189 189 \end{figure}
190 190
Après la génération de la première séance, le système peut continuer avec la liste suivante d'exercices, dans ce cas les trois modèles ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir la première transition du système original, cette transition montre que le système agit uniquement avec les notes obtenues dans le passé et les transitions sont très lentes, même si les notes sont différentes au cours de la séance, tous les apprenants doivent suivre le même chemin. Cependant, les modèles de recommandation changent, le modèle déterministe présente trois transitions dans les questions 3, 5 et 12. Les tendances sont statiques pour le niveau 3, variables pour le niveau 2 et fortement descendantes pour le niveau 0. Le modèle stochastique continue avec des transitions douces mais essaie toujours de préférer le niveau le plus faible, dans ce cas le modèle a identifié le niveau de complexité 1. Ici, les niveaux 0 et 1 sont descendants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. 191 191 Après la génération de la première séance, le système peut continuer avec la liste suivante d'exercices, dans ce cas les trois modèles ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir la première transition du système original, cette transition montre que le système agit uniquement avec les notes obtenues dans le passé et les transitions sont très lentes, même si les notes sont différentes au cours de la séance, tous les apprenants doivent suivre le même chemin. Cependant, les modèles de recommandation changent, le modèle déterministe présente trois transitions dans les questions 3, 5 et 12. Les tendances sont statiques pour le niveau 3, variables pour le niveau 2 et fortement descendantes pour le niveau 0. Le modèle stochastique continue avec des transitions douces mais essaie toujours de préférer le niveau le plus faible, dans ce cas le modèle a identifié le niveau de complexité 1. Ici, les niveaux 0 et 1 sont descendants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants.
192 192
\begin{figure} 193 193 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp3.png} 194 194 \includegraphics[width=\textwidth]{./Figures/comp3.png}
\caption{Résultats pour le deuxième Test} 195 195 \caption{Résultats pour le deuxième Test}
\label{figCmp3} 196 196 \label{figCmp3}
\end{figure} 197 197 \end{figure}
198 198
Enfin, les données d'initialisation considèrent comme évalués deux niveaux de complexité 0 et 1, alors naturellement le système doit commencer avec le niveau 1 ou 2. Comme le système original est très lent à passer d'un niveau à l'autre, ce système commence par le niveau de complexité 1, comme le montre la figure \ref{figCmp4}, comme les deux autres comparaisons, les changements dans ce système ne sont pas progressifs, mais directs pour tous. Dans ce cas, le modèle de recommandation déterministe adopte la même stratégie et propose un changement direct pour tous les apprenants autour de la cinquième question. Le modèle stochastique continue avec des changements faibles mais constants, mais avec une préférence pour le niveau 2, la tendance est très stable sauf pour 1 (à la hausse) et 2 (à la baisse) niveaux. 199 199 Enfin, les données d'initialisation considèrent comme évalués deux niveaux de complexité 0 et 1, alors naturellement le système doit commencer avec le niveau 1 ou 2. Comme le système original est très lent à passer d'un niveau à l'autre, ce système commence par le niveau de complexité 1, comme le montre la figure \ref{figCmp4}, comme les deux autres comparaisons, les changements dans ce système ne sont pas progressifs, mais directs pour tous. Dans ce cas, le modèle de recommandation déterministe adopte la même stratégie et propose un changement direct pour tous les apprenants autour de la cinquième question. Le modèle stochastique continue avec des changements faibles mais constants, mais avec une préférence pour le niveau 2, la tendance est très stable sauf pour 1 (à la hausse) et 2 (à la baisse) niveaux.
200 200
\begin{figure} 201 201 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp4.png} 202 202 \includegraphics[width=\textwidth]{./Figures/comp4.png}
\caption{Résultats pour le troisième Test} 203 203 \caption{Résultats pour le troisième Test}
\label{figCmp4} 204 204 \label{figCmp4}
\end{figure} 205 205 \end{figure}
206 206
Pour comparer numériquement le système original, le modèle déterministe et le modèle de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}) qui décrit le système de recommandation idéal si l'objectif de l'apprenant est l'apprentissage standard, la métrique calcule une valeur pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette métrique est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, dans l'idée de renforcer les connaissances à ce niveau de complexité, de même s'ils proposent moins d'exercices aux niveaux de complexité où la note moyenne est élevée, puisqu'il est supposé que l'étudiant a déjà acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées. 207 207 Pour comparer numériquement le système original, le modèle déterministe et le modèle de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}) qui décrit le système de recommandation idéal si l'objectif de l'apprenant est l'apprentissage standard, la métrique calcule une valeur pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette métrique est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, dans l'idée de renforcer les connaissances à ce niveau de complexité, de même s'ils proposent moins d'exercices aux niveaux de complexité où la note moyenne est élevée, puisqu'il est supposé que l'étudiant a déjà acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées.
208 208
\begin{equation} 209 209 \begin{equation}
%r_c=x+y-2xy 210 210 %r_c=x+y-2xy
%r_c=x^2+y^2-2x^2y^2 211 211 %r_c=x^2+y^2-2x^2y^2
rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} 212 212 rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\}
\label{eqMetric1} 213 213 \label{eqMetric1}
\end{equation} 214 214 \end{equation}
215 215
\begin{equation} 216 216 \begin{equation}
r=\sum_{c=0}^{c_n-1} rp_c 217 217 r=\sum_{c=0}^{c_n-1} rp_c
\label{eqMetric2} 218 218 \label{eqMetric2}
\end{equation} 219 219 \end{equation}
220 220
Les propriétés de la métrique sont : 221 221 Les propriétés de la métrique sont :
\begin{itemize} 222 222 \begin{itemize}
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$ 223 223 \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$
\item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$ 224 224 \item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$
\item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\ 225 225 \item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\
\end{itemize} 226 226 \end{itemize}
227 227
Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions répondues dans le niveau de complexité $c$ (équation \ref{eqYc}). 228 228 Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions répondues dans le niveau de complexité $c$ (équation \ref{eqYc}).
229 229
\begin{equation} 230 230 \begin{equation}
x_{0,c}=\frac{<g_c>_{G_c}}{g_m} 231 231 x_{0,c}=\frac{<g_c>_{G_c}}{g_m}
\label{eqXc} 232 232 \label{eqXc}
\end{equation} 233 233 \end{equation}
234 234
\begin{equation} 235 235 \begin{equation}
x_{1,c}=\frac{ny_c}{n_c} 236 236 x_{1,c}=\frac{ny_c}{n_c}
\label{eqYc} 237 237 \label{eqYc}
\end{equation} 238 238 \end{equation}
239 239
La figure \ref{figMetric} montre l'équation globale pour la métrique $rp$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5. Un bon système de recommandation devrait donc avoir une valeur $r$ élevée. 240 240 La figure \ref{figMetric} montre l'équation globale pour la métrique $rp$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5. Un bon système de recommandation devrait donc avoir une valeur $r$ élevée.
241 241
\begin{figure} 242 242 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/metric.png} 243 243 \includegraphics[width=\textwidth]{./Figures/metric.png}
\caption{Métrique pour le parcours standard} 244 244 \caption{Métrique pour le parcours standard}
\label{figMetric} 245 245 \label{figMetric}
\end{figure} 246 246 \end{figure}
247 247
Les résultats des calculs de la métrique établie pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM}. 248 248 Les résultats des calculs de la métrique établie pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM}.
249 249
\begin{table}[!ht] 250 250 \begin{table}[!ht]
\centering 251 251 \centering
\begin{tabular}{cccccccc} 252 252 \begin{tabular}{cccccccc}
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ 253 253 &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\
\hline 254 254 \hline
Test 1\\ 255 255 Test 1\\
\hline 256 256 \hline
RàPC&0.5388&-&-&-&-&0.5388&10.776\\ 257 257 RàPC&0.5388&-&-&-&-&0.5388&10.776\\
DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\ 258 258 DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\
SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\ 259 259 SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\
\hline 260 260 \hline
Test 2\\ 261 261 Test 2\\
\hline 262 262 \hline
RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\ 263 263 RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\
DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\ 264 264 DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\
SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\ 265 265 SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\
\hline 266 266 \hline
Test3\\ 267 267 Test3\\
\hline 268 268 \hline
RàPC&-&0.8559&0.7377&-&-&1.5936&31.872 269 269 RàPC&-&0.8559&0.7377&-&-&1.5936&31.872
\\ 270 270 \\
DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\ 271 271 DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\
SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\ 272 272 SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\
\end{tabular} 273 273 \end{tabular}
\caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} 274 274 \caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}
\label{tabRM} 275 275 \label{tabRM}
\end{table} 276 276 \end{table}
277 277
Une métrique pour l'apprentissage en douceur est définie dans l'équation \ref{eqMetricS1} et l'équation \ref{eqMetricS2}, avec cette métrique un score élevé est attribué aux systèmes qui proposent plus d'exercices dans un niveau de complexité où les notes moyennes sont d'environ 0,4 et qui sont plus flexibles avec des notes moyennes plus basses, également si le nombre d'exercices proposés est faible pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent un nombre élevé de questions dans un niveau de complexité avec des notes moyennes élevées et si le nombre d'exercices recommandés est trop élevé ou trop faible pour les notes inférieures. 278 278 Une métrique pour l'apprentissage en douceur est définie dans l'équation \ref{eqMetricS1} et l'équation \ref{eqMetricS2}, avec cette métrique un score élevé est attribué aux systèmes qui proposent plus d'exercices dans un niveau de complexité où les notes moyennes sont d'environ 0,4 et qui sont plus flexibles avec des notes moyennes plus basses, également si le nombre d'exercices proposés est faible pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent un nombre élevé de questions dans un niveau de complexité avec des notes moyennes élevées et si le nombre d'exercices recommandés est trop élevé ou trop faible pour les notes inférieures.
279 279
\begin{equation} 280 280 \begin{equation}
rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} 281 281 rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\}
\label{eqMetricS1} 282 282 \label{eqMetricS1}
\end{equation} 283 283 \end{equation}
284 284
\begin{equation} 285 285 \begin{equation}
r=\sum_{c=0}^{c_n-1} rs_c 286 286 r=\sum_{c=0}^{c_n-1} rs_c
\label{eqMetricS2} 287 287 \label{eqMetricS2}
\end{equation} 288 288 \end{equation}
289 289
Les propriétés de la métrique sont : 290 290 Les propriétés de la métrique sont :
\begin{itemize} 291 291 \begin{itemize}
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$ 292 292 \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$
\item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\ 293 293 \item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\
\end{itemize} 294 294 \end{itemize}
295 295
La figure \ref{figMetric2} montre l'équation globale pour la métrique $rs$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5, un bon système de recommandation doit donc avoir une valeur $r$ élevée. 296 296 La figure \ref{figMetric2} montre l'équation globale pour la métrique $rs$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5, un bon système de recommandation doit donc avoir une valeur $r$ élevée.
297 297
Les résultats du calcul des métriques pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}. 298 298 Les résultats du calcul des métriques pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}.
299 299
\begin{figure}[!ht] 300 300 \begin{figure}[!ht]
\centering 301 301 \centering
\includegraphics[width=\textwidth]{./Figures/metric2.png} 302 302 \includegraphics[width=\textwidth]{./Figures/metric2.png}
\caption{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)} 303 303 \caption{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)}
\label{figMetric2} 304 304 \label{figMetric2}
\end{figure} 305 305 \end{figure}
306 306
\begin{table}[!ht] 307 307 \begin{table}[!ht]
\centering 308 308 \centering
\begin{tabular}{cccccccc} 309 309 \begin{tabular}{cccccccc}
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ 310 310 &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\
\hline 311 311 \hline
Test 1\\ 312 312 Test 1\\
\hline 313 313 \hline
RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\\ 314 314 RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\\
DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\ 315 315 DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\
SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\ 316 316 SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\
\hline 317 317 \hline
Test 2\\ 318 318 Test 2\\
\hline 319 319 \hline
RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\\ 320 320 RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\\
DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\ 321 321 DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\
SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\ 322 322 SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\
\hline 323 323 \hline
Test3\\ 324 324 Test3\\
\hline 325 325 \hline
RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74 326 326 RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74
\\ 327 327 \\
DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\ 328 328 DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\
SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\ 329 329 SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\
\end{tabular} 330 330 \end{tabular}
\caption{Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} 331 331 \caption{Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}
\label{tabRM2} 332 332 \label{tabRM2}
\end{table} 333 333 \end{table}
334 334
Pour comparer le système original et le modèle de recommandation, est utilisée la métrique de la diversité des propositions, avec la similarité en cosinus (La similarité en cosinus entre un vecteur $A$ et un vecteur $B$, Équation \ref{eqCS}) entre toutes les propositions des apprenants. Les résultats de la similarité cosinus moyenne sont présentés dans le tableau \ref{tabCS}. 335 335 Pour comparer le système original et le modèle de recommandation, est utilisée la métrique de la diversité des propositions, avec la similarité en cosinus (La similarité en cosinus entre un vecteur $A$ et un vecteur $B$, Équation \ref{eqCS}) entre toutes les propositions des apprenants. Les résultats de la similarité cosinus moyenne sont présentés dans le tableau \ref{tabCS}.
336 336
\begin{equation} 337 337 \begin{equation}
sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}} 338 338 sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}}
\label{eqCS} 339 339 \label{eqCS}
\end{equation} 340 340 \end{equation}
341 341
\begin{table}[!ht] 342 342 \begin{table}[!ht]
\centering 343 343 \centering
\begin{tabular}{cccc} 344 344 \begin{tabular}{cccc}
Model&Scenario 1&Scenario 2&Scenario 3\\ 345 345 Model&Scenario 1&Scenario 2&Scenario 3\\
\hline 346 346 \hline
RàPC&1&1&1\\ 347 347 RàPC&1&1&1\\
DM&0.9540&0.9887&0.9989\\ 348 348 DM&0.9540&0.9887&0.9989\\
SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\ 349 349 SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\
\end{tabular} 350 350 \end{tabular}
\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} 351 351 \caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}
\label{tabCS} 352 352 \label{tabCS}
\end{table} 353 353 \end{table}
354 354
\subsection{Discussion et Conclusions} 355 355 \subsection{Discussion et Conclusions}
Avec la génération d'exercices RàPC, le système propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, presque un changement toutes les 3 ou 4 séances, ceci parce que le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes de recommandation sont plus dynamiques et les évolutions sont plus rapides mais en considérant les notes des apprenants, le modèle déterministe suggère des changements de niveaux à un grand nombre d'apprenants soudainement parce qu'ils sont regroupés à l'intérieur d'un intervalle de taux de maîtrise, alors que le modèle stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modèles proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers. 356 356 Avec la génération d'exercices RàPC, le système propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, presque un changement toutes les 3 ou 4 séances, ceci parce que le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes de recommandation sont plus dynamiques et les évolutions sont plus rapides mais en considérant les notes des apprenants, le modèle déterministe suggère des changements de niveaux à un grand nombre d'apprenants soudainement parce qu'ils sont regroupés à l'intérieur d'un intervalle de taux de maîtrise, alors que le modèle stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modèles proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers.
357 357
La base de données générée a permis de simuler diverses situations avec les notes de 1000 apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations. 358 358 La base de données générée a permis de simuler diverses situations avec les notes de 1000 apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations.
359 359
Les résultats numériques utilisant la métrique définie montrent que les distributions des questions dans une séance par les deux versions du modèle de recommandation sont différentes mais avec une tendance générale similaire pour tous les apprenants. Le modèle proposé tente de répartir les questions dans tous les niveaux de complexité définis. Globalement, avec la métrique définie, le modèle stochastique a obtenu un meilleur score. Par rapport au système original, le modèle de recommandation (versions déterministe et stochastique) obtient une augmentation globale de l'adaptabilité comprise entre 15\% et 68\% pour tous les niveaux de complexité. 360 360 Les résultats numériques utilisant la métrique définie montrent que les distributions des questions dans une séance par les deux versions du modèle de recommandation sont différentes mais avec une tendance générale similaire pour tous les apprenants. Le modèle proposé tente de répartir les questions dans tous les niveaux de complexité définis. Globalement, avec la métrique définie, le modèle stochastique a obtenu un meilleur score. Par rapport au système original, le modèle de recommandation (versions déterministe et stochastique) obtient une augmentation globale de l'adaptabilité comprise entre 15\% et 68\% pour tous les niveaux de complexité.
361 361
Selon la métrique de la similarité cosinus, le modèle de recommandation proposé augmente la diversité des propositions par rapport au système original dans les trois scénarios évalués, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de faire progresser les apprenants entre les niveaux de complexité. La diversité des propositions est une caractéristique essentielle du modèle de recommandation dans ses deux versions. 362 362 Selon la métrique de la similarité cosinus, le modèle de recommandation proposé augmente la diversité des propositions par rapport au système original dans les trois scénarios évalués, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de faire progresser les apprenants entre les niveaux de complexité. La diversité des propositions est une caractéristique essentielle du modèle de recommandation dans ses deux versions.
363 363
Les modules de recommandation sont une pièce essentielle pour certaines EIAH car ils aident à guider le processus d'apprentissage individuel, permettent d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les versions du modèle proposé peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le meilleur niveau de complexité possible afin d'aider l'apprenant à acquérir et à maîtriser les connaissances avant de passer aux niveaux de complexité supérieurs, car généralement les connaissances des niveaux de complexité inférieurs sont nécessaires pour compléter les niveaux supérieurs. Même si l'ensemble de données généré est une simulation des temps de réponse et des notes des apprenants, les tests qui l'utilisent permettent de voir la flexibilité et la robustesse du modèle de recommandation proposé, car les données relatives aux apprenants présentent une grande diversité et obligent le système à s'adapter à différents types de configurations. Par conséquent, il est possible de conclure que le modèle de recommandation proposé a la capacité de fonctionner dans différentes situations et dans chaque cas de proposer des chemins alternatifs pour améliorer le processus d'apprentissage global, même si l'objectif d'apprentissage est différent pour chaque apprenant, comme le démontrent les résultats obtenus dans l'évaluation des deux métriques proposées. Le modèle proposé permet également la diversité et la personnalisation du système, puisque selon les résultats de la comparaison avec la similarité cosinus entre toutes les recommandations générées pour chaque apprenant, il y a une augmentation par rapport au système original.\\\\ 364 364 Les modules de recommandation sont une pièce essentielle pour certaines EIAH car ils aident à guider le processus d'apprentissage individuel, permettent d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les versions du modèle proposé peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le meilleur niveau de complexité possible afin d'aider l'apprenant à acquérir et à maîtriser les connaissances avant de passer aux niveaux de complexité supérieurs, car généralement les connaissances des niveaux de complexité inférieurs sont nécessaires pour compléter les niveaux supérieurs. Même si l'ensemble de données généré est une simulation des temps de réponse et des notes des apprenants, les tests qui l'utilisent permettent de voir la flexibilité et la robustesse du modèle de recommandation proposé, car les données relatives aux apprenants présentent une grande diversité et obligent le système à s'adapter à différents types de configurations. Par conséquent, il est possible de conclure que le modèle de recommandation proposé a la capacité de fonctionner dans différentes situations et dans chaque cas de proposer des chemins alternatifs pour améliorer le processus d'apprentissage global, même si l'objectif d'apprentissage est différent pour chaque apprenant, comme le démontrent les résultats obtenus dans l'évaluation des deux métriques proposées. Le modèle proposé permet également la diversité et la personnalisation du système, puisque selon les résultats de la comparaison avec la similarité cosinus entre toutes les recommandations générées pour chaque apprenant, il y a une augmentation par rapport au système original.\\\\
365 365
\section{ESCBR-SMA et Échantillonnage de Thompson} 366 366 \section{ESCBR-SMA et Échantillonnage de Thompson}
\sectionmark{ESCB-SMA et TS} 367 367 \sectionmark{ESCB-SMA et TS}
368 368
\subsection{Concepts Associés} 369 369 \subsection{Concepts Associés}
370 370
Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du modèle proposé, ainsi que les modèles et les mesures fondamentaux. Le premier paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances historiquement acquises et l'expérience accumulée en ce qui concerne un problème spécifique. Ce paradigme est utilisé pour générer des solutions émergentes pour un nouveau problème en utilisant une base de données de connaissances. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC est particulièrement utile lorsque les causes sous-jacentes d'un problème ne sont pas bien comprises. Le raisonnement à base de cas définit un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}. 371 371 Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du modèle proposé, ainsi que les modèles et les mesures fondamentaux. Le premier paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances historiquement acquises et l'expérience accumulée en ce qui concerne un problème spécifique. Ce paradigme est utilisé pour générer des solutions émergentes pour un nouveau problème en utilisant une base de données de connaissances. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC est particulièrement utile lorsque les causes sous-jacentes d'un problème ne sont pas bien comprises. Le raisonnement à base de cas définit un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}.
372 372
Puisque l'objectif ici est d'adapter les exercices proposés par AI-VT, il est nécessaire de connaître le fonctionnement de l'un des algorithmes les plus utilisés pour effectuer l'adaptation du contenu et des exercices dans certains STI, afin de comparer les résultats avec l'algorithme proposé et de voir dans quelle mesure il permet d'obtenir une amélioration de l'adaptation et de la performance des apprenants. L'un des modèles les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (Bayesian Knowledge Tracing) \cite{ZHANG2018189}. Ce modèle utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur.$P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour avec les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée. 373 373 Puisque l'objectif ici est d'adapter les exercices proposés par AI-VT, il est nécessaire de connaître le fonctionnement de l'un des algorithmes les plus utilisés pour effectuer l'adaptation du contenu et des exercices dans certains STI, afin de comparer les résultats avec l'algorithme proposé et de voir dans quelle mesure il permet d'obtenir une amélioration de l'adaptation et de la performance des apprenants. L'un des modèles les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (Bayesian Knowledge Tracing) \cite{ZHANG2018189}. Ce modèle utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur.$P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour avec les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée.
374 374
\begin{equation} 375 375 \begin{equation}
P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)} 376 376 P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)}
\label{eqbkt1} 377 377 \label{eqbkt1}
\end{equation} 378 378 \end{equation}
379 379
\begin{equation} 380 380 \begin{equation}
P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))} 381 381 P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))}
\label{eqbkt2} 382 382 \label{eqbkt2}
\end{equation} 383 383 \end{equation}
384 384
\begin{equation} 385 385 \begin{equation}
P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w) 386 386 P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w)
\label{eqbkt3} 387 387 \label{eqbkt3}
\end{equation} 388 388 \end{equation}
389 389
Le modèle de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. L'algorithme utilisé pour l'adaptation est un algorithme d'apprentissage par renforcement appelé échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus analysé spécifique \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Bêta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}. 390 390 Le modèle de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. L'algorithme utilisé pour l'adaptation est un algorithme d'apprentissage par renforcement appelé échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus analysé spécifique \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Bêta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}.
391 391
%\begin{equation} 392 392 %\begin{equation}
% Beta(x,\alpha,\beta)=\begin{cases} 393 393 % Beta(x,\alpha,\beta)=\begin{cases}
% \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\ 394 394 % \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\
% 0&otherwise 395 395 % 0&otherwise
% \end{cases} 396 396 % \end{cases}
%\end{equation} 397 397 %\end{equation}
398 398
\begin{equation} 399 399 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} 400 400 Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{fbeta} 401 401 \label{fbeta}
\end{equation} 402 402 \end{equation}
403 403
En utilisant la definition formelle de la fonction Gamma $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant des variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}). 404 404 En utilisant la definition formelle de la fonction Gamma $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant des variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}).
405 405
\begin{equation} 406 406 \begin{equation}
\Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx 407 407 \Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx
\label{eqGamma1} 408 408 \label{eqGamma1}
\end{equation} 409 409 \end{equation}
410 410
\begin{equation} 411 411 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1} 412 412 Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{f2beta} 413 413 \label{f2beta}
\end{equation} 414 414 \end{equation}
415 415
En exprimant les deux intégrales du denominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue. 416 416 En exprimant les deux intégrales du denominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue.
417 417
\begin{equation} 418 418 \begin{equation}
\int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv 419 419 \int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv
\label{f3Beta} 420 420 \label{f3Beta}
\end{equation} 421 421 \end{equation}
422 422
Après, sont remplacées $u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$, avec le résultat du Jacobien \ref{eqJac}, alors l'expression finale est comme montre l'équation \ref{f4Beta}. 423 423 Après, sont remplacées $u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$, avec le résultat du Jacobien \ref{eqJac}, alors l'expression finale est comme montre l'équation \ref{f4Beta}.
424 424
\begin{equation} 425 425 \begin{equation}
\left ( 426 426 \left (
\begin{matrix} 427 427 \begin{matrix}
\frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\ 428 428 \frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\
\frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\ 429 429 \frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\
\end{matrix} 430 430 \end{matrix}
\right ) = 431 431 \right ) =
\left ( 432 432 \left (
\begin{matrix} 433 433 \begin{matrix}
sdt & tds \\ 434 434 sdt & tds \\
-sdt & (1-t)ds\\ 435 435 -sdt & (1-t)ds\\
\end{matrix} 436 436 \end{matrix}
\right ) = s \; dtds 437 437 \right ) = s \; dtds
\label{eqJac} 438 438 \label{eqJac}
\end{equation} 439 439 \end{equation}
440 440
\begin{equation} 441 441 \begin{equation}
\int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt 442 442 \int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt
\label{f4Beta} 443 443 \label{f4Beta}
\end{equation} 444 444 \end{equation}
445 445
Si les intégrales sont exprimées en fonction des variables indépendantes $s$ et $t$ l'équation \ref{f5Beta} est générée. 446 446 Si les intégrales sont exprimées en fonction des variables indépendantes $s$ et $t$ l'équation \ref{f5Beta} est générée.
447 447
\begin{equation} 448 448 \begin{equation}
\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 449 449 \int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
\label{f5Beta} 450 450 \label{f5Beta}
\end{equation} 451 451 \end{equation}
452 452
En plaçant les termes dans l'équation le résultat est l'équation \ref{f6Beta}. 453 453 En plaçant les termes dans l'équation le résultat est l'équation \ref{f6Beta}.
454 454
\begin{equation} 455 455 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 456 456 Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
}\theta^{\alpha-1}(1-\theta)^{\beta-1} 457 457 }\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{f6Beta} 458 458 \label{f6Beta}
\end{equation} 459 459 \end{equation}
460 460
Finalement, la famille de fonctions de distribution Beta peut être exprimée comme l'équation \ref{f7Beta}. Les métriques utilisées dans ce chapitre s'expriment en fonction de cette définition. 461 461 Finalement, la famille de fonctions de distribution Beta peut être exprimée comme l'équation \ref{f7Beta}. Les métriques utilisées dans ce chapitre s'expriment en fonction de cette définition.
462 462
\begin{equation} 463 463 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 464 464 Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
} 465 465 }
\label{f7Beta} 466 466 \label{f7Beta}
\end{equation} 467 467 \end{equation}
468 468
L'évolution de l'algorithme de recommandation TS est établie par le changement des distributions de probabilité, mais au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude, sous la forme d'une métrique qui détermine numériquement les différences entre elles. L'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'information nécessaire pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. La divergence de Kullback-Liebler (équation \ref{dkl}) est largement utilisée, mais elle présente l'inconvénient de ne pas pouvoir être utilisée comme métrique dans certains cas, car il ne s'agit pas d'une mesure symétrique, $D_{KL}(p,q) \neq D_{KL}(q,p)$, elle ne satisfait pas à l'inégalité triangulaire et elle n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon. 469 469 L'évolution de l'algorithme de recommandation TS est établie par le changement des distributions de probabilité, mais au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude, sous la forme d'une métrique qui détermine numériquement les différences entre elles. L'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'information nécessaire pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. La divergence de Kullback-Liebler (équation \ref{dkl}) est largement utilisée, mais elle présente l'inconvénient de ne pas pouvoir être utilisée comme métrique dans certains cas, car il ne s'agit pas d'une mesure symétrique, $D_{KL}(p,q) \neq D_{KL}(q,p)$, elle ne satisfait pas à l'inégalité triangulaire et elle n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon.
470 470
\begin{equation} 471 471 \begin{equation}
D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx 472 472 D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx
\label{dkl} 473 473 \label{dkl}
\end{equation} 474 474 \end{equation}
475 475
La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler, à la différence qu'une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$, l'équation \ref{djs2} montre comment elle est calculée. La divergence de Jensen-Shannon est un mélange de distributions de probabilités fondé sur $p(x)$ et $q(x)$. 476 476 La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler, à la différence qu'une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$, l'équation \ref{djs2} montre comment elle est calculée. La divergence de Jensen-Shannon est un mélange de distributions de probabilités fondé sur $p(x)$ et $q(x)$.
477 477
%Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\ 478 478 %Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\
479 479
\begin{equation} 480 480 \begin{equation}
D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x)) 481 481 D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x))
\label{djs} 482 482 \label{djs}
\end{equation} 483 483 \end{equation}
484 484
\begin{equation} 485 485 \begin{equation}
m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x) 486 486 m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x)
\label{djs2} 487 487 \label{djs2}
\end{equation} 488 488 \end{equation}
489 489
Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine. 490 490 Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine.
491 491
La prédiction utilisée dans le modèle proposé est fondée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement à partir de cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle fondé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet fondé sur le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation dans le raisonnement à partir de cas. 492 492 La prédiction utilisée dans le modèle proposé est fondée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement à partir de cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle fondé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet fondé sur le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation dans le raisonnement à partir de cas.
493 493
\subsection{Modèle Proposé} 494 494 \subsection{Modèle Proposé}
495 495
Le modèle proposé est une intégration du modèle d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec le raisonnement à partir de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée. 496 496 Le modèle proposé est une intégration du modèle d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec le raisonnement à partir de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée.
497 497
L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en utilisant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec RàPC). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel1}, où l'on peut voir que les deux modèles TS et RàPC sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui est calculée avec l'expression \ref{eqMixModels_}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}. 498 498 L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en utilisant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec RàPC). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel1}, où l'on peut voir que les deux modèles TS et RàPC sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui est calculée avec l'expression \ref{eqMixModels_}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}.
499 499
\begin{figure} 500 500 \begin{figure}
\centering 501 501 \centering
\includegraphics[width=0.7\linewidth]{Figures/Model.png} 502 502 \includegraphics[width=0.7\linewidth]{Figures/Model.png}
\caption{Schéma de l'architecture du modèle proposé} 503 503 \caption{Schéma de l'architecture du modèle proposé}
\label{fig:Amodel1} 504 504 \label{fig:Amodel1}
\end{figure} 505 505 \end{figure}
506 506
La première étape est l'adaptation avec l'échantillonnage de Thompson, puis la prédiction ECBR-SMA et enfin la prise de décision à envoyer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité de l'apprenant et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées. 507 507 La première étape est l'adaptation avec l'échantillonnage de Thompson, puis la prédiction ECBR-SMA et enfin la prise de décision à envoyer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité de l'apprenant et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées.
508 508
\begin{table}[!ht] 509 509 \begin{table}[!ht]
\centering 510 510 \centering
\footnotesize 511 511 \footnotesize
\begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c} 512 512 \begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c}
ID&Type&Description&Domain\\ 513 513 ID&Type&Description&Domain\\
\hline 514 514 \hline
$\alpha$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\ 515 515 $\alpha$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\
$\beta$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\ 516 516 $\beta$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\
$t$&p&Temps défini comme itérations&$\mathbb{N}$\\ 517 517 $t$&p&Temps défini comme itérations&$\mathbb{N}$\\
$c$&p&Niveau de complexité&$\mathbb{N}$\\ 518 518 $c$&p&Niveau de complexité&$\mathbb{N}$\\
$x_c$&p&Mean grades for complexity level $c$&$\mathbb{R}$\\ 519 519 $x_c$&p&Mean grades for complexity level $c$&$\mathbb{R}$\\
$y_c$&p&Number of questions for complexity level $c$&$\mathbb{N}$\\ 520 520 $y_c$&p&Number of questions for complexity level $c$&$\mathbb{N}$\\
$r$&f&Recommender metric function&$[0,1] \in \mathbb{R}$\\ 521 521 $r$&f&Recommender metric function&$[0,1] \in \mathbb{R}$\\
$k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ 522 522 $k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\
$vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\ 523 523 $vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\
$TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ 524 524 $TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\
$TSN_c$&v&Normalization de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\ 525 525 $TSN_c$&v&Normalization de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\
$ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\ 526 526 $ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\
$p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\ 527 527 $p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\
$D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\ 528 528 $D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\
529 529
\end{tabular} 530 530 \end{tabular}
\caption{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées} 531 531 \caption{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées}
\label{tabvp} 532 532 \label{tabvp}
\end{table} 533 533 \end{table}
534 534
L'intégration se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le modèle TS (équation \ref{IntEq1_}), une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée comme indiqué dans l'équation \ref{IntEq2_}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par le modèle ESCBR-SMA, comme le montre l'équation \ref{eqMixModels_}. 535 535 L'intégration se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le modèle TS (équation \ref{IntEq1_}), une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée comme indiqué dans l'équation \ref{IntEq2_}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par le modèle ESCBR-SMA, comme le montre l'équation \ref{eqMixModels_}.
536 536
\begin{equation} 537 537 \begin{equation}
TS_c=rand(Beta(\alpha_c, \beta_c)) 538 538 TS_c=rand(Beta(\alpha_c, \beta_c))
\label{IntEq1_} 539 539 \label{IntEq1_}
\end{equation} 540 540 \end{equation}
541 541
\begin{equation} 542 542 \begin{equation}
TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i} 543 543 TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i}
\label{IntEq2_} 544 544 \label{IntEq2_}
\end{equation} 545 545 \end{equation}
546 546
\begin{equation} 547 547 \begin{equation}
n_c=argmax_c(TSN_c*ESCBR_c) 548 548 n_c=argmax_c(TSN_c*ESCBR_c)
\label{eqMixModels_} 549 549 \label{eqMixModels_}
\end{equation} 550 550 \end{equation}
551 551
Avec les valeurs finales calculées pour chaque niveau de complexité, le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels_}). Le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels_}). 552 552 Avec les valeurs finales calculées pour chaque niveau de complexité, le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels_}). Le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels_}).
553 553
\subsection{Résultats et Discussion} 554 554 \subsection{Résultats et Discussion}
555 555
Cette section présente la description de la base de données et les paramètres utilisés pour mesurer la précision, la performance et la progression des connaissances, les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'AI-VT. Cette section présente les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'AI-VT. 556 556 Cette section présente la description de la base de données et les paramètres utilisés pour mesurer la précision, la performance et la progression des connaissances, les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'AI-VT. Cette section présente les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'AI-VT.
557 557
La base de données a été générée avec la distribution logit-normale pour simuler les notes des apprenants, car il s'agit d'un bon modèle pour se rapprocher du monde réel. La base de données représente les notes et les temps de réponse d'un apprenant pour cinq questions à chaque niveau de complexité. 558 558 La base de données a été générée avec la distribution logit-normale pour simuler les notes des apprenants, car il s'agit d'un bon modèle pour se rapprocher du monde réel. La base de données représente les notes et les temps de réponse d'un apprenant pour cinq questions à chaque niveau de complexité.
559 559
Le principal inconvénient de ce système de validation « en situation réelle » est la difficulté de la collecte des données. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulé, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment et que les données peuvent être incomplètes \cite{badier:hal-04092828}. 560 560 Le principal inconvénient de ce système de validation « en situation réelle » est la difficulté de la collecte des données. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulé, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment et que les données peuvent être incomplètes \cite{badier:hal-04092828}.
561 561
Quatre tests différents ont été effectués pour démontrer les avantages de l'intégration de la TS et de la RàPC dans les EIAH. Le premier est l'utilisation du RàPC pour la régression avec une base de données d'apprenants afin de démontrer la capacité du modèle à prédire les notes à différents niveaux de complexité, le deuxième est l'évaluation de la progression des connaissances avec TS afin de déterminer l'efficacité du modèle dans la recommandation personnalisée pour chaque apprenant, La troisième est la comparaison entre les modèles de recommandation BKT et TS afin d'établir la performance du modèle TS en utilisant BKT comme modèle de base et enfin, la comparaison entre TS seul et TS avec ESCBR-SMA pour démontrer que l'intégration entre les deux modèles améliore l'ensemble du système de recommandation dans AI-VT. 562 562 Quatre tests différents ont été effectués pour démontrer les avantages de l'intégration de la TS et de la RàPC dans les EIAH. Le premier est l'utilisation du RàPC pour la régression avec une base de données d'apprenants afin de démontrer la capacité du modèle à prédire les notes à différents niveaux de complexité, le deuxième est l'évaluation de la progression des connaissances avec TS afin de déterminer l'efficacité du modèle dans la recommandation personnalisée pour chaque apprenant, La troisième est la comparaison entre les modèles de recommandation BKT et TS afin d'établir la performance du modèle TS en utilisant BKT comme modèle de base et enfin, la comparaison entre TS seul et TS avec ESCBR-SMA pour démontrer que l'intégration entre les deux modèles améliore l'ensemble du système de recommandation dans AI-VT.
563 563
\subsubsection{Régression dans la base de données des apprenants avec ESCBR-SMA} 564 564 \subsubsection{Régression dans la base de données des apprenants avec ESCBR-SMA}
565 565
Le SMA utilise le raisonnement bayésien, ce qui permet aux agents d'apprendre des données et des interactions au cours de l'exécution et de l'exploration. 566 566 Le SMA utilise le raisonnement bayésien, ce qui permet aux agents d'apprendre des données et des interactions au cours de l'exécution et de l'exploration.
567 567
L'algorithme utilise une fonction noyau pour obtenir la meilleure approximation de la solution du nouveau problème, le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions. Le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions \cite{doi:10.1137/23M1592420}. 568 568 L'algorithme utilise une fonction noyau pour obtenir la meilleure approximation de la solution du nouveau problème, le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions. Le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions \cite{doi:10.1137/23M1592420}.
569 569
La première série de tests est définie sous la forme de différents scénarios, comme le montre le tableau \ref{tab:scenarios}. Dans le scénario 1 (E1), il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario 2 (E2) contient les notes de 8 questions et l'objectif est de prédire la note de 9 questions dans le même niveau de complexité. Le scénario 3 (E3) contient les données permettant de prédire le passage à un niveau de complexité supérieur après 4 questions. Le scénario 4 (E4) contient 4 questions et la prédiction de 2 notes dans un niveau de complexité supérieur. 570 570 La première série de tests est définie sous la forme de différents scénarios, comme le montre le tableau \ref{tab:scenarios}. Dans le scénario 1 (E1), il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario 2 (E2) contient les notes de 8 questions et l'objectif est de prédire la note de 9 questions dans le même niveau de complexité. Le scénario 3 (E3) contient les données permettant de prédire le passage à un niveau de complexité supérieur après 4 questions. Le scénario 4 (E4) contient 4 questions et la prédiction de 2 notes dans un niveau de complexité supérieur.
571 571
\begin{table}[!ht] 572 572 \begin{table}[!ht]
\centering 573 573 \centering
\begin{tabular}{ccc} 574 574 \begin{tabular}{ccc}
Scenario&Features&Output Dimension\\ 575 575 Scenario&Features&Output Dimension\\
\hline 576 576 \hline
E1 & 5 & 1\\ 577 577 E1 & 5 & 1\\
E2 & 15& 1\\ 578 578 E2 & 15& 1\\
E3 & 9 & 1\\ 579 579 E3 & 9 & 1\\
E4 & 9 & 2\\ 580 580 E4 & 9 & 2\\
\end{tabular} 581 581 \end{tabular}
\caption{Description des scénarios} 582 582 \caption{Description des scénarios}
\label{tab:scenarios} 583 583 \label{tab:scenarios}
\end{table} 584 584 \end{table}
585 585
Le modèle a été comparé à neuf algorithmes bien connus utilisés pour résoudre les problèmes de régression. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}. 586 586 Le modèle a été comparé à neuf algorithmes bien connus utilisés pour résoudre les problèmes de régression. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}.
587 587
\begin{table}[!ht] 588 588 \begin{table}[!ht]
\centering 589 589 \centering
\footnotesize 590 590 \footnotesize
\begin{tabular}{ll|ll} 591 591 \begin{tabular}{ll|ll}
ID&Algorithm&ID&Algorithm\\ 592 592 ID&Algorithm&ID&Algorithm\\
\hline 593 593 \hline
A1&Linear Regression&A6&Polinomial Regression\\ 594 594 A1&Linear Regression&A6&Polinomial Regression\\
A2&K-Nearest Neighbor&A7&Ridge Regression\\ 595 595 A2&K-Nearest Neighbor&A7&Ridge Regression\\
A3&Decision Tree&A8&Lasso Regression\\ 596 596 A3&Decision Tree&A8&Lasso Regression\\
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ 597 597 A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\
A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\\ 598 598 A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\\
\end{tabular} 599 599 \end{tabular}
\caption{Liste des algorithmes évalués } 600 600 \caption{Liste des algorithmes évalués }
\label{tabAlgs} 601 601 \label{tabAlgs}
\end{table} 602 602 \end{table}
603 603
Les algorithmes ont été évalués à l'aide de trois mesures (Root Mean Squared Error - RMSE, Median Absolute Error - MedAE, Mean Absolute Error - MAE), dont les résultats figurent dans le tableau \ref{tab:results}, où l'on constate que l'algorithme proposé obtient de meilleurs résultats que les autres algorithmes avec lesquels il a été comparé, sauf dans les cas E1(MedAE), E1(MAE), E2(MedAE), E2(MAE), E3 et E4(MedAE) où les meilleurs résultats sont obtenus par l'algorithme A9, mais l'algorithme proposé occupe la deuxième place dans ces cas avec des résultats très proches. Il est possible de conclure que l'intégration de plusieurs algorithmes de recherche et de génération de solutions dans le cadre des paradigmes RàPC et Stacking est efficace dans le cas de l'application à la prédiction des notes des apprenants. 604 604 Les algorithmes ont été évalués à l'aide de trois mesures (Root Mean Squared Error - RMSE, Median Absolute Error - MedAE, Mean Absolute Error - MAE), dont les résultats figurent dans le tableau \ref{tab:results}, où l'on constate que l'algorithme proposé obtient de meilleurs résultats que les autres algorithmes avec lesquels il a été comparé, sauf dans les cas E1(MedAE), E1(MAE), E2(MedAE), E2(MAE), E3 et E4(MedAE) où les meilleurs résultats sont obtenus par l'algorithme A9, mais l'algorithme proposé occupe la deuxième place dans ces cas avec des résultats très proches. Il est possible de conclure que l'intégration de plusieurs algorithmes de recherche et de génération de solutions dans le cadre des paradigmes RàPC et Stacking est efficace dans le cas de l'application à la prédiction des notes des apprenants.
605 605
\begin{table}[!ht] 606 606 \begin{table}[!ht]
\centering 607 607 \centering
\footnotesize 608 608 \footnotesize
\begin{tabular}{c|cccccccccc} 609 609 \begin{tabular}{c|cccccccccc}
&\multicolumn{10}{c}{\textbf{Algorithme}}\\ 610 610 &\multicolumn{10}{c}{\textbf{Algorithme}}\\
\hline 611 611 \hline
& A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ 612 612 & A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
\textbf{Scenario (Metrique)}\\ 613 613 \textbf{Scenario (Metrique)}\\
\hline 614 614 \hline
E1 (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\ 615 615 E1 (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\
E1 (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\ 616 616 E1 (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\
E1 (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\ 617 617 E1 (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\
\hline 618 618 \hline
E2 (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\ 619 619 E2 (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\
E2 (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\ 620 620 E2 (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\
E2 (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\ 621 621 E2 (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\
\hline 622 622 \hline
E3 (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\ 623 623 E3 (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\
E3 (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\ 624 624 E3 (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\
E3 (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\ 625 625 E3 (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\
\hline 626 626 \hline
E4 (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\ 627 627 E4 (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\
E4 (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\ 628 628 E4 (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\
E4 (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\ 629 629 E4 (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\
\end{tabular} 630 630 \end{tabular}
\caption{Résultats de la régression pour la base de données des apprenants avec 100 exécutions} 631 631 \caption{Résultats de la régression pour la base de données des apprenants avec 100 exécutions}
\label{tab:results} 632 632 \label{tab:results}
\end{table} 633 633 \end{table}
634 634
\subsubsection{Progression des connaissances} 635 635 \subsubsection{Progression des connaissances}
636 636
Le modèle de recommandation TS est fondé sur le paradigme bayésien, ce qui est très utile lorsque les données sont limitées et l'incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ fois a été utilisée comme second test. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). 637 637 Le modèle de recommandation TS est fondé sur le paradigme bayésien, ce qui est très utile lorsque les données sont limitées et l'incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ fois a été utilisée comme second test. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
638 638
%\begin{equation} 639 639 %\begin{equation}
\begin{multline} 640 640 \begin{multline}
k_{t,c}=\frac{1}{2} 641 641 k_{t,c}=\frac{1}{2}
\int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx 642 642 \int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx
\\ 643 643 \\
+\frac{1}{2} 644 644 +\frac{1}{2}
\int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx 645 645 \int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx
\label{eqprog1} 646 646 \label{eqprog1}
\end{multline} 647 647 \end{multline}
%\end{equation} 648 648 %\end{equation}
649 649
\begin{multline} 650 650 \begin{multline}
m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\ 651 651 m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\
+\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right ) 652 652 +\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right )
%\end{equation} 653 653 %\end{equation}
\label{eqprog2} 654 654 \label{eqprog2}
\end{multline} 655 655 \end{multline}
656 656
La progression totale des connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). en utilisant l'évaluation de la progression de la variabilité (équation \ref{eqVarP}). 657 657 La progression totale des connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). en utilisant l'évaluation de la progression de la variabilité (équation \ref{eqVarP}).
658 658
\begin{equation} 659 659 \begin{equation}
vk_{t,c}=\begin{cases} 660 660 vk_{t,c}=\begin{cases}
D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\ 661 661 D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\
-D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise 662 662 -D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise
\end{cases} 663 663 \end{cases}
\label{eqVarP} 664 664 \label{eqVarP}
\end{equation} 665 665 \end{equation}
666 666
\begin{equation} 667 667 \begin{equation}
k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0} 668 668 k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0}
\begin{cases} 669 669 \begin{cases}
\alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\ 670 670 \alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\
0;&Otherwise 671 671 0;&Otherwise
\end{cases} 672 672 \end{cases}
\label{eqTEK} 673 673 \label{eqTEK}
\end{equation} 674 674 \end{equation}
675 675
\begin{figure}[!ht] 676 676 \begin{figure}[!ht]
\centering 677 677 \centering
\includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg} 678 678 \includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg}
\caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon} 679 679 \caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon}
\label{fig:evolution} 680 680 \label{fig:evolution}
\end{figure} 681 681 \end{figure}
682 682
La figure \ref{fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une seule séance de formation. Entre la première et la dernière question de la même séance, tous les apprenants ont statistiquement augmenté leur niveau de connaissance puisque la moyenne a augmenté, la variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants, à partir de là la variabilité diminue et la moyenne augmente. La figure {fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une même séance de formation. 683 683 La figure \ref{fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une seule séance de formation. Entre la première et la dernière question de la même séance, tous les apprenants ont statistiquement augmenté leur niveau de connaissance puisque la moyenne a augmenté, la variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants, à partir de là la variabilité diminue et la moyenne augmente.
684 684
\subsubsection{Comparaison entre TS et BKT} 685 685 \subsubsection{Comparaison entre TS et BKT}
686 686
L'évolution du système de recommandation TS est testée en comparaison avec BKT, la figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le modèle TS génère moins de variabilité que BKT, mais si est faite la comparaison des moyennes générées par chaque question, l'évolution est très similaire. La figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent au cours de la même séance. 687 687 L'évolution du système de recommandation TS est testée en comparaison avec BKT, la figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le modèle TS génère moins de variabilité que BKT, mais si est faite la comparaison des moyennes générées par chaque question, l'évolution est très similaire. La figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent au cours de la même séance.
688 688
\begin{figure}[!ht] 689 689 \begin{figure}[!ht]
\centering 690 690 \centering
\includegraphics[width=\textwidth]{Figures/GradesEv.jpg} 691 691 \includegraphics[width=\textwidth]{Figures/GradesEv.jpg}
\caption{Comparaison de l'évolution des notes entre les algorithmes BKT et TS} 692 692 \caption{Comparaison de l'évolution des notes entre les algorithmes BKT et TS}