Commit fc9e19ce1d686001d865a81448da32bdcd71d5f9
1 parent
4cc35ff0a7
Exists in
main
version all ok...
Showing 6 changed files with 19 additions and 17 deletions Side-by-side Diff
Figures/Model.png
View file @
fc9e19c
Figures/ModelHawkes.png
View file @
fc9e19c
chapters/TS.tex
View file @
fc9e19c
... | ... | @@ -21,7 +21,7 @@ |
21 | 21 | |
22 | 22 | L'algorithme proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT. Puis il adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. |
23 | 23 | |
24 | -La famille de distributions de probabilité Beta est utilisée pour définir dynamiquement le niveau de complexité (équation \ref{eqBeta}) à proposer à l'apprenant. Cet algorithme permet de recommander des niveaux de complexité non contigus et dans lesquels des lacunes ont été détectées. Les paramètres initiaux des distributions de probabilité peuvent forcer le système à recommander des niveaux de complexité contigus (juste inférieur ou supérieur). | |
24 | +La famille de distributions de probabilité \textit{Beta} est utilisée pour définir dynamiquement le niveau de complexité (équation \ref{eqBeta}) à proposer à l'apprenant. Cet algorithme permet de recommander des niveaux de complexité non contigus et dans lesquels des lacunes ont été détectées. Les paramètres initiaux des distributions de probabilité peuvent forcer le système à recommander des niveaux de complexité contigus (juste inférieur ou supérieur). | |
25 | 25 | |
26 | 26 | \begin{equation} |
27 | 27 | Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} |
... | ... | @@ -67,7 +67,7 @@ |
67 | 67 | \label{eqsGT} |
68 | 68 | \end{equation} |
69 | 69 | |
70 | -Dans cet algorithme, la variable de seuil de grade $g_t$ détermine la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les niveaux de complexité des exercices proposés à l'apprenant sont calculés par récompense inverse selon les équations \ref{eqgtc} et \ref{eqltc}. Chaque niveau de complexité est associé à une distribution de probabilité Beta avec des valeurs initiales $\alpha$ et $\beta$ prédéfinies. | |
70 | +Dans cet algorithme, la variable de seuil de grade $g_t$ détermine la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les niveaux de complexité des exercices proposés à l'apprenant sont calculés par récompense inverse selon les équations \ref{eqgtc} et \ref{eqltc}. Chaque niveau de complexité est associé à une distribution de probabilité \textit{Beta} avec des valeurs initiales $\alpha$ et $\beta$ prédéfinies. | |
71 | 71 | |
72 | 72 | \begin{equation} |
73 | 73 | ng_c \ge g_t \rightarrow |
... | ... | @@ -101,7 +101,7 @@ |
101 | 101 | \State Soit le niveau de complexité $i$ |
102 | 102 | \State $ng_i=g_i- \left(g_i * \lambda * \frac{t_i}{t_m} \right)$ \Comment{eq \ref{eqsGT}} |
103 | 103 | \State Calculs des paramètres $\alpha_i$ et $\beta_i$ \Comment{eq \ref{eqgtc} et eq \ref{eqltc}} |
104 | - \State Choisir $\theta_c$ selon la distribution de probabilité Beta \Comment{$\forall c, \theta_c = Beta(\alpha_c, \beta_c)$} | |
104 | + \State Choisir $\theta_c$ selon la distribution de probabilité \textit{Beta} \Comment{$\forall c, \theta_c = Beta(\alpha_c, \beta_c)$} | |
105 | 105 | \State $ncl = max(\mathbb{E}[\theta_c]), \forall c$ |
106 | 106 | \EndFor |
107 | 107 | \end{algorithmic} |
... | ... | @@ -361,7 +361,7 @@ |
361 | 361 | \label{eqbkt3} |
362 | 362 | \end{equation} |
363 | 363 | |
364 | -Le module de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. Nous nous intéressons ici plus particulièrement à l'échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Beta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}. | |
364 | +Le module de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. Nous nous intéressons ici plus particulièrement à l'échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions \textit{Beta} (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}. | |
365 | 365 | |
366 | 366 | %\begin{equation} |
367 | 367 | % Beta(x,\alpha,\beta)=\begin{cases} |
... | ... | @@ -375,7 +375,7 @@ |
375 | 375 | \label{fbeta} |
376 | 376 | \end{equation} |
377 | 377 | |
378 | -En utilisant la définition formelle de la fonction $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant certaines variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}). | |
378 | +En utilisant la définition formelle de la fonction $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant certaines variables, une nouvelle expression de la fonction \textit{Beta} est obtenue (équation \ref{f2beta}). | |
379 | 379 | |
380 | 380 | \begin{equation} |
381 | 381 | \Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx |
... | ... | @@ -430,7 +430,7 @@ |
430 | 430 | \label{f6Beta} |
431 | 431 | \end{equation} |
432 | 432 | |
433 | -Finalement, la famille de fonctions de distribution Beta peut être calculée selon l'équation \ref{f7Beta}. | |
433 | +Finalement, la famille de fonctions de distribution \textit{Beta} peut être calculée selon l'équation \ref{f7Beta}. | |
434 | 434 | |
435 | 435 | \begin{equation} |
436 | 436 | Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt |
... | ... | @@ -487,8 +487,8 @@ |
487 | 487 | \begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c} |
488 | 488 | ID&Type&Description&Domaine\\ |
489 | 489 | \hline |
490 | - $\alpha$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\ | |
491 | - $\beta$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\ | |
490 | + $\alpha$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\ | |
491 | + $\beta$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\ | |
492 | 492 | $t$&p&Numéro de l'itération&$\mathbb{N}$\\ |
493 | 493 | $c$&p&Niveau de complexité&$\mathbb{N}$\\ |
494 | 494 | $x_c$&p&Notes moyennes par niveau de complexité $c$&$\mathbb{R}$\\ |
... | ... | @@ -606,7 +606,7 @@ |
606 | 606 | |
607 | 607 | \subsubsection{Progression des connaissances} |
608 | 608 | |
609 | -L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté aux problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). | |
609 | +L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté aux problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution \textit{Beta} en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). | |
610 | 610 | |
611 | 611 | %\begin{equation} |
612 | 612 | \begin{multline} |
... | ... | @@ -762,7 +762,7 @@ |
762 | 762 | |
763 | 763 | La première étape est l'adaptation avec l'échantillonnage de Thompson et la prédiction de l'ECBR-SMA. Celle-ci est suivie par la prise de décision pour l'envoi à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité pour l'apprenant et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé et les mesures employées. |
764 | 764 | |
765 | -Après la sélection du niveau de complexité, toutes les distributions de probabilité sont mises à jour selon le processus de Hawkes (équation \ref{hp1}) pour chaque paramètre $\alpha$ et $\beta$ en utilisant la fonction d'intensité définie constante (équations \ref{hp21} et \ref{hp22}) et la fonction d'excitation (équation \ref{hp30} avec des valeurs $\alpha=10$ et $\beta=0.02$ équation \ref{hp31}), afin de simuler la courbe d'oubli dans l'évolution de la distribution de probabilité Beta. | |
765 | +Après la sélection du niveau de complexité, toutes les distributions de probabilité sont mises à jour selon le processus de Hawkes (équation \ref{hp1}) pour chaque paramètre $\alpha$ et $\beta$ en utilisant la fonction d'intensité définie constante (équations \ref{hp21} et \ref{hp22}) et la fonction d'excitation (équation \ref{hp30} avec des valeurs $\alpha=10$ et $\beta=0.02$ équation \ref{hp31}), afin de simuler la courbe d'oubli dans l'évolution de la distribution de probabilité \textit{Beta}. | |
766 | 766 | |
767 | 767 | \begin{equation} |
768 | 768 | \lambda(t)=\mu(t)+\sum_{t_i<t} \phi(t-t_i) |
... | ... | @@ -859,7 +859,7 @@ |
859 | 859 | \label{tab:my_label} |
860 | 860 | \end{table} |
861 | 861 | |
862 | -La variance (figure \ref{fig:vars}) montre qu'avec le processus de Hawkes, les valeurs sont maintenues autour de la configuration initiale, ce qui permet une plus grande adaptabilité aux changements dynamiques des connaissances qui se produisent dans le processus d'apprentissage. Étant donné que la distribution de probabilité Beta converge rapidement vers une valeur unique, plus on obtient de valeurs, plus la variance est faible et s'il y a un changement dans la valeur de convergence, la distribution a besoin de plus de données pour converger vers la nouvelle valeur. Ce dernier comportement peut être expliqué par le fait que les changements dans la moyenne sont proportionnels à la valeur de la variance avec un pas de changement constant pour les paramètres. Dans le cas de la modélisation du processus d'apprentissage, il est donc préférable de maintenir une valeur de variance relativement élevée pour faciliter l'adaptation aux changements imprévus. | |
862 | +La variance (figure \ref{fig:vars}) montre qu'avec le processus de Hawkes, les valeurs sont maintenues autour de la configuration initiale, ce qui permet une plus grande adaptabilité aux changements dynamiques des connaissances qui se produisent dans le processus d'apprentissage. Étant donné que la distribution de probabilité \textit{Beta} converge rapidement vers une valeur unique, plus on obtient de valeurs, plus la variance est faible et s'il y a un changement dans la valeur de convergence, la distribution a besoin de plus de données pour converger vers la nouvelle valeur. Ce dernier comportement peut être expliqué par le fait que les changements dans la moyenne sont proportionnels à la valeur de la variance avec un pas de changement constant pour les paramètres. Dans le cas de la modélisation du processus d'apprentissage, il est donc préférable de maintenir une valeur de variance relativement élevée pour faciliter l'adaptation aux changements imprévus. | |
863 | 863 | |
864 | 864 | \begin{figure}[!ht] |
865 | 865 | \centering |
main.log
View file @
fc9e19c
1 | -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 18 JUL 2025 12:46 | |
1 | +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 18 JUL 2025 12:58 | |
2 | 2 | entering extended mode |
3 | 3 | restricted \write18 enabled. |
4 | 4 | %&-line parsing enabled. |
... | ... | @@ -1862,6 +1862,8 @@ |
1862 | 1862 | <use Figures/Model.png> |
1863 | 1863 | Package pdftex.def Info: Figures/Model.png used on input line 477. |
1864 | 1864 | (pdftex.def) Requested size: 299.20076pt x 246.23834pt. |
1865 | +LaTeX Font Info: Font shape `T1/phv/m/it' in size <9> not available | |
1866 | +(Font) Font shape `T1/phv/m/sl' tried instead on input line 490. | |
1865 | 1867 | [87 <./Figures/Model.png>] [88] |
1866 | 1868 | Overfull \hbox (14.1589pt too wide) in paragraph at lines 581--603 |
1867 | 1869 | [][] |
1868 | 1870 | |
... | ... | @@ -2128,11 +2130,11 @@ |
2128 | 2130 | (rerunfilecheck) Checksum: A06CA241E4961E00F708D1DB761D768D;24244. |
2129 | 2131 | ) |
2130 | 2132 | Here is how much of TeX's memory you used: |
2131 | - 21559 strings out of 476038 | |
2132 | - 370041 string characters out of 5790170 | |
2133 | + 21562 strings out of 476038 | |
2134 | + 370074 string characters out of 5790170 | |
2133 | 2135 | 1904785 words of memory out of 5000000 |
2134 | - 40976 multiletter control sequences out of 15000+600000 | |
2135 | - 619032 words of font info for 151 fonts, out of 8000000 for 9000 | |
2136 | + 40978 multiletter control sequences out of 15000+600000 | |
2137 | + 622048 words of font info for 153 fonts, out of 8000000 for 9000 | |
2136 | 2138 | 1141 hyphenation exceptions out of 8191 |
2137 | 2139 | 126i,17n,133p,1979b,732s stack positions out of 10000i,1000n,20000p,200000b,200000s |
2138 | 2140 | |
... | ... | @@ -2162,7 +2164,7 @@ |
2162 | 2164 | lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/ |
2163 | 2165 | uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf |
2164 | 2166 | b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb> |
2165 | -Output written on main.pdf (124 pages, 5444367 bytes). | |
2167 | +Output written on main.pdf (124 pages, 5444640 bytes). | |
2166 | 2168 | PDF statistics: |
2167 | 2169 | 1853 PDF objects out of 2073 (max. 8388607) |
2168 | 2170 | 1584 compressed objects within 16 object streams |
main.pdf
View file @
fc9e19c
main.synctex.gz
View file @
fc9e19c