Commit fc9e19ce1d686001d865a81448da32bdcd71d5f9

Authored by dsotofor
1 parent 4cc35ff0a7
Exists in main

version all ok...

Showing 6 changed files with 19 additions and 17 deletions Side-by-side Diff

Figures/Model.png View file @ fc9e19c

16.4 KB | W: | H:

16.4 KB | W: | H:

  • 2-up
  • Swipe
  • Onion skin
Figures/ModelHawkes.png View file @ fc9e19c

21.4 KB | W: | H:

21.6 KB | W: | H:

  • 2-up
  • Swipe
  • Onion skin
chapters/TS.tex View file @ fc9e19c
... ... @@ -21,7 +21,7 @@
21 21  
22 22 L'algorithme proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT. Puis il adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie.
23 23  
24   -La famille de distributions de probabilité Beta est utilisée pour définir dynamiquement le niveau de complexité (équation \ref{eqBeta}) à proposer à l'apprenant. Cet algorithme permet de recommander des niveaux de complexité non contigus et dans lesquels des lacunes ont été détectées. Les paramètres initiaux des distributions de probabilité peuvent forcer le système à recommander des niveaux de complexité contigus (juste inférieur ou supérieur).
  24 +La famille de distributions de probabilité \textit{Beta} est utilisée pour définir dynamiquement le niveau de complexité (équation \ref{eqBeta}) à proposer à l'apprenant. Cet algorithme permet de recommander des niveaux de complexité non contigus et dans lesquels des lacunes ont été détectées. Les paramètres initiaux des distributions de probabilité peuvent forcer le système à recommander des niveaux de complexité contigus (juste inférieur ou supérieur).
25 25  
26 26 \begin{equation}
27 27 Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1}
... ... @@ -67,7 +67,7 @@
67 67 \label{eqsGT}
68 68 \end{equation}
69 69  
70   -Dans cet algorithme, la variable de seuil de grade $g_t$ détermine la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les niveaux de complexité des exercices proposés à l'apprenant sont calculés par récompense inverse selon les équations \ref{eqgtc} et \ref{eqltc}. Chaque niveau de complexité est associé à une distribution de probabilité Beta avec des valeurs initiales $\alpha$ et $\beta$ prédéfinies.
  70 +Dans cet algorithme, la variable de seuil de grade $g_t$ détermine la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les niveaux de complexité des exercices proposés à l'apprenant sont calculés par récompense inverse selon les équations \ref{eqgtc} et \ref{eqltc}. Chaque niveau de complexité est associé à une distribution de probabilité \textit{Beta} avec des valeurs initiales $\alpha$ et $\beta$ prédéfinies.
71 71  
72 72 \begin{equation}
73 73 ng_c \ge g_t \rightarrow
... ... @@ -101,7 +101,7 @@
101 101 \State Soit le niveau de complexité $i$
102 102 \State $ng_i=g_i- \left(g_i * \lambda * \frac{t_i}{t_m} \right)$ \Comment{eq \ref{eqsGT}}
103 103 \State Calculs des paramètres $\alpha_i$ et $\beta_i$ \Comment{eq \ref{eqgtc} et eq \ref{eqltc}}
104   - \State Choisir $\theta_c$ selon la distribution de probabilité Beta \Comment{$\forall c, \theta_c = Beta(\alpha_c, \beta_c)$}
  104 + \State Choisir $\theta_c$ selon la distribution de probabilité \textit{Beta} \Comment{$\forall c, \theta_c = Beta(\alpha_c, \beta_c)$}
105 105 \State $ncl = max(\mathbb{E}[\theta_c]), \forall c$
106 106 \EndFor
107 107 \end{algorithmic}
... ... @@ -361,7 +361,7 @@
361 361 \label{eqbkt3}
362 362 \end{equation}
363 363  
364   -Le module de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. Nous nous intéressons ici plus particulièrement à l'échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Beta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}.
  364 +Le module de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. Nous nous intéressons ici plus particulièrement à l'échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions \textit{Beta} (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}.
365 365  
366 366 %\begin{equation}
367 367 % Beta(x,\alpha,\beta)=\begin{cases}
... ... @@ -375,7 +375,7 @@
375 375 \label{fbeta}
376 376 \end{equation}
377 377  
378   -En utilisant la définition formelle de la fonction $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant certaines variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}).
  378 +En utilisant la définition formelle de la fonction $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant certaines variables, une nouvelle expression de la fonction \textit{Beta} est obtenue (équation \ref{f2beta}).
379 379  
380 380 \begin{equation}
381 381 \Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx
... ... @@ -430,7 +430,7 @@
430 430 \label{f6Beta}
431 431 \end{equation}
432 432  
433   -Finalement, la famille de fonctions de distribution Beta peut être calculée selon l'équation \ref{f7Beta}.
  433 +Finalement, la famille de fonctions de distribution \textit{Beta} peut être calculée selon l'équation \ref{f7Beta}.
434 434  
435 435 \begin{equation}
436 436 Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
... ... @@ -487,8 +487,8 @@
487 487 \begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c}
488 488 ID&Type&Description&Domaine\\
489 489 \hline
490   - $\alpha$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\
491   - $\beta$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\
  490 + $\alpha$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\
  491 + $\beta$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\
492 492 $t$&p&Numéro de l'itération&$\mathbb{N}$\\
493 493 $c$&p&Niveau de complexité&$\mathbb{N}$\\
494 494 $x_c$&p&Notes moyennes par niveau de complexité $c$&$\mathbb{R}$\\
... ... @@ -606,7 +606,7 @@
606 606  
607 607 \subsubsection{Progression des connaissances}
608 608  
609   -L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté aux problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
  609 +L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté aux problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution \textit{Beta} en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
610 610  
611 611 %\begin{equation}
612 612 \begin{multline}
... ... @@ -762,7 +762,7 @@
762 762  
763 763 La première étape est l'adaptation avec l'échantillonnage de Thompson et la prédiction de l'ECBR-SMA. Celle-ci est suivie par la prise de décision pour l'envoi à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité pour l'apprenant et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé et les mesures employées.
764 764  
765   -Après la sélection du niveau de complexité, toutes les distributions de probabilité sont mises à jour selon le processus de Hawkes (équation \ref{hp1}) pour chaque paramètre $\alpha$ et $\beta$ en utilisant la fonction d'intensité définie constante (équations \ref{hp21} et \ref{hp22}) et la fonction d'excitation (équation \ref{hp30} avec des valeurs $\alpha=10$ et $\beta=0.02$ équation \ref{hp31}), afin de simuler la courbe d'oubli dans l'évolution de la distribution de probabilité Beta.
  765 +Après la sélection du niveau de complexité, toutes les distributions de probabilité sont mises à jour selon le processus de Hawkes (équation \ref{hp1}) pour chaque paramètre $\alpha$ et $\beta$ en utilisant la fonction d'intensité définie constante (équations \ref{hp21} et \ref{hp22}) et la fonction d'excitation (équation \ref{hp30} avec des valeurs $\alpha=10$ et $\beta=0.02$ équation \ref{hp31}), afin de simuler la courbe d'oubli dans l'évolution de la distribution de probabilité \textit{Beta}.
766 766  
767 767 \begin{equation}
768 768 \lambda(t)=\mu(t)+\sum_{t_i<t} \phi(t-t_i)
... ... @@ -859,7 +859,7 @@
859 859 \label{tab:my_label}
860 860 \end{table}
861 861  
862   -La variance (figure \ref{fig:vars}) montre qu'avec le processus de Hawkes, les valeurs sont maintenues autour de la configuration initiale, ce qui permet une plus grande adaptabilité aux changements dynamiques des connaissances qui se produisent dans le processus d'apprentissage. Étant donné que la distribution de probabilité Beta converge rapidement vers une valeur unique, plus on obtient de valeurs, plus la variance est faible et s'il y a un changement dans la valeur de convergence, la distribution a besoin de plus de données pour converger vers la nouvelle valeur. Ce dernier comportement peut être expliqué par le fait que les changements dans la moyenne sont proportionnels à la valeur de la variance avec un pas de changement constant pour les paramètres. Dans le cas de la modélisation du processus d'apprentissage, il est donc préférable de maintenir une valeur de variance relativement élevée pour faciliter l'adaptation aux changements imprévus.
  862 +La variance (figure \ref{fig:vars}) montre qu'avec le processus de Hawkes, les valeurs sont maintenues autour de la configuration initiale, ce qui permet une plus grande adaptabilité aux changements dynamiques des connaissances qui se produisent dans le processus d'apprentissage. Étant donné que la distribution de probabilité \textit{Beta} converge rapidement vers une valeur unique, plus on obtient de valeurs, plus la variance est faible et s'il y a un changement dans la valeur de convergence, la distribution a besoin de plus de données pour converger vers la nouvelle valeur. Ce dernier comportement peut être expliqué par le fait que les changements dans la moyenne sont proportionnels à la valeur de la variance avec un pas de changement constant pour les paramètres. Dans le cas de la modélisation du processus d'apprentissage, il est donc préférable de maintenir une valeur de variance relativement élevée pour faciliter l'adaptation aux changements imprévus.
863 863  
864 864 \begin{figure}[!ht]
865 865 \centering
1   -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 18 JUL 2025 12:46
  1 +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 18 JUL 2025 12:58
2 2 entering extended mode
3 3 restricted \write18 enabled.
4 4 %&-line parsing enabled.
... ... @@ -1862,6 +1862,8 @@
1862 1862 <use Figures/Model.png>
1863 1863 Package pdftex.def Info: Figures/Model.png used on input line 477.
1864 1864 (pdftex.def) Requested size: 299.20076pt x 246.23834pt.
  1865 +LaTeX Font Info: Font shape `T1/phv/m/it' in size <9> not available
  1866 +(Font) Font shape `T1/phv/m/sl' tried instead on input line 490.
1865 1867 [87 <./Figures/Model.png>] [88]
1866 1868 Overfull \hbox (14.1589pt too wide) in paragraph at lines 581--603
1867 1869 [][]
1868 1870  
... ... @@ -2128,11 +2130,11 @@
2128 2130 (rerunfilecheck) Checksum: A06CA241E4961E00F708D1DB761D768D;24244.
2129 2131 )
2130 2132 Here is how much of TeX's memory you used:
2131   - 21559 strings out of 476038
2132   - 370041 string characters out of 5790170
  2133 + 21562 strings out of 476038
  2134 + 370074 string characters out of 5790170
2133 2135 1904785 words of memory out of 5000000
2134   - 40976 multiletter control sequences out of 15000+600000
2135   - 619032 words of font info for 151 fonts, out of 8000000 for 9000
  2136 + 40978 multiletter control sequences out of 15000+600000
  2137 + 622048 words of font info for 153 fonts, out of 8000000 for 9000
2136 2138 1141 hyphenation exceptions out of 8191
2137 2139 126i,17n,133p,1979b,732s stack positions out of 10000i,1000n,20000p,200000b,200000s
2138 2140  
... ... @@ -2162,7 +2164,7 @@
2162 2164 lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/
2163 2165 uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf
2164 2166 b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb>
2165   -Output written on main.pdf (124 pages, 5444367 bytes).
  2167 +Output written on main.pdf (124 pages, 5444640 bytes).
2166 2168 PDF statistics:
2167 2169 1853 PDF objects out of 2073 (max. 8388607)
2168 2170 1584 compressed objects within 16 object streams

No preview for this file type

main.synctex.gz View file @ fc9e19c

No preview for this file type