Commit 17c2a0acfd729318650d6c3e9e365da597b73471

Authored by dsotofor
1 parent 2f058a7f8f
Exists in main

version all ok...

Showing 9 changed files with 27 additions and 25 deletions Side-by-side Diff

No preview for this file type

chapters/Conclusions.tex View file @ 17c2a0a
... ... @@ -18,9 +18,11 @@
18 18  
19 19 Une architecture modulaire capable d'associer plusieurs modules avec des fonctionnalités différentes permet d'ajouter de nouvelles fonctionnalités et de modifier les modules de manière indépendante sans affecter profondément le système. Les modules peuvent être réutilisés et leur indépendance réduit le risque de perturbation de l'ensemble du système tout en augmentant sa résilience.
20 20  
21   -Un algorithme de régression générique, nommé ESCBR et fondé sur le RàPC et l'empilement, a été proposé comme filtre collaboratif dynamique pour la prédiction des notes des apprenants. Cette généricité donne à l'algorithme la flexibilité de s'adapter à différents structures et contextes des données. Ce module est un système multi-agent suivant un raisonnement bayésien incluant des rétroactions, des échanges d'informations, l'émergence d'une intelligence collective et l'utilisation de raisonnements cognitifs.
  21 +Un algorithme de régression générique, nommé ESCBR et fondé sur le RàPC et l'empilement, a été proposé comme filtre collaboratif dynamique pour la prédiction des notes des apprenants. Cette généricité donne à l'algorithme la flexibilité de s'adapter à différents structures et contextes des données. Cette contribution illustre la manière dont peut être automatisée la phase de révision du cycle classique suivi par le système de RàPC initial d'AI-VT.
22 22  
23   -Un module de recommandation stochastique, nommé ESCBR-SMA, fondé sur un algorithme d'échantillonnage a également été conçu et implémenté dans AI-VT. Celui-ci prend en compte les notes obtenues par l'apprenant pendant la séance, et ainsi de manière réactive, propose des évolutions vers le niveau de complexité optimal au regard des connaissances démontrées par l'apprenant. Les résultats montrent que globalement les recommandations sont pertinentes et variées. Cette contribution illustre la manière dont peut être automatisée la phase de révision du cycle classique suivi par le système de RàPC initial d'AI-VT.
  23 +Le module nommé ESCBR-SMA fondé sur le module précédent est un système multi-agent suivant un raisonnement bayésien incluant des rétroactions, des échanges d'informations, l'émergence d'une intelligence collective et l'utilisation de raisonnements cognitifs.
  24 +
  25 +Un module de recommandation stochastique, nommé TS, fondé sur un algorithme d'échantillonnage a également été conçu et implémenté dans AI-VT. Celui-ci prend en compte les notes obtenues par l'apprenant pendant la séance, et ainsi de manière réactive, propose des évolutions vers le niveau de complexité optimal au regard des connaissances démontrées par l'apprenant. Les résultats montrent que globalement les recommandations sont pertinentes et variées.
24 26  
25 27 Une association d'ESCBR-SMA à l'échantillonnage stochastique de Thompson est proposé pour qu'AI-VT puisse tenir compte de considérations globales (filtre collaboratif) et locales (information individuelle propre à chaque apprenant) au moment de proposer une recommandation. Ce module est capable de produire des recommandations optimales même avec peu d'information et ainsi démarrer à froid (\textit{cold start}) tout en s'adaptant au fur et à mesure en réduisant la variance des recommandations.
26 28  
chapters/Publications.tex View file @ 17c2a0a
1 1 \chapter{Publications}
2 2  
3   -Pendant le travail de cette thèse, plusieurs articles ont été produits en explicitant les contributions réalisées. D'autres publications ont été produites en marge du sujet de cette thèse dans le cadre de la recherche en informatique.\
  3 +Pendant le travail de cette thèse, plusieurs articles ont été produits, explicitant les contributions réalisées. D'autres publications ont été produites en marge du sujet de cette thèse dans le cadre de la recherche en informatique.\
4 4  
5 5 \section{Publications liées au sujet de thèse}
6 6  
chapters/TS.aux View file @ 17c2a0a
... ... @@ -20,8 +20,8 @@
20 20 \@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Algorithme de recommandation stochastique\relax }}{76}{algorithm.1}\protected@file@percent }
21 21 \newlabel{alg2}{{1}{76}{Algorithme de recommandation stochastique\relax }{algorithm.1}{}}
22 22 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent }
23   -\@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des données utilisées pour l'évaluation.\relax }}{76}{table.caption.47}\protected@file@percent }
24   -\newlabel{tabDataSet}{{7.2}{76}{Description des données utilisées pour l'évaluation.\relax }{table.caption.47}{}}
  23 +\@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des données utilisées pour l'évaluation\relax }}{76}{table.caption.47}\protected@file@percent }
  24 +\newlabel{tabDataSet}{{7.2}{76}{Description des données utilisées pour l'évaluation\relax }{table.caption.47}{}}
25 25 \@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios évalués\relax }}{76}{table.caption.48}\protected@file@percent }
26 26 \newlabel{tabgm1}{{7.3}{76}{Valeurs des paramètres pour les scénarios évalués\relax }{table.caption.48}{}}
27 27 \@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Répartition des notes générées selon le niveau de complexité.\relax }}{77}{figure.caption.46}\protected@file@percent }
... ... @@ -48,8 +48,8 @@
48 48 \newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.\relax }{figure.caption.54}{}}
49 49 \@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }}{82}{table.caption.55}\protected@file@percent }
50 50 \newlabel{tabRM2}{{7.5}{82}{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }{table.caption.55}{}}
51   -\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module deterministe, SM - Module stochastique)\relax }}{82}{table.caption.56}\protected@file@percent }
52   -\newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module deterministe, SM - Module stochastique)\relax }{table.caption.56}{}}
  51 +\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }}{82}{table.caption.56}\protected@file@percent }
  52 +\newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }{table.caption.56}{}}
53 53 \@writefile{toc}{\contentsline {section}{\numberline {7.3}ESCBR-SMA et échantillonnage de Thompson}{83}{section.7.3}\protected@file@percent }
54 54 \citation{jmse11050890}
55 55 \citation{ZHANG2018189}
... ... @@ -122,8 +122,8 @@
122 122 \newlabel{fig:EvCL}{{7.12}{95}{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS\relax }{figure.caption.66}{}}
123 123 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}\protected@file@percent }
124 124 \citation{10.1145/3578337.3605122}
125   -\@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson aassocié à ESCBR-SMA pour 1000 apprenants\relax }}{96}{figure.caption.67}\protected@file@percent }
126   -\newlabel{fig_cmp2}{{7.13}{96}{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson aassocié à ESCBR-SMA pour 1000 apprenants\relax }{figure.caption.67}{}}
  125 +\@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }}{96}{figure.caption.67}\protected@file@percent }
  126 +\newlabel{fig_cmp2}{{7.13}{96}{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }{figure.caption.67}{}}
127 127 \@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}\protected@file@percent }
128 128 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}\protected@file@percent }
129 129 \@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }}{97}{figure.caption.68}\protected@file@percent }
chapters/TS.tex View file @ 17c2a0a
... ... @@ -129,7 +129,7 @@
129 129 $q_{g,c}$&Note obtenue $g$ pour la question $q$ avec complexité $c$ &$[0,g_m] \in \mathbb{R}$\\
130 130 $q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\
131 131 \end{tabular}
132   -\caption{Description des données utilisées pour l'évaluation.}
  132 +\caption{Description des données utilisées pour l'évaluation}
133 133 \label{tabDataSet}
134 134 \end{table}
135 135  
... ... @@ -318,7 +318,7 @@
318 318 DM&0.9540&0.9887&0.9989\\
319 319 SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\
320 320 \end{tabular}
321   -\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module deterministe, SM - Module stochastique)}
  321 +\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)}
322 322 \label{tabCS}
323 323 \end{table}
324 324  
... ... @@ -470,7 +470,7 @@
470 470  
471 471 L'idée est d'unifier les deux modules en se fondant à la fois sur des informations locales (recommandation fondée sur l'échantillonnage de Thompson (TS) et les informations propres à l'apprenant), et sur des informations globales (cas similaires de la base de connaissances du système de RàPC en suivant le principe du paradoxe de Stein) car le RàPC combine différents observations pour réaliser une estimation.
472 472  
473   -L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, où l'on peut voir que les deux algorithmes TS et RàPC sont exécutés en parallèle et indépendamment. Des synchronisations sont faites après obtention des résultats de chaque module. Ces résultats sont unifiés via d'une fonction de pondération. La recommandation finale est calculée selon l'équation \ref{eqMixModels_}. Le \textit{paradoxe de Simpson} est un paradoxe dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés\cite{10.1145/3578337.3605122}. L'unification d'ensembles de données différents peut atténuer ce paradoxe \cite{lei2024analysis}.
  473 +L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, où l'on peut voir que les deux algorithmes TS et RàPC sont exécutés en parallèle et indépendamment. Des synchronisations sont faites après obtention des résultats de chaque module. Ces résultats sont unifiés via d'une fonction de pondération. La recommandation finale est calculée selon l'équation \ref{eqMixModels_}. Le \textit{paradoxe de Simpson} est un paradoxe dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés \cite{10.1145/3578337.3605122}. L'unification d'ensembles de données différents peut atténuer ce paradoxe \cite{lei2024analysis}.
474 474  
475 475 \begin{figure}
476 476 \centering
... ... @@ -485,7 +485,7 @@
485 485 \centering
486 486 \footnotesize
487 487 \begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c}
488   - ID&Type&Description&Domain\
  488 + ID&Type&Description&Domaine\
489 489 \hline
490 490 $\alpha$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\
491 491 $\beta$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\
... ... @@ -535,7 +535,7 @@
535 535  
536 536 \subsubsection{Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}
537 537  
538   -Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d'intéragir au cours de l'exécution et de l'exploration.
  538 +Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d’interagir au cours de l'exécution et de l'exploration.
539 539  
540 540 ESCBR-SMA utilise une fonction noyau pour obtenir la meilleure approximation de la solution du problème cible. Dans notre cas, l'obtention de la meilleure solution est un problème NP-Difficile car la formulation est similaire au problème de Fermat-Weber à $N$ dimensions \cite{doi:10.1137/23M1592420}.
541 541  
... ... @@ -561,7 +561,7 @@
561 561 \centering
562 562 \footnotesize
563 563 \begin{tabular}{ll|ll}
564   -ID&Algorithm&ID&Algorithm\
  564 +ID&Algorithme&ID&Algorithme\
565 565 \hline
566 566 A1&Linear Regression&A6&Polinomial Regression\\
567 567 A2&K-Nearest Neighbor&A7&Ridge Regression\\
... ... @@ -582,7 +582,7 @@
582 582 &\multicolumn{10}{c}{\textbf{Algorithme}}\\
583 583 \hline
584 584 & A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
585   - \textbf{Scenario (Metrique)}\
  585 + \textbf{Scenario (Métrique)}\
586 586 \hline
587 587 $E_1$ (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\
588 588 $E_1$ (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\
... ... @@ -606,7 +606,7 @@
606 606  
607 607 \subsubsection{Progression des connaissances}
608 608  
609   -L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté au problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
  609 +L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté aux problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
610 610  
611 611 %\begin{equation}
612 612 \begin{multline}
... ... @@ -696,7 +696,7 @@
696 696  
697 697 \subsubsection{Système de recommandation avec ESCBR-SMA}
698 698  
699   -Le troisième étape est l'association des deux algorithmes afin de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (recommandation avec Thomson) et le filtre collaboratif (interpolation avec ESCBR-SMA). Cette partie présente une comparaison entre le système de recommandation TS et le système de recommandation TS intégrée à la prédiction ESCBR-SMA.
  699 +La troisième étape est l'association des deux algorithmes afin de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (recommandation avec Thomson) et le filtre collaboratif (interpolation avec ESCBR-SMA). Cette partie présente une comparaison entre le système de recommandation TS et le système de recommandation TS intégré à la prédiction ESCBR-SMA.
700 700  
701 701 Les résultats proposés sont comparés après réponse des apprenants à six questions car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité à la question suivante.
702 702  
... ... @@ -727,7 +727,7 @@
727 727 \begin{figure}[!h]
728 728 \centering
729 729 \includegraphics[width=1\textwidth]{Figures/Metric4.jpg}
730   - \caption{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson aassocié à ESCBR-SMA pour 1000 apprenants}
  730 + \caption{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants}
731 731 \label{fig_cmp2}
732 732 \end{figure}
733 733  
... ... @@ -837,7 +837,7 @@
837 837  
838 838 \subsubsection{Mesures de performances}
839 839  
840   -Pour mesurer les performances des différents modules, nous avons utilisé le même jeu de données simulées que dans la section précédentes.
  840 +Pour mesurer les performances des différents modules, nous avons utilisé le même jeu de données simulées que dans la section précédente.
841 841 La comparaison est faite avec la métrique décrite dans l'équation \ref{metric1}, où $x_c$ est la moyenne des notes, $y_c$ est le nombre de questions pour chaque niveau de complexité $c$.
842 842  
843 843 \begin{equation}
844 844  
... ... @@ -876,9 +876,9 @@
876 876  
877 877 \subsection{Conclusion}
878 878  
879   -Cette partie a présenté un algorithme intégrant un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson, un algorithme de régression d'ensemble fondé sur le raisonnement par cas et système multi-agents, et une fonction d'oubli fondée sur le processus de Hawkes.
  879 +Cette partie a présenté un algorithme intégrant un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson, un algorithme de régression d'ensemble fondé sur le raisonnement à partir de cas et système multi-agents, et une fonction d'oubli fondée sur le processus de Hawkes.
880 880  
881 881 L'algorithme de régression d'ensemble ESCBR-SMA permet d'interpoler la note qu'un apprenant aurait à la question suivante selon le niveau de complexité de celle-ci. L'échantillonnage de Thompson permet de recommander la complexité de la question suivante en fonction d'informations locales : les notes obtenues et les temps de réponses de cet apprenant aux questions précédentes. Enfin, le processus de Hawkes incite le système à proposer des rappels de compétences acquises en intégrant un modèle d'oubli.
882 882  
883   -Nous avons mesuré ses performances sur un ensemble de données générées permettant de simuler les notes et temps de réponses obtenues par 1000 apprenants sur un EIAH proposant des exercices répartis sur cinq niveaux de complexité et aussi avec une base de données réel non-symétrique de 23366 apprenants. Ces tests ont été réalisés en vue d'une intégration à l'EIAH AI-VT. Les résultats montrent que le module final permet de réviser les séances d'entraînement, de proposer des exercices progressivement plus difficiles, tout en intégrant des rappels de notions.
  883 +Nous avons mesuré ces performances sur un ensemble de données générées permettant de simuler les notes et temps de réponses obtenus par 1000 apprenants sur un EIAH proposant des exercices répartis sur cinq niveaux de complexité et aussi avec une base de données réelle non-symétrique de 23366 apprenants. Ces tests ont été réalisés en vue d'une intégration à l'EIAH AI-VT. Les résultats montrent que le module final permet de réviser les séances d'entraînement, de proposer des exercices progressivement plus difficiles, tout en intégrant des rappels de notions.
1   -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 17 JUL 2025 19:02
  1 +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 18 JUL 2025 12:38
2 2 entering extended mode
3 3 restricted \write18 enabled.
4 4 %&-line parsing enabled.
... ... @@ -2162,7 +2162,7 @@
2162 2162 lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/
2163 2163 uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf
2164 2164 b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb>
2165   -Output written on main.pdf (124 pages, 5445703 bytes).
  2165 +Output written on main.pdf (124 pages, 5445738 bytes).
2166 2166 PDF statistics:
2167 2167 1853 PDF objects out of 2073 (max. 8388607)
2168 2168 1584 compressed objects within 16 object streams

No preview for this file type

main.synctex.gz View file @ 17c2a0a

No preview for this file type

... ... @@ -137,7 +137,7 @@
137 137 %%--------------------
138 138 %% Set the French keywords. They only appear if
139 139 %% there is an French abstract
140   -\thesiskeywords[french]{Environnements informatiques d'apprentissage humain, Intelligence artificielle, raisonnement à partir de cas, systèmes multi-agents, raisonnement bayésien, échantillonage de Thompson, processus de Hawkes}
  140 +\thesiskeywords[french]{Environnements informatiques d'apprentissage humain, Intelligence artificielle, raisonnement à partir de cas, systèmes multi-agents, raisonnement bayésien, échantillonnage de Thompson, processus de Hawkes}
141 141  
142 142 %%--------------------
143 143 %% Change the layout and the style of the text of the "primary" abstract.