Commit 035f44f2f16dfbce211cc5047d9f64a514c26549
1 parent
123c6408dc
Exists in
main
version all ok...
Showing 17 changed files with 60 additions and 65 deletions Side-by-side Diff
.DS_Store
View file @
035f44f
Figures/EIAH.drawio
View file @
035f44f
1 | -<mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:136.0) Gecko/20100101 Firefox/136.0" version="26.1.3"> | |
1 | +<mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:140.0) Gecko/20100101 Firefox/140.0" version="28.0.5"> | |
2 | 2 | <diagram name="Page-1" id="OSgn3XfzTL5SABNI0Qxs"> |
3 | - <mxGraphModel dx="737" dy="465" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> | |
3 | + <mxGraphModel dx="786" dy="435" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> | |
4 | 4 | <root> |
5 | 5 | <mxCell id="0" /> |
6 | 6 | <mxCell id="1" parent="0" /> |
7 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-16" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" vertex="1" parent="1"> | |
7 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-16" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" parent="1" vertex="1"> | |
8 | 8 | <mxGeometry x="40" y="40" width="640" height="360" as="geometry" /> |
9 | 9 | </mxCell> |
10 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-26" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" edge="1" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-17" target="HP-W8r5hdSGzMFOFOmfQ-24"> | |
10 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-26" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-17" target="HP-W8r5hdSGzMFOFOmfQ-24" edge="1"> | |
11 | 11 | <mxGeometry relative="1" as="geometry"> |
12 | 12 | <Array as="points"> |
13 | 13 | <mxPoint x="180" y="280" /> |
14 | 14 | |
15 | 15 | |
16 | 16 | |
17 | 17 | |
18 | 18 | |
19 | 19 | |
20 | 20 | |
21 | 21 | |
22 | 22 | |
... | ... | @@ -15,34 +15,34 @@ |
15 | 15 | </Array> |
16 | 16 | </mxGeometry> |
17 | 17 | </mxCell> |
18 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-17" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" vertex="1" parent="1"> | |
18 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-17" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" parent="1" vertex="1"> | |
19 | 19 | <mxGeometry x="60" y="60" width="600" height="200" as="geometry" /> |
20 | 20 | </mxCell> |
21 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-21" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" edge="1" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-19"> | |
21 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-21" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-19" edge="1"> | |
22 | 22 | <mxGeometry relative="1" as="geometry" /> |
23 | 23 | </mxCell> |
24 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-22" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" edge="1" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-20"> | |
24 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-22" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1"> | |
25 | 25 | <mxGeometry relative="1" as="geometry" /> |
26 | 26 | </mxCell> |
27 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-18" value="<b><font style="font-size: 15px;">Modèle du domain</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" vertex="1" parent="1"> | |
27 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-18" value="<b><font style="font-size: 15px;">Modèle du domain</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
28 | 28 | <mxGeometry x="300" y="80" width="120" height="60" as="geometry" /> |
29 | 29 | </mxCell> |
30 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-23" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" edge="1" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-19" target="HP-W8r5hdSGzMFOFOmfQ-20"> | |
30 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-23" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-19" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1"> | |
31 | 31 | <mxGeometry relative="1" as="geometry" /> |
32 | 32 | </mxCell> |
33 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-19" value="<b><font style="font-size: 15px;">Modèle du tutorat</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" vertex="1" parent="1"> | |
33 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-19" value="<b><font style="font-size: 15px;">Modèle du tutorat</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
34 | 34 | <mxGeometry x="120" y="160" width="120" height="60" as="geometry" /> |
35 | 35 | </mxCell> |
36 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-20" value="<b><font style="font-size: 15px;">Modèle d'étudiant</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" vertex="1" parent="1"> | |
36 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-20" value="<b><font style="font-size: 15px;">Modèle de l'apprenant</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
37 | 37 | <mxGeometry x="480" y="160" width="120" height="60" as="geometry" /> |
38 | 38 | </mxCell> |
39 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-28" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0;entryY=0.5;entryDx=0;entryDy=0;startArrow=classic;startFill=1;" edge="1" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-24" target="HP-W8r5hdSGzMFOFOmfQ-27"> | |
39 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-28" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0;entryY=0.5;entryDx=0;entryDy=0;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-24" target="HP-W8r5hdSGzMFOFOmfQ-27" edge="1"> | |
40 | 40 | <mxGeometry relative="1" as="geometry" /> |
41 | 41 | </mxCell> |
42 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-24" value="<b><font style="font-size: 15px;">Interface</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" vertex="1" parent="1"> | |
42 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-24" value="<b><font style="font-size: 15px;">Interface</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
43 | 43 | <mxGeometry x="120" y="300" width="120" height="60" as="geometry" /> |
44 | 44 | </mxCell> |
45 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-27" value="<b><font style="font-size: 15px;">Utilisateur - Apprenant</font></b>" style="ellipse;whiteSpace=wrap;html=1;shadow=1;" vertex="1" parent="1"> | |
45 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-27" value="<b><font style="font-size: 15px;">Utilisateur - Apprenant</font></b>" style="ellipse;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
46 | 46 | <mxGeometry x="480" y="290" width="120" height="80" as="geometry" /> |
47 | 47 | </mxCell> |
48 | 48 | </root> |
Figures/EIAH.png
View file @
035f44f
chapters/Architecture.tex
View file @
035f44f
... | ... | @@ -132,7 +132,7 @@ |
132 | 132 | |
133 | 133 | Les ressources recommandées par le module LR1 proviennent d'une base de données déjà établie que le module consulte et suggère à l'étudiant en fonction du résultat de la comparaison de l'état d'apprentissage, du niveau et des caractéristiques et spécifications de chacune des ressources. |
134 | 134 | |
135 | -Le module LR2 a deux variantes fondées sur les valeurs générées par l'apprenant lorsque la séance d'entrainement est en cours : l'une déterministe et l'autre stochastique. Le modèle déterministe utilise un tableau prédéterminé de rangs sur lequel l'apprenant est positionné pour générer la suggestion d'adaptation. Le modèle stochastique utilise des distributions de probabilités dynamiques qui changent en fonction des résultats de l'apprenant à chaque niveau de complexité de la même sous-compétence. | |
135 | +Le module LR2 a deux variantes fondées sur les valeurs générées par l'apprenant lorsque la séance d'entraînement est en cours : l'une déterministe et l'autre stochastique. Le modèle déterministe utilise un tableau prédéterminé de rangs sur lequel l'apprenant est positionné pour générer la suggestion d'adaptation. Le modèle stochastique utilise des distributions de probabilités dynamiques qui changent en fonction des résultats de l'apprenant à chaque niveau de complexité de la même sous-compétence. | |
136 | 136 | |
137 | 137 | D'autres modules proposant une prédiction avec les mêmes données que celles qui ont été utilisées pour la génération de l'adaptation sont aujourd'hui implémentés dans AI-VT. Ils permettent d'estimer plus précisément la performance de l'apprenant et si effectivement l'adaptation proposée lui permet d'acquérir les compétences nécessaires et d'améliorer les notes obtenues. |
138 | 138 |
chapters/CBR.tex
View file @
035f44f
... | ... | @@ -139,7 +139,7 @@ |
139 | 139 | |
140 | 140 | \cite{YU2024123745}&Il n'y a pas de révision des cas dans la méthode d'imputation ni dans le modèle de classification fondé sur RàPC. Cela peut accroître le biais d'imputation et introduire des échantillons avec bruit\\ |
141 | 141 | |
142 | -\cite{Sadeghi}&Le temps de calcul peut être très grand en fonction de la quantité de données associées, du a l'étape d'entrainement du modèle HMM\ | |
142 | +\cite{Sadeghi}&Le temps de calcul peut être très grand en fonction de la quantité de données associées, du a l'étape d'entraînement du modèle HMM\ | |
143 | 143 | |
144 | 144 | \cite{8495930}&Le modèle a été validé avec peu de données. Les recommandations se basent seulement sur l'information des autres apprenants.\\ |
145 | 145 |
chapters/EIAH.tex
View file @
035f44f
... | ... | @@ -68,7 +68,7 @@ |
68 | 68 | %\label{figLevels} |
69 | 69 | %\end{figure} |
70 | 70 | |
71 | -Le tableau \ref{tabArts} présente un récapitulatif des articles analysés dans l'état de l'art des EIAH. Les articles apparaissent dans le même ordre qui ont été cités dans le chapitre. Les limites décris correspondent au temps de calcul, quantité de données d'entrainement, complexité de définitions ou des règles ainsi comme la quantité de variables subjectives. | |
71 | +Le tableau \ref{tabArts} présente un récapitulatif des articles analysés dans l'état de l'art des EIAH. Les articles apparaissent dans le même ordre qui ont été cités dans le chapitre. Les limites décris correspondent au temps de calcul, quantité de données d'entraînement, complexité de définitions ou des règles ainsi comme la quantité de variables subjectives. | |
72 | 72 | |
73 | 73 | Une limitation générale qui présentent les algorithmes d'IA dans les EIAH est que ce type d'algorithmes ne permettent pas d'oublier l'information avec laquelle ils ont été entrainés, une propriété nécessaire pour les EIAH dans certaines situations où peut se produire un dysfonctionnement du système, la réévaluation d'un apprenant ou la restructuration d'un cours. Par ailleurs, les représentations et algorithmes peuvent changer et évoluer. Aujourd'hui il y a encore beaucoup de potentiel pour développer encore les capacités de calcul et d'adaptation. |
74 | 74 | |
... | ... | @@ -83,8 +83,8 @@ |
83 | 83 | \cite{HUANG2023104684}&Recommandation en fonction de la motivation seulement. N'est pas général pour tous les apprenants\\ |
84 | 84 | \cite{pmlr-v108-seznec20a}&Le modèle n'a pas été testé avec données d'étudiants. UCB prends beaucoup de temps pour explorer les alternatives\\ |
85 | 85 | \cite{INGKAVARA2022100086}&Modèle très complexe. Définition de constantes subjectif et beaucoup de variables.\\ |
86 | -\cite{LALITHA2020583}&A besoin de beaucoup de données pour entrainement. Ne marche pas dans le cas 'cold-start', n'est pas totalement automatisé\\ | |
87 | -\cite{SU2022109547}&Estimation de la connaissance de façon subjective. Il est nécessaire une étape d'entrainement\\ | |
86 | +\cite{LALITHA2020583}&A besoin de beaucoup de données pour entraînement. Ne marche pas dans le cas 'cold-start', n'est pas totalement automatisé\\ | |
87 | +\cite{SU2022109547}&Estimation de la connaissance de façon subjective. Il est nécessaire une étape d'entraînement\\ | |
88 | 88 | \cite{MUANGPRATHUB2020e05227}&Structure des règles complexe. Définition de la connaissance de base complexe\\ |
89 | 89 | \cite{Zhou2021}&Utilisation d'un filtre collaboratif sans stratification. Utilisation d'une seule métrique de distance\\ |
90 | 90 | \cite{EZALDEEN2022100700}&Il n y a pas de comparaison avec d'autres modèles différents de CNN. Beaucoup de variables à valeurs subjectives\\ |
chapters/ESCBR.aux
View file @
035f44f
... | ... | @@ -80,8 +80,8 @@ |
80 | 80 | \newlabel{eqBay}{{6.15}{68}{Apprentissage des agents}{equation.6.3.15}{}} |
81 | 81 | \newlabel{eqRta}{{6.16}{68}{Apprentissage des agents}{equation.6.3.16}{}} |
82 | 82 | \newlabel{eqRsa}{{6.17}{68}{Apprentissage des agents}{equation.6.3.17}{}} |
83 | -\@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse\relax }}{69}{figure.caption.39}\protected@file@percent } | |
84 | -\newlabel{fig:bayev}{{6.12}{69}{Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse\relax }{figure.caption.39}{}} | |
83 | +\@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse\relax }}{69}{figure.caption.39}\protected@file@percent } | |
84 | +\newlabel{fig:bayev}{{6.12}{69}{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse\relax }{figure.caption.39}{}} | |
85 | 85 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}\protected@file@percent } |
86 | 86 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}\protected@file@percent } |
87 | 87 | \@writefile{lot}{\contentsline {table}{\numberline {6.7}{\ignorespaces Description des jeux de données évalués.\relax }}{70}{table.caption.40}\protected@file@percent } |
chapters/ESCBR.tex
View file @
035f44f
... | ... | @@ -5,11 +5,11 @@ |
5 | 5 | \section{Introduction} |
6 | 6 | |
7 | 7 | Ce chapitre est divisé en deux parties. La première partie présente un algorithme fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression. |
8 | -L'algorithme présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement Bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{10.1007/978-3-031-63646-2_11}.\ | |
8 | +L'algorithme présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{10.1007/978-3-031-63646-2_11}.\ | |
9 | 9 | |
10 | 10 | Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche. |
11 | 11 | |
12 | -Le système de raisonnement à partir de cas ne nécessite pas d'entrainement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement satisfaisants. | |
12 | +Le système de raisonnement à partir de cas ne nécessite pas d'entraînement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement satisfaisants. | |
13 | 13 | |
14 | 14 | La technique d'ensemble permet de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs algorithmes exécutés indépendamment. Certaines de ces méthodes utilisent des algorithmes différents et des ensembles de données différents tandis que d'autres utilisent les mêmes algorithmes avec des paramètres différents. La combinaison des résultats provenant de multiples algorithmes peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette technique d'ensemble en la combinant à des outils d'apprentissage automatique. |
15 | 15 | |
... | ... | @@ -17,7 +17,7 @@ |
17 | 17 | |
18 | 18 | La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. |
19 | 19 | |
20 | -Le raisonnement Bayésien clos ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. | |
20 | +Le raisonnement bayésien clos ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. | |
21 | 21 | |
22 | 22 | \section{Apprentissage par empilement et raisonnement à partir de cas} |
23 | 23 | |
... | ... | @@ -334,7 +334,7 @@ |
334 | 334 | |
335 | 335 | \subsection{Conclusion} |
336 | 336 | |
337 | -Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et une technique d'empilement que nous avons baptisé ESCBR. Cet algorithme ne nécessite pas d'entrainement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\ | |
337 | +Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et une technique d'empilement que nous avons baptisé ESCBR. Cet algorithme ne nécessite pas d'entraînement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\ | |
338 | 338 | |
339 | 339 | \section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR} |
340 | 340 | |
... | ... | @@ -463,7 +463,7 @@ |
463 | 463 | \begin{figure} |
464 | 464 | \centering |
465 | 465 | \includegraphics[scale=0.5]{Figures/BayesianEvolution.png} |
466 | - \caption{Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse} | |
466 | + \caption{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse} | |
467 | 467 | \label{fig:bayev} |
468 | 468 | \end{figure} |
469 | 469 |
chapters/TS.tex
View file @
035f44f
... | ... | @@ -146,7 +146,7 @@ |
146 | 146 | \label{tabgm1} |
147 | 147 | \end{table} |
148 | 148 | |
149 | -La figure \ref{figCmp2} permet de comparer les résultats obtenus par le module proposé, un système de recommandation déterministe et le système AI-VT initial lors d'un \textit{démarrage à froid} (c'est-à-dire sans données historiques ni informations préalables sur le profil de l'apprenant). Sur les graphiques de cette figure, les numéros des questions posées sont reportées en abscisse selon l'ordre chronologique d'apparition durant la séance d’entraînement, le niveau de complexité de chaque question posée est représenté par une couleur différente, et le nombre d'apprenants ayant eu des questions de ce niveau de complexité sont reportés en ordonnées. Ainsi, le système AI-VT initial (premier graphique de la figure) et le système de recommandation déterministe (deuxième graphique) ont tous deux proposé trois questions de niveau de complexité 0 (le plus faible) à tous les apprenants au démarrage de la séance d'entrainement. Nous pouvons remarquer que le système initial est resté sur ce niveau de complexité durant toute la séance (pour les 15 questions du test), tandis que le système de recommandation déterministe a progressivement mixé les complexités des questions posées. Le système de recommandation stochastique décrit dans ce chapitre a quant à lui mixé ces niveaux de complexité dès la première question. | |
149 | +La figure \ref{figCmp2} permet de comparer les résultats obtenus par le module proposé, un système de recommandation déterministe et le système AI-VT initial lors d'un \textit{démarrage à froid} (c'est-à-dire sans données historiques ni informations préalables sur le profil de l'apprenant). Sur les graphiques de cette figure, les numéros des questions posées sont reportées en abscisse selon l'ordre chronologique d'apparition durant la séance d’entraînement, le niveau de complexité de chaque question posée est représenté par une couleur différente, et le nombre d'apprenants ayant eu des questions de ce niveau de complexité sont reportés en ordonnées. Ainsi, le système AI-VT initial (premier graphique de la figure) et le système de recommandation déterministe (deuxième graphique) ont tous deux proposé trois questions de niveau de complexité 0 (le plus faible) à tous les apprenants au démarrage de la séance d'entraînement. Nous pouvons remarquer que le système initial est resté sur ce niveau de complexité durant toute la séance (pour les 15 questions du test), tandis que le système de recommandation déterministe a progressivement mixé les complexités des questions posées. Le système de recommandation stochastique décrit dans ce chapitre a quant à lui mixé ces niveaux de complexité dès la première question. | |
150 | 150 | |
151 | 151 | Ainsi, les systèmes de recommandation permettent de proposer une adaptation progressive du niveau de complexité en fonction des notes obtenues. L'algorithme déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus. La tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. L'algorithme stochastique commence par proposer tous les niveaux de complexité possibles tout en privilégiant le niveau 0. Avec ce système, les transitions sont constantes mais pour un petit nombre d'apprenants. La tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. |
152 | 152 | |
... | ... | @@ -302,7 +302,7 @@ |
302 | 302 | \label{tabRM2} |
303 | 303 | \end{table} |
304 | 304 | |
305 | -En complément, le tableau \ref{tabCS} présente les similarités entre toutes les recommandations faites aux apprenants par les trois systèmes et les trois séances d'entrainement. Pour ce faire, nous avons choisi d'appliquer l'équation \ref{eqCS} permettant de calculer une similarité cosinus entre deux vecteurs $A$ et $B$. | |
305 | +En complément, le tableau \ref{tabCS} présente les similarités entre toutes les recommandations faites aux apprenants par les trois systèmes et les trois séances d'entraînement. Pour ce faire, nous avons choisi d'appliquer l'équation \ref{eqCS} permettant de calculer une similarité cosinus entre deux vecteurs $A$ et $B$. | |
306 | 306 | |
307 | 307 | \begin{equation} |
308 | 308 | sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}} |
... | ... | @@ -329,7 +329,7 @@ |
329 | 329 | |
330 | 330 | Les résultats numériques montrent que les distributions des questions dans une séance par les deux modules de recommandation sont différentes bien que la tendance générale soit similaire. Les modules de recommandation proposés tentent de répartir les questions dans tous les niveaux de complexité définis. Globalement, le module de recommandation stochastique a obtenu un meilleur score. En comparaison du système initial, les modules de recommandation (déterministe et stochastique) proposent 15\% à 68\% d'adaptations de la complexité pour tous les niveaux. Pour cette raison, l'approche stochastique sera préférée à l'approche déterministe dans la suite des travaux de recherche. |
331 | 331 | |
332 | -Selon la métrique de la similarité cosinus, le module de recommandation stochastique augmente la diversité des propositions par rapport au système initial dans les trois séances d'entrainement testées, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de progression des niveaux de compétence des apprenants. La diversité des propositions est une caractéristique essentielle de l'algorithme de recommandation dans ses deux versions. | |
332 | +Selon la métrique de la similarité cosinus, le module de recommandation stochastique augmente la diversité des propositions par rapport au système initial dans les trois séances d'entraînement testées, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de progression des niveaux de compétence des apprenants. La diversité des propositions est une caractéristique essentielle de l'algorithme de recommandation dans ses deux versions. | |
333 | 333 | |
334 | 334 | Les modules de recommandation sont un élément essentiel pour certains EIAH car ils aident à guider le processus d'apprentissage individuel. Ils permettent également d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les deux modules de recommandation proposés peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le niveau de complexité le plus adapté. Même si l'ensemble des données générées est une simulation de temps de réponse et de notes fictives d'apprenants fictifs, les tests démontrent la flexibilité et la robustesse des modules de recommandation proposés : les données relatives aux apprenants présentent en effet une grande diversité et obligent le système à s'adapter à différents types de configuration. Par conséquent, il est possible de conclure que les modules de recommandation proposés ont la capacité de fonctionner dans différentes situations et de proposer des chemins alternatifs et personnalisés pour améliorer le processus d'apprentissage global. |
335 | 335 | |
... | ... | @@ -652,7 +652,7 @@ |
652 | 652 | \label{fig:evolution} |
653 | 653 | \end{figure} |
654 | 654 | |
655 | -La figure \ref{fig:evolution} montre la progression cumulée des connaissances sur les quinze questions d'une même séance d'entrainement. L'augmentation de la moyenne du niveau de connaissance entre la première et la dernière question de la même séance montre que tous les apprenants ont statistiquement augmenté leur niveau de connaissance. La variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants. À ce stade, la variabilité diminue et la moyenne augmente. | |
655 | +La figure \ref{fig:evolution} montre la progression cumulée des connaissances sur les quinze questions d'une même séance d'entraînement. L'augmentation de la moyenne du niveau de connaissance entre la première et la dernière question de la même séance montre que tous les apprenants ont statistiquement augmenté leur niveau de connaissance. La variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants. À ce stade, la variabilité diminue et la moyenne augmente. | |
656 | 656 | |
657 | 657 | \subsubsection{Système de recommandation avec un jeu de données d'étudiants réels} |
658 | 658 | |
... | ... | @@ -733,7 +733,7 @@ |
733 | 733 | |
734 | 734 | \subsection{Conclusion} |
735 | 735 | |
736 | -Cette partie montre que l'intégration du module d'échantillonnage de Thompson au module de régression ESCBR-SMA est profitable à l'EIAH AI-VT dans la mesure où leur utilisation conjointe permet de réviser une séance d'entrainement en proposant des exercices de difficulté adaptée à l'apprenant en fonction des notes obtenues aux réponses précédentes. | |
736 | +Cette partie montre que l'intégration du module d'échantillonnage de Thompson au module de régression ESCBR-SMA est profitable à l'EIAH AI-VT dans la mesure où leur utilisation conjointe permet de réviser une séance d'entraînement en proposant des exercices de difficulté adaptée à l'apprenant en fonction des notes obtenues aux réponses précédentes. | |
737 | 737 | |
738 | 738 | Le système proposé permet de générer des recommandations personnalisées pour chaque apprenant avec relativement peu de données historiques. Il permet de réviser une séance en se fondant sur des informations générales (progression standardisée) et locales (niveau acquis par l'apprenant). |
739 | 739 | %les deux modèles se complètent mutuellement en améliorant les résultats finaux d'une manière généralisée. Le modèle proposé a été conçu pour être utilisé dans le cadre d'un projet de recherche et de développement en cours.\\\\ |
... | ... | @@ -880,5 +880,5 @@ |
880 | 880 | |
881 | 881 | L'algorithme de régression d'ensemble ESCBR-SMA permet d'interpoler la note qu'un apprenant aurait à la question suivante selon le niveau de complexité de celle-ci. L'échantillonnage de Thompson permet de recommander la complexité de la question suivante en fonction d'informations locales : les notes obtenues et les temps de réponses de cet apprenant aux questions précédentes. Enfin, le processus de Hawkes incite le système à proposer des rappels de compétences acquises en intégrant un modèle d'oubli. |
882 | 882 | |
883 | -Nous avons mesuré ses performances sur un ensemble de données générées permettant de simuler les notes et temps de réponses obtenues par 1000 apprenants sur un EIAH proposant des exercices répartis sur cinq niveaux de complexité et aussi avec une base de données réel non-symétrique de 23366 apprenants. Ces tests ont été réalisés en vue d'une intégration à l'EIAH AI-VT. Les résultats montrent que le module final permet de réviser les séances d'entrainement, de proposer des exercices progressivement plus difficiles, tout en intégrant des rappels de notions. | |
883 | +Nous avons mesuré ses performances sur un ensemble de données générées permettant de simuler les notes et temps de réponses obtenues par 1000 apprenants sur un EIAH proposant des exercices répartis sur cinq niveaux de complexité et aussi avec une base de données réel non-symétrique de 23366 apprenants. Ces tests ont été réalisés en vue d'une intégration à l'EIAH AI-VT. Les résultats montrent que le module final permet de réviser les séances d'entraînement, de proposer des exercices progressivement plus difficiles, tout en intégrant des rappels de notions. |
chapters/contexte2.aux
View file @
035f44f
... | ... | @@ -44,7 +44,7 @@ |
44 | 44 | \citation{Hoang} |
45 | 45 | \@writefile{lof}{\contentsline {figure}{\numberline {2.5}{\ignorespaces Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }}{17}{figure.caption.8}\protected@file@percent } |
46 | 46 | \newlabel{fig:figCycleCBR}{{2.5}{17}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }{figure.caption.8}{}} |
47 | -\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées}{17}{subsection.2.2.3}\protected@file@percent } | |
47 | +\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}{17}{subsection.2.2.3}\protected@file@percent } | |
48 | 48 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}\protected@file@percent } |
49 | 49 | \citation{Hoang} |
50 | 50 | \citation{10.1145/3459665} |
chapters/contexte2.tex
View file @
035f44f
... | ... | @@ -31,11 +31,11 @@ |
31 | 31 | |
32 | 32 | \mfigure[!h]{width=\textwidth}{./Figures/EIAH.png}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite{Nkambou})}{figEIAH} |
33 | 33 | |
34 | -Les EIAH sont des outils pour aider les apprenants dans le processus d'apprentissage et l'acquisition de la connaissance. Ces outils sont conçus pour fonctionner avec des stratégies d'apprentissage en-ligne et mixtes. Généralement, l'architecture de ces systèmes est divisée en quatre composants comme le montre la figure \figref{figEIAH}. Ces composants sont : | |
34 | +Les EIAH sont des outils pour aider les apprenants dans le processus d'apprentissage et l'acquisition de la connaissance. Ces outils sont conçus pour fonctionner avec des stratégies d'apprentissage en ligne et mixtes. Généralement, l'architecture de ces systèmes est divisée en quatre composants comme le montre la figure \figref{figEIAH}. Ces composants sont : | |
35 | 35 | \begin{itemize} |
36 | -\item Le \textit{domaine} (\textit{Domain Model} sur la figure \figref{figEIAH}), qui contient les concepts, les règles et les stratégies pour résoudre des problèmes dans un domaine spécifique. Ce composant peut détecter et corriger les erreurs des apprenants. En général, l'information est divisée en séquences pédagogiques. | |
37 | -\item Le composant \textit{apprenant} (\textit{Student Model} sur la figure \figref{figEIAH}), qui est le noyau du système car il contient toute l'information utile à l'EIAH concernant l'apprenant (\textit{User-Learner} sur la figure \figref{figEIAH}). Ce composant contient également les informations sur l'évolution de l'acquisition des compétences de l'apprenant. Ce module doit avoir les informations implicites et explicites pour pouvoir créer une représentation des connaissances acquises, non et partiellement acquises et l'évolution de l'apprentissage de l'apprenant. Ces informations doivent permettre de générer un diagnostic de l'état de la connaissance de l'apprenant, à partir duquel le système peut prédire les résultats dans certains domaines et choisir la stratégie optimale pour présenter les nouveaux contenus. | |
38 | -\item L'\textit{enseignant} (\textit{Tutoring Model} sur la figure \figref{figEIAH}) est également modélisé sous la forme d'un composant. Il reçoit l'information des modules précédents, information grâce à laquelle il peut prendre des décisions sur le changement de parcours ou sur la stratégie d'apprentissage. Il peut également interagir avec l'apprenant. | |
36 | +\item Le \textit{domaine} (\textit{ Modèle du domain} sur la figure \figref{figEIAH}), qui contient les concepts, les règles et les stratégies pour résoudre des problèmes dans un domaine spécifique. Ce composant peut détecter et corriger les erreurs des apprenants. En général, l'information est divisée en séquences pédagogiques. | |
37 | +\item Le composant \textit{apprenant} (\textit{Modèle de l'apprenant} sur la figure \figref{figEIAH}), qui est le noyau du système car il contient toute l'information utile à l'EIAH concernant l'apprenant (\textit{Utilisateur-Apprenant} sur la figure \figref{figEIAH}). Ce composant contient également les informations sur l'évolution de l'acquisition des compétences de l'apprenant. Ce module doit avoir les informations implicites et explicites pour pouvoir créer une représentation des connaissances acquises, non et partiellement acquises et l'évolution de l'apprentissage de l'apprenant. Ces informations doivent permettre de générer un diagnostic de l'état de la connaissance de l'apprenant, à partir duquel le système peut prédire les résultats dans certains domaines et choisir la stratégie optimale pour présenter les nouveaux contenus. | |
38 | +\item L'\textit{enseignant} (\textit{Modèle du Tutorat} sur la figure \figref{figEIAH}) est également modélisé sous la forme d'un composant. Il reçoit l'information des modules précédents, information grâce à laquelle il peut prendre des décisions sur le changement de parcours ou sur la stratégie d'apprentissage. Il peut également interagir avec l'apprenant. | |
39 | 39 | \item L'\textit{interface} (\textit{Interface} sur la figure \figref{figEIAH}) est le module chargé de la gestion des configurations de l'EIAH et des interactions entre ses composants. |
40 | 40 | \end{itemize} |
41 | 41 | |
... | ... | @@ -68,7 +68,7 @@ |
68 | 68 | |
69 | 69 | Dans le système AI-VT, une séance d'entraînement est proposée dans le cadre d'un cycle d'entraînement. Ainsi, un exercice proposé en première séance du cycle peut être reproposé ensuite dans une autre séance, afin de consolider les acquis et de remettre en mémoire certaines connaissances à l'apprenant. Une séance est entièrement consacrée à une seule et même compétence, déclinée en plusieurs sous-compétences. Des exercices dans différentes sous-compétences sont proposées à chaque séance. Les exercices d'une même sous-compétence sont regroupés. Un même exercice pouvant permettre de travailler deux sous-compétences différentes, un mécanisme de règlement des conflits a été implémenté dans AI-VT afin qu'un même exercice ne puisse être proposé plus d'une seule fois dans une même séance d'entraînement. Dans AI-VT, l'énoncé d'un exercice est constitué de deux parties : le contexte et la question. Cette structure modulaire permet d'associer plusieurs questions à un même contexte et inversement. Les réponses apportées par les apprenants à chaque exercice sont notées sur 10 points et le temps mis pour répondre à chaque question est comptabilisée. L'étudiant dispose d'une interface présentant un tableau de bord des exercices, sous-compétences et compétences qu'il ou elle a travaillé. |
70 | 70 | |
71 | -Pour l'apprentissage de l'Anglais, un robot est chargé d'énoncer les exercices de la séance. Au démarrage de cette thèse, les apprenants ont une liste personnalisée d'exercices proposée par le système AI-VT, mais c'est à l'enseignant de vérifier la validité des algorithmes/solutions proposés par les étudiants et d'identifier leurs difficultés. L'amélioration du système et de la personnalisation du parcours de l'apprenant implique une correction automatique des exercices et cela sans utiliser un entrainement spécifique à chaque exercice, mais cet objectif ne fait pas partie de cette thèse. La définition de profils d'apprenants par le recueil de traces reste également à travailler pour optimiser les aides et séances d'exercices. | |
71 | +Pour l'apprentissage de l'Anglais, un robot est chargé d'énoncer les exercices de la séance. Au démarrage de cette thèse, les apprenants ont une liste personnalisée d'exercices proposée par le système AI-VT, mais c'est à l'enseignant de vérifier la validité des algorithmes/solutions proposés par les étudiants et d'identifier leurs difficultés. L'amélioration du système et de la personnalisation du parcours de l'apprenant implique une correction automatique des exercices et cela sans utiliser un entraînement spécifique à chaque exercice, mais cet objectif ne fait pas partie de cette thèse. La définition de profils d'apprenants par le recueil de traces reste également à travailler pour optimiser les aides et séances d'exercices. | |
72 | 72 | |
73 | 73 | Le système AI-VT a été implémenté en se fondant sur deux paradigmes de l'IA : la séance d'entraînement est construite par différents modules suivant la philosophie du raisonnement à partir de cas, et l'architecture logicielle a été modélisée selon un système multi-agents. Une présentation sommaire de ces deux paradigmes de l'IA sont présentés dans cette section, et celles-ci sont suivies de la présentation de différents algorithmes et fonctions implémentés dans l'EIAH AI-VT. Des états de l'art plus complets sur les EIAH et le RàPC sont présentés dans le chapitre suivant. Le système AI-VT, son architecture et les évolutions qui ont été réalisées sur celle-ci sont détaillés dans le chapitre 4. |
74 | 74 | |
... | ... | @@ -183,7 +183,7 @@ |
183 | 183 | \item Fondé sur le comportement: l'agent a à sa disposition un ensemble de modèles de comportement pour réaliser certaines tâches spécifiques. Chaque comportement se déclenche selon des règles prédéfinies ou des conditions d'activation. Le comportement de l'agent peut être modélisé avec différentes stratégies cognitives de pensée ou de raisonnement. |
184 | 184 | \end{itemize} |
185 | 185 | |
186 | -\subsection{Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées} | |
186 | +\subsection{Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées} | |
187 | 187 | |
188 | 188 | \subsubsection{Pensée Bayesienne} |
189 | 189 | |
... | ... | @@ -196,7 +196,7 @@ |
196 | 196 | |
197 | 197 | La formule de Bayes calcule la probabilité a posteriori $P(A|B)$ de la plausibilité de la théorie $A$ compte tenu des données $B$, et requiert trois termes: (1) une probabilité a priori $P(A)$ de la plausibilité de l'hypothèse $A$, (2) le terme $P(B|A)$ qui mesure la capacité de l'hypothèse $A$ à expliquer les données observées $B$ et (3) la fonction de partition $P(B)$ qui met en compétition toutes les hypothèses qui ont pu générer les données observées $B$. À chaque nouvelle évaluation de la formule, la valeur du terme a priori $P(A)$ est actualisée par la valeur du terme a posteriori $P(A|B)$. Ainsi, à chaque évaluation, le degré de plausibilité de chaque hypothèse est ajusté \cite{Hoang}. |
198 | 198 | |
199 | -Par la suite, nous explicitons quelques algorithmes, intègrés généralement dans l'étape "Rechercher" du RàPC, pour la recherche des cas les plus proches d'un nouveau cas. | |
199 | +Par la suite, nous explicitons quelques algorithmes, intégrés généralement dans l'étape "Rechercher" du RàPC, pour la recherche des cas les plus proches d'un nouveau cas. | |
200 | 200 | |
201 | 201 | \subsubsection{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)} |
202 | 202 | |
... | ... | @@ -299,7 +299,7 @@ |
299 | 299 | \label{eqdProb} |
300 | 300 | \end{equation} |
301 | 301 | |
302 | -La tâche principale est d'obtenir les paramètres $\alpha_k, \theta_k$ pour tout $k$ défini dans GMM en utilisant un ensemble de données avec $N$ échantillons d'entrainement. Une solution classique pour l'estimation des paramètres requis utilise l'algorithme de maximisation des attentes (Expectation-Maximization EM), qui vise à maximiser la vraisemblance de l'ensemble de données. Il s'agit d'un algorithme itératif durant lequel les paramètres sont continuellement mis à jour jusqu'à ce que la valeur delta log-vraisemblance entre deux itérations soit inférieure à un seuil donné. | |
302 | +La tâche principale est d'obtenir les paramètres $\alpha_k, \theta_k$ pour tout $k$ défini dans GMM en utilisant un ensemble de données avec $N$ échantillons d'entraînement. Une solution classique pour l'estimation des paramètres requis utilise l'algorithme de maximisation des attentes (Expectation-Maximization EM), qui vise à maximiser la vraisemblance de l'ensemble de données. Il s'agit d'un algorithme itératif durant lequel les paramètres sont continuellement mis à jour jusqu'à ce que la valeur delta log-vraisemblance entre deux itérations soit inférieure à un seuil donné. | |
303 | 303 | |
304 | 304 | \subsubsection{Fuzzy-C} |
305 | 305 | Fuzzy C-Means Clustering (FCM) est un algorithme de clustering flou non supervisé largement utilisé \cite{9627973}. Le FCM utilise comme mesure de distance la mesure euclidienne. Supposons d'abord que l'ensemble d'échantillons à regrouper est $X=\{x_1,x_2,...,x_n\}$, où $x_j \in R^d(1 \le j \le n)$ dans un espace Euclidien à $d$ dimensions, et $c$ le nombre de clusters. L'équation \ref{eqFuzzy} montre la fonction objectif de FCM. |
... | ... | @@ -336,7 +336,7 @@ |
336 | 336 | |
337 | 337 | \subsubsection{Échantillonnage de Thompson TS (\textit{Thompson Sampling})} |
338 | 338 | |
339 | -Comme indiqué dans \cite{9870279}, l'algorithme d'échantillonnage de Thompson est un algorithme de type probabiliste utilisé généralement pour résoudre le problème MAB. Il s'appuie sur un modèle Bayésien dans lequel une distribution de probabilités \textit{Beta} est initialisée. Cette distribution de probabilités est ensuite affinée de manière à optimiser la valeur résultat à estimer. Les valeurs initiales des probabilités de Beta sont définies sur l'intervalle $[0, 1]$. Elle est définie à l'aide de deux paramètres $\alpha$ et $\beta$. | |
339 | +Comme indiqué dans \cite{9870279}, l'algorithme d'échantillonnage de Thompson est un algorithme de type probabiliste utilisé généralement pour résoudre le problème MAB. Il s'appuie sur un modèle bayésien dans lequel une distribution de probabilités \textit{Beta} est initialisée. Cette distribution de probabilités est ensuite affinée de manière à optimiser la valeur résultat à estimer. Les valeurs initiales des probabilités de Beta sont définies sur l'intervalle $[0, 1]$. Elle est définie à l'aide de deux paramètres $\alpha$ et $\beta$. | |
340 | 340 | |
341 | 341 | L'échantillonnage de Thompson peut être appliqué à la résolution du problème du Bandit Manchot(MAB). Dans ce cas, les actions définies dans le MAB ont chacune une incidence sur la distribution de probabilités Beta de l'échantillonnage de Thompson. Pour chaque action de MAB, les paramètres de Beta sont initialisés à 1. Ces valeurs changent et sont calculées à partir de récompenses obtenues : si au moment d'exécuter une action spécifique le résultat est un succès, alors la valeur du paramètre $\alpha$ de sa distribution Beta augmente mais si le résultat est un échec alors c'est la valeur du paramètre $\beta$ de sa distribution Beta qui augmente. De cette façon, la distribution pour chacune des actions possibles est ajustée en privilégiant les actions qui génèrent le plus de récompenses. |
342 | 342 |
main.log
View file @
035f44f
1 | -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 17 JUL 2025 09:12 | |
1 | +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 17 JUL 2025 10:15 | |
2 | 2 | entering extended mode |
3 | 3 | restricted \write18 enabled. |
4 | 4 | %&-line parsing enabled. |
5 | 5 | |
6 | 6 | |
... | ... | @@ -1192,13 +1192,14 @@ |
1192 | 1192 | ] [3] [4] |
1193 | 1193 | (./main.toc |
1194 | 1194 | LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available |
1195 | -(Font) Font shape `T1/phv/m/sl' tried instead on input line 23. | |
1196 | - [5 | |
1195 | +(Font) Font shape `T1/phv/m/sl' tried instead on input line 24. | |
1197 | 1196 | |
1198 | -] [6] | |
1199 | -Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1197 | +Underfull \vbox (badness 1043) has occurred while \output is active [] | |
1200 | 1198 | |
1201 | - [7] | |
1199 | + [5 | |
1200 | + | |
1201 | +] | |
1202 | +[6] [7] | |
1202 | 1203 | Overfull \hbox (1.29184pt too wide) detected at line 89 |
1203 | 1204 | [][]\T1/phv/m/n/10.95 100[] |
1204 | 1205 | [] |
... | ... | @@ -1600,8 +1601,8 @@ |
1600 | 1601 | (./chapters/ESCBR.tex |
1601 | 1602 | Chapitre 6. |
1602 | 1603 | |
1603 | -Underfull \hbox (badness 1383) in paragraph at lines 7--9 | |
1604 | -\T1/phv/m/n/10.95 multi-agents cog-ni-tifs im-plé-men-tant un rai-son-ne-ment B | |
1604 | +Underfull \hbox (badness 1552) in paragraph at lines 7--9 | |
1605 | +\T1/phv/m/n/10.95 multi-agents cog-ni-tifs im-plé-men-tant un rai-son-ne-ment b | |
1605 | 1606 | ayé-sien. Cette as-so-cia-tion, |
1606 | 1607 | [] |
1607 | 1608 | |
... | ... | @@ -2121,14 +2122,8 @@ |
2121 | 2122 | |
2122 | 2123 | LaTeX Warning: There were multiply-defined labels. |
2123 | 2124 | |
2124 | - | |
2125 | -Package rerunfilecheck Warning: File `main.out' has changed. | |
2126 | -(rerunfilecheck) Rerun to get outlines right | |
2127 | -(rerunfilecheck) or use package `bookmark'. | |
2128 | - | |
2129 | -Package rerunfilecheck Info: Checksums for `main.out': | |
2130 | -(rerunfilecheck) Before: 4D23690A3BB32D8DF3C92F3F5BF35324;24241 | |
2131 | -(rerunfilecheck) After: 2BF3A1974D03AFB3E177B5E86C134290;24241. | |
2125 | +Package rerunfilecheck Info: File `main.out' has not changed. | |
2126 | +(rerunfilecheck) Checksum: A06CA241E4961E00F708D1DB761D768D;24244. | |
2132 | 2127 | ) |
2133 | 2128 | Here is how much of TeX's memory you used: |
2134 | 2129 | 21558 strings out of 476038 |
... | ... | @@ -2137,7 +2132,7 @@ |
2137 | 2132 | 40975 multiletter control sequences out of 15000+600000 |
2138 | 2133 | 619032 words of font info for 151 fonts, out of 8000000 for 9000 |
2139 | 2134 | 1141 hyphenation exceptions out of 8191 |
2140 | - 126i,17n,133p,1979b,754s stack positions out of 10000i,1000n,20000p,200000b,200000s | |
2135 | + 126i,17n,133p,1979b,732s stack positions out of 10000i,1000n,20000p,200000b,200000s | |
2141 | 2136 | |
2142 | 2137 | pdfTeX warning (dest): name{cite.badier\\penalty\040\\@M\040\040:hal-04092828} |
2143 | 2138 | has been referenced but does not exist, replaced by a fixed one |
... | ... | @@ -2165,7 +2160,7 @@ |
2165 | 2160 | lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/ |
2166 | 2161 | uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf |
2167 | 2162 | b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb> |
2168 | -Output written on main.pdf (124 pages, 5444877 bytes). | |
2163 | +Output written on main.pdf (124 pages, 5444842 bytes). | |
2169 | 2164 | PDF statistics: |
2170 | 2165 | 1849 PDF objects out of 2073 (max. 8388607) |
2171 | 2166 | 1580 compressed objects within 16 object streams |
main.out
View file @
035f44f
... | ... | @@ -16,7 +16,7 @@ |
16 | 16 | \BOOKMARK [3][]{subsubsection.2.2.1.4}{\376\377\0002\000.\0002\000.\0001\000.\0004\000\040\000R\000e\000t\000e\000n\000i\000r\000\040\000\050\000S\000t\000o\000c\000k\000e\000r\000\051}{subsection.2.2.1}% 16 |
17 | 17 | \BOOKMARK [3][]{subsubsection.2.2.1.5}{\376\377\0002\000.\0002\000.\0001\000.\0005\000\040\000C\000o\000n\000t\000e\000n\000e\000u\000r\000s\000\040\000d\000e\000\040\000C\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e}{subsection.2.2.1}% 17 |
18 | 18 | \BOOKMARK [2][]{subsection.2.2.2}{\376\377\0002\000.\0002\000.\0002\000\040\000L\000e\000s\000\040\000s\000y\000s\000t\000\350\000m\000e\000s\000\040\000m\000u\000l\000t\000i\000-\000a\000g\000e\000n\000t\000s}{section.2.2}% 18 |
19 | -\BOOKMARK [2][]{subsection.2.2.3}{\376\377\0002\000.\0002\000.\0003\000\040\000D\000i\000f\000f\000\351\000r\000e\000n\000t\000s\000\040\000a\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000e\000t\000\040\000f\000o\000n\000c\000t\000i\000o\000n\000s\000\040\000i\000m\000p\000l\000\351\000m\000e\000n\000t\000\351\000s\000\040\000d\000a\000n\000s\000\040\000A\000I\000-\000V\000T\000\040\000p\000o\000u\000r\000\040\000l\000a\000\040\000p\000e\000r\000s\000o\000n\000n\000a\000l\000i\000s\000a\000t\000i\000o\000n\000\040\000e\000t\000\040\000l\000'\000a\000d\000a\000p\000t\000a\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000\351\000a\000n\000c\000e\000s\000\040\000d\000'\000e\000n\000t\000r\000a\000i\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900n\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900e\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900m\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900e\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900n\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900t\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1940\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900p\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900r\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900o\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900p\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900o\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900s\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 190051\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900e\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900s}{section.2.2}% 19 | |
19 | +\BOOKMARK [2][]{subsection.2.2.3}{\376\377\0002\000.\0002\000.\0003\000\040\000D\000i\000f\000f\000\351\000r\000e\000n\000t\000s\000\040\000a\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000e\000t\000\040\000f\000o\000n\000c\000t\000i\000o\000n\000s\000\040\000i\000m\000p\000l\000\351\000m\000e\000n\000t\000\351\000s\000\040\000d\000a\000n\000s\000\040\000A\000I\000-\000V\000T\000\040\000p\000o\000u\000r\000\040\000l\000a\000\040\000p\000e\000r\000s\000o\000n\000n\000a\000l\000i\000s\000a\000t\000i\000o\000n\000\040\000e\000t\000\040\000l\000'\000a\000d\000a\000p\000t\000a\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000\351\000a\000n\000c\000e\000s\000\040\000d\000'\000e\000n\000t\000r\000a\000\356\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900n\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900e\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900m\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900e\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900n\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900t\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1940\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900p\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900r\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900o\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900p\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900o\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900s\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 190051\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900e\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 1900s}{section.2.2}% 19 | |
20 | 20 | \BOOKMARK [3][]{subsubsection.2.2.3.1}{\376\377\0002\000.\0002\000.\0003\000.\0001\000\040\000P\000e\000n\000s\000\351\000e\000\040\000B\000a\000y\000e\000s\000i\000e\000n\000n\000e}{subsection.2.2.3}% 20 |
21 | 21 | \BOOKMARK [3][]{subsubsection.2.2.3.2}{\376\377\0002\000.\0002\000.\0003\000.\0002\000\040\000M\000\351\000t\000h\000o\000d\000e\000\040\000d\000e\000s\000\040\000k\000\040\000p\000l\000u\000s\000\040\000p\000r\000o\000c\000h\000e\000s\000\040\000v\000o\000i\000s\000i\000n\000s\000\040\000\050\000K\000-\000N\000e\000a\000r\000e\000s\000t\000\040\000N\000e\000i\000g\000h\000b\000o\000r\000h\000o\000o\000d\000\040\000-\000\040\000K\000N\000N\000\051}{subsection.2.2.3}% 21 |
22 | 22 | \BOOKMARK [3][]{subsubsection.2.2.3.3}{\376\377\0002\000.\0002\000.\0003\000.\0003\000\040\000K\000-\000M\000o\000y\000e\000n\000n\000e\000s}{subsection.2.2.3}% 22 |
main.pdf
View file @
035f44f
main.synctex.gz
View file @
035f44f
main.tex
View file @
035f44f
... | ... | @@ -319,7 +319,7 @@ |
319 | 319 | Comme l'indique \cite{Nkambou}, les environnements informatiques pour l'apprentissage humain (EIAH) sont des outils proposant des services devant permettre aux apprenants d'acquérir des connaissances et de développer des compétences dans un domaine spécifique. Pour fournir des services efficaces, le système doit intégrer une représentation des connaissances du domaine et des mécanismes pour utiliser ces connaissances. Il doit également être en mesure de raisonner et de résoudre des problèmes. |
320 | 320 | %% JH : j'ai supprimé ce qui suit car je n'ai pas compris le sens : "ainsi que un module expert spécifique pour faciliter l'acquisition aux apprenants".\\ |
321 | 321 | |
322 | -Le système \textit{Artificial Intelligence - Virtual Trainer} (AI-VT) est un EIAH générique dévéloppé au département d'informatique des systèmes complexes (DISC) de l'institut de recherche FEMTO-ST. Cet outil informatique propose un ensemble d'exercices aux apprenants dans le cadre de séances d'entrainement. AI-VT intègre le fait qu'une séance d'entraînement se situe dans un cycle de plusieurs séances. Les réponses apportées par l'apprenant à chaque exercice sont évaluées numériquement sur une échelle prédéfinie, ce qui permet d'estimer les progrès de l'apprenant et de déduire les sous-domaines dans lesquels il peut avoir des difficultés. Une séance est générée par un système multi-agents associé à un système de raisonnement à partir de cas (RàPC) \cite{doi:10.1177/1754337116651013}. Un apprenant choisit le domaine dans lequel il souhaite s'entraîner et AI-VT lui propose un test préliminaire. Les résultats obtenus permettent de placer l'apprenant dans le niveau de maîtrise adéquate. Le système génère ensuite une séance adaptée veillant à l'équilibre entre l'entraînement, l'apprentissage et la découverte de nouvelles connaissances. L'actualisation du niveau de l'apprenant est effectuée à la fin de chaque séance. De cette façon l'apprenant peut avancer dans l'acquisition des connaissances ou s'entraîner sur des connaissances déjà apprises. | |
322 | +Le système \textit{Artificial Intelligence - Virtual Trainer} (AI-VT) est un EIAH générique développé au département d'informatique des systèmes complexes (DISC) de l'institut de recherche FEMTO-ST. Cet outil informatique propose un ensemble d'exercices aux apprenants dans le cadre de séances d'entraînement. AI-VT intègre le fait qu'une séance d'entraînement se situe dans un cycle de plusieurs séances. Les réponses apportées par l'apprenant à chaque exercice sont évaluées numériquement sur une échelle prédéfinie, ce qui permet d'estimer les progrès de l'apprenant et de déduire les sous-domaines dans lesquels il peut avoir des difficultés. Une séance est générée par un système multi-agents associé à un système de raisonnement à partir de cas (RàPC) \cite{doi:10.1177/1754337116651013}. Un apprenant choisit le domaine dans lequel il souhaite s'entraîner et AI-VT lui propose un test préliminaire. Les résultats obtenus permettent de placer l'apprenant dans le niveau de maîtrise adéquate. Le système génère ensuite une séance adaptée veillant à l'équilibre entre l'entraînement, l'apprentissage et la découverte de nouvelles connaissances. L'actualisation du niveau de l'apprenant est effectuée à la fin de chaque séance. De cette façon l'apprenant peut avancer dans l'acquisition des connaissances ou s'entraîner sur des connaissances déjà apprises. | |
323 | 323 | |
324 | 324 | Un certain nombre d'EIAH utilisent des algorithmes d'intelligence artificielle (IA) pour détecter les faiblesses et aussi pour s'adapter à chaque apprenant. Les algorithmes et modèles de certains de ces systèmes seront analysés dans les chapitres 2 et 3. Ces chapitres présenteront leurs propriétés, leurs avantages et leurs limites. |
325 | 325 | |
... | ... | @@ -335,7 +335,7 @@ |
335 | 335 | |
336 | 336 | La partie suivante présente une liste des principales contributions apportées par cette thèse à la problématique générale énoncée plus haut. |
337 | 337 | |
338 | -Ce travail de thèse a été éffectué au sein l'Université de Franche-Comté (UFC) devenue depuis le 1er janvier 2025 l'Université Marie et Louis Pasteur (UMLP). Ces recherches ont été menées au sein de l'équipe DEODIS du département d'informatique des systèmes complexes de l'institut de recherche FEMTO-ST, unité mixte de recherche (UMR) 6174 du centre national de la recherche scientifique (CNRS). | |
338 | +Ce travail de thèse a été effectué au sein l'Université de Franche-Comté (UFC) devenue depuis le 1er janvier 2025 l'Université Marie et Louis Pasteur (UMLP). Ces recherches ont été menées au sein de l'équipe DEODIS du département d'informatique des systèmes complexes de l'institut de recherche FEMTO-ST, unité mixte de recherche (UMR) 6174 du centre national de la recherche scientifique (CNRS). | |
339 | 339 | |
340 | 340 | \section{Contributions Principales} |
341 | 341 | |
... | ... | @@ -348,7 +348,7 @@ |
348 | 348 | |
349 | 349 | \item \textbf{Quel modèle et quel type d'algorithmes peuvent être utilisés pour recommander un parcours personnalisé aux apprenants ?} Pour apporter une réponse à cette question, un système de recommandation fondé sur l'apprentissage par renforcement a été conçu. L'objectif de ces travaux est de proposer un module permettant de recommander des exercices aux apprenants en fonction des connaissances démontrées et en se fondant sur les réponses apportées aux exercices précédents de la séance en cours. Ce module de révision de la séance en cours du RàPC est fondé sur l'inférence Bayésienne. |
350 | 350 | |
351 | - \item \textbf{Comment consolider les acquis de manière automatique ?} Une séance doit non seulement intégrer des exercices de niveaux variés mais également permettre à l'apprenant de renforcer ses connaissances. Dans cette optique, notre algorithme Bayésien a été enrichi d'un processus de Hawkes incluant une fonction d'oubli. | |
351 | + \item \textbf{Comment consolider les acquis de manière automatique ?} Une séance doit non seulement intégrer des exercices de niveaux variés mais également permettre à l'apprenant de renforcer ses connaissances. Dans cette optique, notre algorithme bayésien a été enrichi d'un processus de Hawkes incluant une fonction d'oubli. | |
352 | 352 | |
353 | 353 | \end{enumerate} |
354 | 354 |
main.toc
View file @
035f44f
... | ... | @@ -17,7 +17,7 @@ |
17 | 17 | \contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{15}{subsubsection.2.2.1.4}% |
18 | 18 | \contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{16}{subsubsection.2.2.1.5}% |
19 | 19 | \contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{16}{subsection.2.2.2}% |
20 | -\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées}{17}{subsection.2.2.3}% | |
20 | +\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}{17}{subsection.2.2.3}% | |
21 | 21 | \contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}% |
22 | 22 | \contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{18}{subsubsection.2.2.3.2}% |
23 | 23 | \contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{19}{subsubsection.2.2.3.3}% |