Commit 9c9a90840ffc151b94ecbc709fac6e3d1c13d606

Authored by dsotofor
1 parent 8aea8258fc
Exists in main

another version chapters unification

Showing 7 changed files with 25 additions and 23 deletions Side-by-side Diff

chapters/Architecture.tex View file @ 9c9a908
... ... @@ -140,6 +140,8 @@
140 140  
141 141 Les outils des différentes couches de l'architecture peuvent communiquer entre eux, car pour que certains de leurs modules internes fonctionnent, ils ont besoin des informations générées par les modules des autres couches. La figure \figref{figLayers} montre les interactions qui peuvent se produire lorsque le système génère une séance ou l'adapte ou encore lorsqu'un module expérimental doit être évalué. La couche de test (LT) a besoin des informations générées par les modules de toutes les autres couches pour évaluer leurs performances individuelles. La couche d'identification (LD) doit obtenir les données relatives au profil des apprenants. Ces informations sont générées par le module de profil qui se trouve dans la couche de révision (LR). Pour certains modules qui ont la capacité de modifier une solution, cette couche doit connaître les résultats obtenus par l'apprenant dans chacun des tests ou exercices proposés par le système. Ces résultats sont attribués par la couche de correction automatique (LC). De plus, il est possible d'obtenir une estimation du résultat de la révision proposée avant qu'elle ne soit envoyée à l'apprenant, pour cela il faut invoquer les modules spécifiques de prédiction qui appartiennent à la couche de révision (LR).
142 142  
  143 +L'algorithme spécifique pour le module LT1 et les caractéristiques de la base de données générée sont détaillées dans le chapitre 7.
  144 +
143 145 \mfigure[!ht]{scale=0.8}{./Figures/Layers.png}{Relation entre les couches définies de l'architecture.}{figLayers}
144 146  
145 147 %\begin{figure}[!ht]
chapters/ESCBR.tex View file @ 9c9a908
... ... @@ -623,7 +623,7 @@
623 623 La dispersion globale, la médiane et les valeurs aberrantes pour toutes les bases données évaluées sont présentées dans la figure \ref{figBox}, où l'on peut voir que l'algorithme proposé génère dans certains cas plus de valeurs aberrantes que d'autres algorithmes, mais la variance est très faible et la convergence est proche de la valeur réelle, meilleure que la plupart des algorithmes comparés. Les valeurs aberrantes sont plus élevées que les valeurs réelles.
624 624  
625 625 \begin{figure}[!ht]
626   -\includegraphics[scale=0.26]{Figures/boxplot2.png}
  626 +\includegraphics[width=\textwidth]{Figures/boxplot2.png}
627 627 \caption{Résultats de la métrique MAE (Median Absolute Error) pour dix algorithmes}
628 628 \label{figBox}
629 629 \end{figure}
chapters/TS.tex View file @ 9c9a908
... ... @@ -12,9 +12,9 @@
12 12  
13 13 Les contributions de la deuxième partie sont :
14 14 \begin{itemize}
15   - \item Vérification de l'efficacité du modèle de raisonnement basé sur les cas pour la prédiction avec une base de données de notes d'apprenants par rapport à d'autres algorithmes.
  15 + \item Vérification de l'efficacité du modèle de raisonnement à partir de cas pour la prédiction avec une base de données de notes d'apprenants par rapport à d'autres algorithmes.
16 16 \item Calcul explicite de l'évolution de l'acquisition des connaissances en analysant le changement des distributions de probabilité générées par le modèle de recommandation stochastique.
17   - \item Intégration du modèle de recommandation stochastique à la prédiction par raisonnement basé sur les cas pour améliorer la personnalisation de l'ITS.
  17 + \item Intégration du modèle de recommandation stochastique à la prédiction par raisonnement à partir de cas pour améliorer la personnalisation de l'ITS.
18 18 \end{itemize}
19 19  
20 20 L'un des principaux modules des EIAH est le système de recommandation, qui vise à trouver les faiblesses et à adapter la plateforme localement ou globalement pour faciliter le processus d'apprentissage et l'acquisition des connaissances, ce module est très important car il permet d'adapter le système et de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants, l'efficacité du système dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce module \cite{Liu2023}. Il est donc nécessaire de trouver des techniques et des algorithmes capables d'exploiter les données disponibles et d'explorer les options d'apprentissage de manière dynamique, afin d'améliorer les performances globales des EIAH.
... ... @@ -385,7 +385,7 @@
385 385 \label{eqbkt3}
386 386 \end{equation}
387 387  
388   -Le modèle de recommandation proposé, associé à AI-VT, est basé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. L'algorithme utilisé pour l'adaptation est un algorithme d'apprentissage par renforcement appelé échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus analysé spécifique \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Bêta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}.
  388 +Le modèle de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. L'algorithme utilisé pour l'adaptation est un algorithme d'apprentissage par renforcement appelé échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus analysé spécifique \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Bêta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}.
389 389  
390 390 %\begin{equation}
391 391 % Beta(x,\alpha,\beta)=\begin{cases}
392 392  
... ... @@ -464,14 +464,14 @@
464 464 \label{f7Beta}
465 465 \end{equation}
466 466  
467   -L'évolution de l'algorithme de recommandation TS est établie par le changement des distributions de probabilité, mais au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude, sous la forme d'une métrique qui détermine numériquement les différences entre elles. L'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est basée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'information nécessaire pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. La divergence de Kullback-Liebler (équation \ref{dkl}) est largement utilisée, mais elle présente l'inconvénient de ne pas pouvoir être utilisée comme métrique dans certains cas, car il ne s'agit pas d'une mesure symétrique, $D_{KL}(p,q) \neq D_{KL}(q,p)$, elle ne satisfait pas à l'inégalité triangulaire et elle n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon.
  467 +L'évolution de l'algorithme de recommandation TS est établie par le changement des distributions de probabilité, mais au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude, sous la forme d'une métrique qui détermine numériquement les différences entre elles. L'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'information nécessaire pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. La divergence de Kullback-Liebler (équation \ref{dkl}) est largement utilisée, mais elle présente l'inconvénient de ne pas pouvoir être utilisée comme métrique dans certains cas, car il ne s'agit pas d'une mesure symétrique, $D_{KL}(p,q) \neq D_{KL}(q,p)$, elle ne satisfait pas à l'inégalité triangulaire et elle n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon.
468 468  
469 469 \begin{equation}
470 470 D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx
471 471 \label{dkl}
472 472 \end{equation}
473 473  
474   -La divergence de Jenser-Shannon est basée sur la divergence de Kullback-Liebler, à la différence qu'une distribution de probabilité auxiliaire $m$ est créée dont la définition est basée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités basée sur $p(x)$ et $q(x)$, l'équation \ref{djs2} montre comment elle est calculée. La divergence de Jensen-Shannon est un mélange de distributions de probabilités basé sur $p(x)$ et $q(x)$.
  474 +La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler, à la différence qu'une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$, l'équation \ref{djs2} montre comment elle est calculée. La divergence de Jensen-Shannon est un mélange de distributions de probabilités fondé sur $p(x)$ et $q(x)$.
475 475  
476 476 %Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\
477 477  
478 478  
479 479  
... ... @@ -487,13 +487,13 @@
487 487  
488 488 Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine.
489 489  
490   -La prédiction utilisée dans le modèle proposé est basée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement basé sur les cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle basé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet d'éviter le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation par raisonnement basé sur les cas.
  490 +La prédiction utilisée dans le modèle proposé est fondée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement à partir de cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle fondé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet d'éviter le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation par raisonnement à partir de cas.
491 491  
492 492 \section{Modèle Proposé}
493 493  
494   -Le modèle proposé est une intégration du modèle d'adaptation stochastique (basé sur l'échantillonnage de Thompson) avec le raisonnement à base de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée.
  494 +Le modèle proposé est une intégration du modèle d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec le raisonnement à base de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée.
495 495  
496   -L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en se basant uniquement sur les informations des apprenants individuels (modèle basé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec CBR). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel}, où l'on peut voir que les deux modèles TS et CBR sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}.
  496 +L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en se basant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec CBR). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel}, où l'on peut voir que les deux modèles TS et CBR sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}.
497 497  
498 498 \begin{figure}
499 499 \centering
... ... @@ -628,7 +628,7 @@
628 628  
629 629 \subsection{Progression des connaissances}
630 630  
631   -Le modèle de recommandation TS est basé sur le paradigme bayésien, ce qui est très utile lorsque les données sont limitées et l'incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ fois a été utilisée comme second test. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
  631 +Le modèle de recommandation TS est fondé sur le paradigme bayésien, ce qui est très utile lorsque les données sont limitées et l'incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ fois a été utilisée comme second test. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
632 632  
633 633 %\begin{equation}
634 634 \begin{multline}
... ... @@ -704,7 +704,7 @@
704 704  
705 705 \subsection{Progression des connaissances TS vs TS et ESCBR-SMA}
706 706  
707   -Pour établir la différence entre le modèle de recommandation TS et le même modèle associé à la prédiction basée sur le raisonnement à partir de cas ESCBR-SMA, le quatrième test est défini en utilisant la métrique de Jensen-Shannon, mais dans ce cas la comparaison est faite entre les différents modèles (TS, TS-ESCBR) sur le même niveau de complexité dans le même temps $t$. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}.
  707 +Pour établir la différence entre le modèle de recommandation TS et le même modèle associé à la prédiction fondée sur le raisonnement à partir de cas ESCBR-SMA, le quatrième test est défini en utilisant la métrique de Jensen-Shannon, mais dans ce cas la comparaison est faite entre les différents modèles (TS, TS-ESCBR) sur le même niveau de complexité dans le même temps $t$. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}.
708 708  
709 709 \begin{multline}
710 710 k_{t,c}=\frac{1}{2}
... ... @@ -735,7 +735,7 @@
735 735  
736 736 \section{Conclusion}
737 737  
738   -Ce chapitre présente un modèle intégré entre deux modèles développés précédemment, un système de recommandation basé sur l'algorithme d'échantillonnage de Thompson et un modèle de régression d'ensemble basé sur le raisonnement par cas. Le modèle intégré est appliqué à un ITS appelé AI-VT, les résultats montrent en effet que l'intégration permet d'améliorer la performance des deux modèles utilisés séparément, en outre il montre de meilleurs résultats dans la révision/adaptation des étapes de solutions pour chaque apprenant, en fonction des métriques utilisées et des tests définis, donnant une meilleure personnalisation du système et facilitant l'acquisition de connaissances.
  738 +Ce chapitre présente un modèle intégré entre deux modèles développés précédemment, un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson et un modèle de régression d'ensemble fondé sur le raisonnement par cas. Le modèle intégré est appliqué à un ITS appelé AI-VT, les résultats montrent en effet que l'intégration permet d'améliorer la performance des deux modèles utilisés séparément, en outre il montre de meilleurs résultats dans la révision/adaptation des étapes de solutions pour chaque apprenant, en fonction des métriques utilisées et des tests définis, donnant une meilleure personnalisation du système et facilitant l'acquisition de connaissances.
739 739 %Le modèle intégré est appliqué à un ITS appelé AI-VT.\\
740 740  
741 741 Les avantages du modèle proposé sont les suivants : i) il permet de générer des recommandations personnalisées pour chaque apprenant avec relativement peu de données historiques, ii) étant donné que de multiples points de vue (différents algorithmes) sur le même problème et avec la même base de données sont intégrés, le risque de tomber dans des paradoxes statistiques (Stein, Simpson) est réduit, iii) les deux modèles se complètent mutuellement en améliorant les résultats finaux d'une manière généralisée. Le modèle proposé a été conçu pour être utilisé dans le cadre d'un projet de recherche et de développement en cours.\\\\
742 742  
... ... @@ -743,9 +743,9 @@
743 743 \textbf{TROISIÈME PARTIE}
744 744  
745 745 \section{Modèle Proposé}
746   -L'algorithme proposé est une intégration de la recommandation stochastique (basée sur l'échantillonnage de Thompson), du raisonnement à partir de cas (ESCBR-SMA) et du processus de Hawkes. Dans ce cas, l'algorithme de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée, le processus de Hawkes simule la courbe d'oubli dans le processus d'apprentissage.
  746 +L'algorithme proposé est une intégration de la recommandation stochastique (fondée sur l'échantillonnage de Thompson), du raisonnement à partir de cas (ESCBR-SMA) et du processus de Hawkes. Dans ce cas, l'algorithme de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée, le processus de Hawkes simule la courbe d'oubli dans le processus d'apprentissage.
747 747  
748   -L'idée de l'unification est d'obtenir des informations d'un point de vue local où une recommandation est obtenue en se basant uniquement sur les informations des apprenants individuels (modèle basé sur l'échantillonnage de Thompson), la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec CBR) et le processus d'apprentissage dynamique avec le processus de Hawkes. L'architecture de l'algorithme est présentée dans la figure \ref{fig:Amodel}, où TS et CBR sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque algorithme sont obtenus, les résultats sont unifiés par une fonction de pondération et une distribution de probabilité mises à jour dynamiquement en fonction des événements passés et du niveau de complexité sélectionné, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des deux résultats globaux permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}.
  748 +L'idée de l'unification est d'obtenir des informations d'un point de vue local où une recommandation est obtenue en se basant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson), la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec CBR) et le processus d'apprentissage dynamique avec le processus de Hawkes. L'architecture de l'algorithme est présentée dans la figure \ref{fig:Amodel}, où TS et CBR sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque algorithme sont obtenus, les résultats sont unifiés par une fonction de pondération et une distribution de probabilité mises à jour dynamiquement en fonction des événements passés et du niveau de complexité sélectionné, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des deux résultats globaux permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}.
749 749  
750 750 \begin{figure}[!ht]
751 751 \centering
... ... @@ -907,7 +907,7 @@
907 907  
908 908 \section{Conclusion}
909 909  
910   -Ce chapitre a présenté un algorithme intégré entre deux modèles développés précédemment, un système de recommandation basé sur l'algorithme d'échantillonnage de Thompson, un modèle de régression d'ensemble basé sur le raisonnement par cas et une simulation de courbe d'oubli en utilisant le processus de Hawkes. L'algorithme intégré est appliqué à un EIAH appelé AI-VT. Les résultats montrent en effet que l'intégration permet d'obtenir des résultats similaires, mais avec un processus plus réaliste, ce qui permet de mieux personnaliser le système et de faciliter l'acquisition de connaissances.
  910 +Ce chapitre a présenté un algorithme intégré entre deux modèles développés précédemment, un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson, un modèle de régression d'ensemble fondé sur le raisonnement par cas et une simulation de courbe d'oubli en utilisant le processus de Hawkes. L'algorithme intégré est appliqué à un EIAH appelé AI-VT. Les résultats montrent en effet que l'intégration permet d'obtenir des résultats similaires, mais avec un processus plus réaliste, ce qui permet de mieux personnaliser le système et de faciliter l'acquisition de connaissances.
911 911  
912 912 Les avantages du modèle proposé sont les suivants : i) il permet de générer des recommandations personnalisées pour chaque apprenant avec relativement peu de données historiques, ii) étant donné que plusieurs points de vue (différents algorithmes) sur le même problème et avec la même base de données sont intégrés sur la base du paradoxe de Stein, le risque de tomber dans les paradoxes de Simpson est réduit, iii) les deux modèles avec le processus de Hawkes sont plus réalistes et dynamiques dans le processus d'apprentissage global.
chapters/contexte2.tex View file @ 9c9a908
... ... @@ -178,9 +178,9 @@
178 178 Il existe quatre types d'agent en fonction des capacités et des approches:
179 179 \begin{itemize}
180 180 \item Réactif: c'est l'agent qui perçoit constamment l'environnement et agit en fonction de ses objectifs.
181   -\item Basé sur les réflexes: c'est l'agent qui considère les options pour atteindre ses objectifs et développe un plan à suivre.
  181 +\item Fondé sur les réflexes: c'est l'agent qui considère les options pour atteindre ses objectifs et développe un plan à suivre.
182 182 \item Hybride : il combine les deux modèles antérieurs en utilisant chacun d'eux en fonction de la situation et de l'objectif.
183   -\item Basé sur le comportement: l'agent a à sa disposition un ensemble de modèles de comportement pour réaliser certaines tâches spécifiques. Chaque comportement se déclenche selon des règles prédéfinies ou des conditions d'activation. Le comportement de l'agent peut être modélisé avec différentes stratégies cognitives de pensée ou de raisonnement.
  183 +\item Fondé sur le comportement: l'agent a à sa disposition un ensemble de modèles de comportement pour réaliser certaines tâches spécifiques. Chaque comportement se déclenche selon des règles prédéfinies ou des conditions d'activation. Le comportement de l'agent peut être modélisé avec différentes stratégies cognitives de pensée ou de raisonnement.
184 184 \end{itemize}
185 185  
186 186 \subsection{Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées}
1   -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 21 MAY 2025 15:28
  1 +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 21 MAY 2025 15:57
2 2 entering extended mode
3 3 restricted \write18 enabled.
4 4 %&-line parsing enabled.
5 5  
6 6  
... ... @@ -1598,13 +1598,13 @@
1598 1598 <./Figures/Layers.png, id=969, 392.46625pt x 216.81pt>
1599 1599 File: ./Figures/Layers.png Graphic file (type png)
1600 1600 <use ./Figures/Layers.png>
1601   -Package pdftex.def Info: ./Figures/Layers.png used on input line 143.
  1601 +Package pdftex.def Info: ./Figures/Layers.png used on input line 145.
1602 1602 (pdftex.def) Requested size: 313.9734pt x 173.44823pt.
1603 1603 [48]
1604   -<./Figures/flow.png, id=977, 721.69624pt x 593.21625pt>
  1604 +<./Figures/flow.png, id=976, 721.69624pt x 593.21625pt>
1605 1605 File: ./Figures/flow.png Graphic file (type png)
1606 1606 <use ./Figures/flow.png>
1607   -Package pdftex.def Info: ./Figures/flow.png used on input line 154.
  1607 +Package pdftex.def Info: ./Figures/flow.png used on input line 156.
1608 1608 (pdftex.def) Requested size: 427.43153pt x 351.33421pt.
1609 1609 ) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>]
1610 1610 \openout2 = `./chapters/ESCBR.aux'.
... ... @@ -1738,7 +1738,7 @@
1738 1738 File: Figures/boxplot2.png Graphic file (type png)
1739 1739 <use Figures/boxplot2.png>
1740 1740 Package pdftex.def Info: Figures/boxplot2.png used on input line 626.
1741   -(pdftex.def) Requested size: 419.89888pt x 217.12607pt.
  1741 +(pdftex.def) Requested size: 427.43153pt x 221.01265pt.
1742 1742 [69 <./Figures/BayesianEvolution.png>] [70 <./Figures/boxplot2.png>]
1743 1743 Underfull \vbox (badness 10000) has occurred while \output is active []
1744 1744  
... ... @@ -2068,7 +2068,7 @@
2068 2068 lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/
2069 2069 uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf
2070 2070 b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb>
2071   -Output written on main.pdf (120 pages, 7704504 bytes).
  2071 +Output written on main.pdf (120 pages, 7704568 bytes).
2072 2072 PDF statistics:
2073 2073 1769 PDF objects out of 2073 (max. 8388607)
2074 2074 1519 compressed objects within 16 object streams

No preview for this file type

main.synctex.gz View file @ 9c9a908

No preview for this file type