Commit 055e2d73ed01e7631e7eee9800207d8277ebb3b2

Authored by dsotofor
1 parent f50d6b17ad
Exists in main

duplicated...

Showing 1 changed file with 0 additions and 363 deletions Side-by-side Diff

chapters/contexte2_0.tex View file @ 055e2d7
1   -\chapter{Contexte}
2   -
3   -Dans ce chapitre sont décrits plus en détails le contexte applicatif et le contexte technique de ces travaux de recherche. Il présente les concepts et algorithmes utilisés dans le développement des modules. Ces modules font partie des contributions de cette thèse à l'environnement informatique pour l'apprentissage humain (EIAH) appelé AI-VT (\textit{Artificial Intelligence - Artificial Trainer}).
4   -
5   -Ce chapitre commence par une présentation des EIAH suivie d'une présentation sommaire du fonctionnement d'AI-VT. AI-VT étant un système de raisonnement à partir de cas (RàPC) modélisé sous la forme d'un système multi-agents (SMA), cette présentation des EIAH est suivie d'une présentation du RàPC, puis des SMA. Ce chapitre se termine par une présentation de différents algoritmes et notions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées par l'EIAH.
6   -
7   -\section{Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}
8   -%\markboth{Stratégies d'apprentissage et les EIAH}{}
9   -\sectionmark{Stratégies d'apprentissage et les EIAH}
10   -
11   -\subsection{Les stratégies d'apprentissage}
12   -
13   -Dans \cite{LALITHA2020583}, l'apprentissage est défini comme une fonction du cerveau humain acquise grâce au changement permanent dans l'obtention de connaissances et de compétences par le biais d'un processus de transformation du comportement lié à l'expérience ou à la pratique. L'apprentissage implique réflexion, compréhension, raisonnement et mise en œuvre. Un individu peut utiliser différentes stratégies pour acquérir la connaissance. Comme le montre la figure \figref{figStra}, les stratégies peuvent être classées entre mode traditionnel et mode en-ligne.
14   -
15   -\mfigure[!ht]{width=1\textwidth}{./Figures/TLearning.png}{Stratégies d'apprentissage (Traduit de \cite{LALITHA2020583})}{figStra}
16   -
17   -%\begin{figure}[!ht]
18   -%\centering
19   -%\includegraphics[width=1\textwidth]{./Figures/TLearning.png}
20   -%\caption{Stratégies d'apprentissage (\cite{LALITHA2020583})}
21   -%\label{figStra}
22   -%\end{figure}
23   -
24   -L'apprentissage traditionnel se réfère à l'apprentissage-type tel qu'il est fait dans une classe. Il est centré sur l'enseignant où la présence physique est l'élément fondamental dans la mesure où elle implique une unité de temps et de lieu. Ici, l'enseignant interagit directement avec l'élève, et les ressources sont généralement des documents imprimés. L'apprentissage et la participation doivent y être actifs, la rétroaction y est instantanée et il existe des interactions sociales. En revanche, les créneaux horaires, les lieux et les contenus sont rigides (décidés par l'enseignant et la structure dans laquelle les enseignements sont dispensés).
25   -
26   -L'autre stratégie globale est l'apprentissage en-ligne, qui s'appuie sur les ressources et l'information disponible sur le web. Cette stratégie incite les apprenants à être actifs pour acquérir de nouvelles connaissances de manière autonome grâce aux nombreuses ressources disponibles. Les points positifs de cette stratégie sont par exemple la rentabilité, la mise à niveau continue des compétences et des connaissances ou une plus grande opportunité d'accéder au contenu du monde entier. Pour l'apprenant, l'auto-motivation et l'interaction peuvent être des défis à surmonter. Pour l'enseignant, il est parfois difficile d'évaluer l'évolution du processus d'apprentissage de l'individu. L'apprentissage en-ligne fait aussi référence à l'utilisation de dispositifs électroniques pour apprendre (\textit{e-learning}) où les apprenants peuvent être guidés par l'enseignant à travers des liens, du matériel spécifique d'apprentissage, des activités ou exercices.
27   -
28   -Il existe également des stratégies hybrides combinant des caractéristiques des deux stratégies fondamentales, comme un cours en-ligne mais avec quelques séances en présentiel pour des activités spécifiques ou des cours traditionnels avec du matériel d'apprentissage complémentaire en-ligne.
29   -
30   -\subsection{Les EIAH}
31   -
32   -\mfigure[!h]{width=\textwidth}{./Figures/EIAH.png}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite{Nkambou})}{figEIAH}
33   -
34   -Les EIAH sont des outils pour aider les apprenants dans le processus d'apprentissage et l'acquisition de la connaissance. Ces outils sont conçus pour fonctionner avec des stratégies d'apprentissage en-ligne et mixtes. Généralement, l'architecture de ces systèmes est divisée en quatre composants comme le montre la figure \figref{figEIAH}. Ces composants sont :
35   -\begin{itemize}
36   -\item Le \textit{domaine} (\textit{Domain Model} sur la figure \figref{figEIAH}), qui contient les concepts, les règles et les stratégies pour résoudre des problèmes dans un domaine spécifique. Ce composant peut détecter et corriger les erreurs des apprenants. En général, l'information est divisée en séquences pédagogiques.
37   -\item Le composant \textit{apprenant} (\textit{Student Model} sur la figure \figref{figEIAH}), qui est le noyau du système car il contient toute l'information utile à l'EIAH concernant l'apprenant (\textit{User-Learner} sur la figure \figref{figEIAH}). Ce composant contient également les informations sur l'évolution de l'acquisition des compétences de l'apprenant. Ce module doit avoir les informations implicites et explicites pour pouvoir créer une représentation des connaissances acquises, non et partiellement acquises et l'évolution de l'apprentissage de l'apprentant. Ces informations doivent permettre de générer un diagnostic de l'état de la connaissance de l'apprenant, à partir duquel le système peut prédire les résultats dans certains domaines et choisir la stratégie optimale pour présenter les nouveaux contenus.
38   -\item L'\textit{enseignant} (\textit{Tutoring Model} sur la figure \figref{figEIAH}) est également modélisé sous la forme d'un composant. Il reçoit l'information des modules précédents, information grâce à laquelle il peut prendre des décisions sur le changement de parcours ou sur la stratégie d'apprentissage. Il peut également interagir avec l'apprenant.
39   -\item L'\textit{interface} (\textit{Interface} sur la figure \figref{figEIAH}) est le module chargé de la gestion des configurations de l'EIAH et des interactions entre ses composants.
40   -\end{itemize}
41   -
42   -Le développement et la configuration de ce type de systèmes relèvent de multiples disciplines et impliquent plusieurs domaines de recherche parmi lesquels figurent la pédagogie, l'éducation, la psychologie, les sciences cognitives et l'intelligence artificielle.
43   -
44   -%\subsection{Traitement du langage naturel (NLP)}
45   -%
46   -%Le traitement du langage naturel est un domaine de recherche interdisciplinaire qui essaie à travers de multiples méthodes analyser et faire comprendre aux machines le langage et la communication humaine. Ce domaine est catégorisé comme une branche de l'intelligence artificielle \cite{kedia2020hands}.\\
47   -%
48   -%Comme on peut lire dans \cite{ghosh2019natural}, le NLP est constitué de plusieurs tâches standardisées, entre elles, la tokenisation qui est la procédure qui consiste à diviser une phrase en ses mots constitutifs, par exemple le résultat de tokeniser la phrase "Je lis un livre", est "Je", "lis", "un", "livre"; avec cet exemple on a tokenisée la phrase en utilisant uni-grams, c'est-à-dire des tokens de taille un, mais on peut extraire des ensembles de tokens, si on divise la phrase en paires de tokens alors on parle de bi-grams: "Je lis", "un livre"; en général on parle de n-grams où "n" est le nombre de tokens.\\
49   -%
50   -%Une autre tâche fondamentale du NLP est le "PoS Tagging" qui ajoute des identificateurs à chacun des tokens d'une phrase avec le propos de faciliter l'analyse et le filtrage du contenu des phrases. Ainsi "Le ciel est bleu", est [("Le", "AR"), ("ciel", "NN"), ("est", "VBZ"), ("bleu", "JJ")], où AR: article, NN: nom, VBZ: verbe troisième personne, JJ: adjectif. Ainsi, il est possible de connaître et de filtrer les phrases par la catégorisation de leur contenu.\\
51   -%
52   -%La tokenisation et le "PoS Tagging" fonctionnent avec les caractères qui font partie de l'alphabet, mais les phrases communément écrites contient aussi des caractères symboliques qui représentent des aspects complémentaires du langage et qui ne sont pas considérés dans les analyses, car ils n'apportent pas d'information significative. La tâche d'effacer les symboles jugés inutiles s'appelle "cleaning text", usuellement ces symboles sont les signes de ponctuation et parfois les articles définis / indéfinis et les mots qui servent de lien comme par exemple en français: "le", "la", "les", "est", "et", etc. Il y a d'autres tâches qui sont utilisées aussi dans NLP, mais elles sont plus spécifiques comme: normalisation, correction, "stemming", "lemmatization", "NER", etc. Elles peuvent être consultées plus en détail et avec exemples de code dans \cite{ghosh2019natural}.\\
53   -%
54   -%L'exécution des tâches précitées est appelée prétraitement du texte, l'idée est de donner au texte un format pour l'envoyer comme donnée d'entré à un modèle chargé de l'analyser selon un certain objectif prédétermine. Les modèles de NLP se basent en algorithmes d'apprentissage automatique qui fonctionnent avec données numériques, alors les modèles doivent convertir le texte vers une représentation numérique, cette transformation s'appelle "vectorization" ou "vector embeddings". L'une des méthodes les plus simples et les plus élémentaires est le "BoW (Bag of Words) Model" qui génère un vecteur avec les fréquences de chaque mot d'un alphabet dans une phrase, comme le montre la figure \figref{figBOW}, les limitations principales du "BoW Model" sont d'abord que les vecteurs de représentation générés sont creuses, et aussi il n'y a pas de préservation de l'ordre des mots, alors on perdre contexte et signification des phrases et du texte. Une autre modèle est TF-IDF qui normalise les fréquences d'apparition et essaie d'associer une importance aux mots, ce qui évite d'analyser la pertinence de chaque mot seulement par sa fréquence d'apparition dans le texte. Autres modèles de vectorisation plus sophistiqués comme les réseaux de neurones (Word2vec, Doc2Vec, fastText) peuvent être consultés dans \cite{kedia2020hands}.\\
55   -%
56   -%\mfigure[!ht]{scale=0.7}{./Figures/BoW.png}{Bag of words pour une phrase}{figBOW}
57   -%
58   -%%\begin{figure}
59   -%%\centering
60   -%%\includegraphics[scale=0.7]{./Figures/BoW.png}
61   -%%\caption{Bag of words pour une phrase.}
62   -%%\label{figBOW}
63   -%%\end{figure}
64   -
65   -\subsection{L'exerciseur initial AI-VT}
66   -
67   -Le DISC travaille depuis plusieurs années sur l’utilisation potentielle de l’intelligence artificielle dans le cadre d’un exerciseur couvrant plusieurs domaines d’apprentissage. Cet exerciseur, appelé AI-VT(Artificial Intelligence Virtual Trainer) est fondé sur différents concepts d’intelligence artificielle et ses domaines d’application sont l’apprentissage de l’aïkido, des bases de l’algorithmique et de l’anglais. Un premier réseau de convolution détermine les lacunes de l’apprenant en analysant les résultats de quelques exercices préliminaires. Puis un système de raisonnement à partir de cas distribué prend le relais et détermine une liste d’exercices à proposer en regard de ses lacunes et en tenant compte des séances qui ont déjà été proposées par le système à cet apprenant.
68   -
69   -Dans le système AI-VT, une séance d'entraînement est proposée dans le cadre d'un cycle d'entraînement. Ainsi, un exercice proposé en première séance du cycle peut être reproposé ensuite dans une autre séance, afin de consolider les acquis et de remettre en mémoire certaines connaissances à l'apprenant. Une séance est entièrement consacrée à une seule et même compétence, déclinée en plusieurs sous-compétences. Des exercices dans différentes sous-compétences sont proposées à chaque séance. Les exercices d'une même sous-compétence sont regroupés. Un même exercice pouvant permettre de travailler deux sous-compétences différentes, un mécanisme de règlement des conflits a été implémenté dans AI-VT afin qu'un même exercice ne puisse être proposé plus d'une seule fois dans une même séance d'entraînement. Dans AI-VT, l'énoncé d'un exercice est constitué de deux parties : le contexte et la question. Cette structure modulaire permet d'associer plusieurs questions à un même contexte et inversement. Les réponses apportées par les apprenants à chaque exercice sont notées sur 10 points et le temps mis pour répondre à chaque question est comptabilisée. L'étudiant dispose d'une interface présentant un tableau de bord des exercices, sous-compétences et compétences qu'il ou elle a travaillé.
70   -
71   -Pour l'apprentissage de l'Anglais, un robot est chargé d'énoncer les exercices de la séance. Au démarrage de cette thèse, les apprenants ont une liste personnalisée d'exercices proposée par le système AI-VT, mais c'est à l'enseignant de vérifier la validité des algorithmes/solutions proposés par les étudiants et d'identifier leurs difficultés. L'amélioration du système et de la personnalisation du parcours de l'apprenant implique une correction automatique des exercices et cela sans utiliser un entrainement spécifique à chaque exercice, mais cet objectif ne fait pas partie de cette thèse. La définition de profils d'apprenants par le recueil de traces reste également à travailler pour optimiser les aides et séances d'exercices.
72   -
73   -Le système AI-VT a été implémenté en se fondant sur deux paradigmes de l'IA : la séance d'entraînement est construite par différents modules suivant la philosophie du raisonnement à partir de cas, et l'architecture logicielle a été modélisée selon un système multi-agents. Une présentation sommaire de ces deux paradigmes de l'IA sont présentés dans cette section, et celles-ci sont suivies de la présentation de différents algorithmes et fonctions implémentés dans l'EIAH AI-VT. Des états de l'art plus complets sur les EIAH et le RàPC sont présentés dans le chapitre suivant. Le système AI-VT, son architecture et les évolutions qui ont été ralisées sur celle-ci sont détaillés dans le chapitre 4.
74   -
75   -\section{Le contexte technique}
76   -
77   -\subsection{Le raisonnement à partir de cas (RàPC)}
78   -
79   -Le raisonnement à partir de cas est un modèle de raisonnement fondé sur l'hypothèse que les problèmes similaires ont des solutions similaires. Ainsi, les systèmes de RàPC infèrent une solution à un problème posé à partir des solutions mises en oeuvre auparavant pour résoudre d'autres problèmes similaires \cite{ROLDANREYES20151}.
80   -
81   -Un cas est défini comme étant la représentation d'un problème et la description de sa solution. Les cas résolus sont stockés et permettent au système de RàPC de construire de nouveaux cas à partir de ceux-ci. Formellement, si $P$ est l'espace des problèmes et $S$ l'espace des solutions, alors un problème $x$ et sa solution $y$ appartiennent à ces espaces : $x \in P$ et $y \in S$. Si $y$ est solution de $x$ alors, un cas est représenté par le couple $(x,y) \in P \times S$. Le RàPC a besoin d'une base de $N$ problèmes et de leurs solutions associées. Cette base est appelée base de cas. Ainsi tout cas d'indice $n \in [1,N]$ de cette base de cas est formalisé de la manière suivante : $(x^n, y^n)$. L'objectif du RàPC est, étant donné un nouveau problème $x^z$ de trouver sa solution $y^z$ en utilisant les cas stockés dans la base de cas \cite{10.1007/978-3-030-58342-2_20}.
82   -
83   -\mfigure[!h]{width=\textwidth}{./Figures/cycle.png}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite{min8100434})}{figCycle}
84   -
85   -%\begin{figure}
86   -%\centering
87   -%\includegraphics[scale=30]{./Figures/cycle.png}
88   -%\caption{Cycle fondamental du raisonnement à partir de cas %(\cite{min8100434})}
89   -%\label{figCycle}
90   -%\end{figure}
91   -
92   -Le processus du RàPC est divisé en quatre étapes formant un cycle comme l'ont proposé Aamont et Plaza \cite{doi:10.3233/AIC-1994-7104}. La figure \figref{figCycle} montre le cycle, le flux d'informations ainsi que les relations entre chacune des étapes \cite{min8100434}: rechercher, adapter, réviser et stocker. Chacune des étapes est décrite dans \cite{Richter2013} de la manière suivante.
93   -
94   -\subsubsection{Rechercher}
95   -L'objectif de cette étape est de rechercher dans la base de cas, les cas similaires à un nouveau cas donné. Cette similarité n'est pas un concept général, mais dépend du contexte, de l'objectif et du type de données. La question fondamentale qui se pose dans cette étape est: quel est le cas le plus approprié dans la base de cas qui permet de réutiliser sa solution pour résoudre le nouveau problème donné?.
96   -
97   -Le nouveau cas est comparé à chaque cas de la base afin d'en évaluer la similitude. La comparaison entre les cas est différente selon la structure de la base et la manière dont les problèmes sont décrits dans celle-ci. Généralement, un problème est représenté par un ensemble d'attributs aux valeurs spécifiques. Cette représentation est connue comme la représentation attribut-valeur. La similitude entre deux cas de ce type est calculée suivant l'équation \ref{eqSim}. La similitude entre deux cas attribut-valeur $c_1={a_{1,1}, a_{1,1}, ..., a_{1,n}}$ et $c_2={a_{2,1}, a_{2,1}, ..., a_{2,n}}$ est la somme pondérée des similitudes entre les attributs considérés individuellement. La pondération détermine l'importance de chaque attribut.
98   -
99   -\begin{equation}
100   -\sum_{i=1}^n \omega_i \; sim (a_{1,i}, a_{2,i})
101   -\label{eqSim}
102   -\end{equation}
103   -
104   -Dans cette étape, il est possible de sélectionner $k$ différents cas similaires au nouveau cas donné.
105   -
106   -\subsubsection{Adapter (Réutiliser)}
107   -L'idée du RàPC est d'utiliser l'expérience pour essayer de résoudre de nouveaux cas (problèmes). La figure \figref{figReut} montre le principe de réutilisation d'un cas (problème) résolu (appelé \textit{cas source}) auparavant pour le proposer en solution d'un nouveau cas (dénommé \textit{cas cible}) après adaptation.
108   -
109   -Si certains cas cibles sont très similaires au cas source le plus proche, il est cependant souvent nécessaire d'adapter la solution du cas source le plus similaire afin d'arriver à une solution satisfaisante pour le cas cible. De la même manière que pour la phase de recherche du cas le plus similaire, il existe de nombreuses stratégies d'adaptation. Celles-ci dépendent de la représentation des cas, du contexte dans lequel le RàPC est mis en oeuvre et des algorithmes utilisés pour l'adaptation. L'une des stratégies les plus utilisées est la définition d'un ensemble de règles transformant la
110   - ou les solutions des cas sources les plus similaires au cas cible. L'objectif ici est d'inférer une nouvelle solution $y^z$ du cas $x^z$ à partir des $k$ cas sources retrouvés dans la première étape.
111   -
112   -\mfigure[!ht]{width=\textwidth}{./Figures/Reuse.png}{Principe de réutilisation dans le RàPC (\cite{Richter2013})}{figReut}
113   -
114   -%\begin{figure}
115   -%\centering
116   -%\includegraphics[scale=20]{./Figures/Reuse.png}
117   -%\caption{Principe de réutilisation dans le RàPC (\cite{Richter2013})}
118   -%\label{figReut}
119   -%\end{figure}
120   -
121   -\subsubsection{Réviser et Réparer}
122   -
123   -La solution adaptée proposée doit ensuite être évaluée et révisée afin de satisfaire certains critères de validation. L'étape de révision est chargée d'évaluer l'applicabilité de la solution cible obtenue suite à l'étape 'adaptation'. Cette évaluation peut être réalisée dans le monde réel ou dans une simulation.
124   -
125   -L'objectif de cette phase de révision est la validation du couple $(x^z, y^z)$. Autrement dit, le but est ici de vérifier si la solution trouvée $y^z$ résout le problème $x^z$ et satisfait les règles de validité et d'applicabilité. Si la solution n'est pas correcte, l'expert mettant en oeuvre la solution doit ajuster ou modifier la solution cible proposée.
126   -
127   -Le processus d'évaluation, de révision et de réparation peut être mis en oeuvre via un processus d'apprentissage permettant d'améliorer la détection et la correction des failles des futures solutions générées. Dans les travaux de cette thèse, nous avons envisagé la possibilité d'utiliser différents outils d'apprentissage pour évaluer et réviser les solutions cibles dans certains cas particuliers.
128   -
129   -L'évaluation peut être faite :
130   -\begin{itemize}
131   - \item par un expert humain capable d'évaluer la solution et sa pertinence dans le contexte applicatif,
132   - \item par un système fonctionnant en production et renvoyant le résultat de l'application de la solution,
133   - \item par un modèle statistique ou un système de test.
134   -\end{itemize}
135   -
136   -La correction des solutions peut être automatique, mais elle dépend du domaine et de l'information disponible. Un ensemble de règles peut aider à identifier les solutions non valides.
137   -
138   -\subsubsection{Stocker (Retenir)}
139   -
140   -Si le cas cible résolu est jugé pertinent, alors celui-ci peut être stocké dans la base de cas pour aider ensuite à la résolution de futurs cas cible.
141   -La décision de stocker ou non un nouveau cas dans la base de cas doit tenir compte de la capacité de cette nouvelle base de cas à proposer de futures solutions pertinentes, évaluer et corriger les solutions cibles générées d'une part, et maintenir une base de cas d'une taille ne gaspillant pas inutilement des ressources de stockage et de calculs du système de RàPC d'autre part.
142   -
143   -\subsubsection{Conteneurs de Connaissance}
144   -
145   -Pour pouvoir exécuter le cycle complet, le RàPC dépend de quatre sources différentes d'information. Ces sources sont appelées les conteneurs de connaissances par \cite{RICHTER20093}. Cet article définit les conteneurs suivants dans les systèmes de RàPC : le conteneur de cas, le conteneur d'adaptation, le conteneur du vocabulaire et le conteneur de similarité :
146   -
147   -\begin{itemize}
148   -\item Le conteneur de cas contient les expériences passées que le système peut utiliser pour résoudre les nouveaux problèmes. L'information est structurée sous la forme d'un couple $(p, s)$, où $p$ est la description d'un problème et $s$ est la description de sa solution.
149   -\item Le conteneur d'adaptation stocke la ou les stratégies d'adaptation ainsi que les règles et paramètres nécessaires pour les exécuter.
150   -\item Le conteneur du vocabulaire contient l'information, sa signification et sa terminologie. Les éléments comme les entités, les attributs, les fonctions ou les relations entre les entités peuvent y être décrits.
151   -\item Le conteneur de similarité contient l'ensemble des connaissances liées et nécessaires au calcul de la similarité entre deux cas : les fonctions de calcul de similarité et les paramètres de mesure de similarité $sim(p_1, p_2)$ entre les cas $p_1$ et $p_2$.
152   -\end{itemize}
153   -
154   -La figure \figref{figCycle} montre les flux d'informations entre les étapes du RàPC et les conteneurs. Les flèches continues de la figure \figref{figCycle} décrivent l'ordre dans lequel les phases du cycle du RàPC sont exécutées. Les flèches avec des lignes discontinues matérialisent les flux d'information, c'est-à-dire les liens entre les étapes du cycle et les conteneurs de connaissance.
155   -
156   -\mfigure[!ht]{width=\textwidth}{./Figures/CycleCBR.png}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données}{figCycle}
157   -
158   -%\begin{figure}
159   -%\centering
160   -%\includegraphics[scale=2.5]{./Figures/CycleCBR.png}
161   -%\caption{Cycle du RàPC, les étapes, les conteneurs et leurs liens}
162   -%\label{figCycle}
163   -%\end{figure}
164   -
165   -\subsection{Les systèmes multi-agents}
166   -
167   -Les systèmes multi-agents sont des systèmes conçus pour résoudre des problèmes en combinant l'intelligence artificielle et le calcul distribué. Ces systèmes sont composés de multiples entités autonomes appelées agents, qui ont la capacité de communiquer entre elles et également de coordonner leurs comportements \cite{hajduk2019cognitive}.
168   -
169   -Les agents ont les propriétés suivantes :
170   -\begin{itemize}
171   -\item Autonomie: les agents fonctionnent sans intervention externe des êtres humains ou d'autres entités, ils ont un mécanisme interne qui leur permet de contrôler leurs états.
172   -\item Réactivité: les agents ont la capacité de percevoir l'environnement dans lequel ils sont et peuvent réagir aux changements qui se produisent.
173   -\item Pro-activité: les agents peuvent effectuer des changements, réagir à différents stimuli provenant de leur environnement et s'engager dans un processus cognitif interne.
174   -\item Coopération : les agents peuvent communiquer les uns avec les autres, échanger des informations afin de se coordonner et résoudre un même problème.
175   -\item Apprentissage: il est nécessaire qu'un agent soit capable de réagir dans un environnement dynamique et inconnu, il doit donc avoir la capacité d'apprendre de ses interactions et ainsi améliorer la qualité de ses réactions et comportements.
176   -\end{itemize}
177   -
178   -Il existe quatre types d'agent en fonction des capacités et des approches:
179   -\begin{itemize}
180   -\item Réactif: c'est l'agent qui perçoit constamment l'environnement et agit en fonction de ses objectifs.
181   -\item Basé sur les réflexes: c'est l'agent qui considère les options pour atteindre ses objectifs et développe un plan à suivre.
182   -\item Hybride : il combine les deux modèles antérieurs en utilisant chacun d'eux en fonction de la situation et de l'objectif.
183   -\item Basé sur le comportement: l'agent a à sa disposition un ensemble de modèles de comportement pour réaliser certaines tâches spécifiques. Chaque comportement se déclenche selon des règles prédéfinies ou des conditions d'activation. Le comportement de l'agent peut être modélisé avec différentes stratégies cognitives de pensée ou de raisonnement.
184   -\end{itemize}
185   -
186   -\subsection{Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées}
187   -
188   -\subsubsection{Pensée Bayesienne}
189   -
190   -D'après les travaux de certains mathématiciens et neuroscientifiques, toute forme de cognition peut être modélisée dans le cadre de la formule de Bayes (équation \ref{eqBayes}), car elle permet de tester différentes hypothèses et donner plus de crédibilité à celle qui est confirmée par les observations. Étant donné que ce type de modèle cognitif permet l'apprentissage optimal, la prédiction sur les événements passés, l'échantillonnage représentatif et l'inférence d'information manquante; il est appliqué dans quelques algorithmes de machine learning et d'intelligence artificielle \cite{Hoang}.
191   -
192   -\begin{equation}
193   -P(A|B)=\frac{P(B|A)P(A)}{P(B)}
194   -\label{eqBayes}
195   -\end{equation}
196   -
197   -La formule de Bayes calcule la probabilité a posteriori $P(A|B)$ de la plausibilité de la théorie $A$ compte tenu des données $B$, et requiert trois termes: (1) une probabilité a priori $P(A)$ de la plausibilité de l'hypothèse $A$, (2) le terme $P(B|A)$ qui mesure la capacité de l'hypothèse $A$ à expliquer les données observées $B$ et (3) la fonction de partition $P(B)$ qui met en compétition toutes les hypothèses qui ont pu générer les données observées $B$. À chaque nouvelle évaluation de la formule, la valeur du terme a priori $P(A)$ est actualisée par la valeur du terme a posteriori $P(A|B)$. Ainsi, à chaque évaluation, le degré de plausibilité de chaque hypothèse est ajusté \cite{Hoang}.
198   -
199   -Par la suite, nous explicitons quelques algorithmes, intègrés généralement dans l'étape "Rechercher" du RàPC, pour la recherche des cas les plus proches d'un nouveau cas.
200   -
201   -\subsubsection{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}
202   -
203   -Comme est défini dans \cite{10.1145/3459665}, la méthode des 'k' plus proches voisins est une méthode pour classifier des données dans des classes spécifiques. Pour faire cela, il est nécessaire de disposer d'une base de données avec des exemples déjà identifiés. Pour classer de nouveaux exemples, la méthode attribue la même classe que celle de leurs voisins les plus proches. Généralement, l'algorithme compare les caractéristiques d'une entité avec plusieurs possibles voisins pour essayer d'obtenir des résultats plus précis. 'k' représente le nombre de voisins, sachant que l'algorithme peut être exécuté à chaque fois avec un nombre différent de voisins.
204   -
205   -Étant donné un jeu de données $D$ constitué de $(x_i)_{i \in [1,n]}$ données (où $n = |D|$). Chacune des données est décrite par $F$ caractéristiques qui sont des valeurs numériques normalisées $[0,1]$, et par une classe de labellisation $y_j \in Y$. Le but est de classifier une donnée inconnue $q$. Pour chaque $x_i \in D$, il est possible de calculer la distance entre $q$ et $x_i$ selon l'équation \ref{eqDist}.
206   -
207   -\begin{equation}
208   -d(q,x_i)=\sum_{f \in F} w_f \delta(q_f, x_{if})
209   -\label{eqDist}
210   -\end{equation}
211   -
212   -La distance entre $q$ et $x_i$ est la somme pondérée de toutes les distances élémentaires $delta$ calculées pour chaque caractéristique. La fonction de distance $\delta$ peut être une métrique générique. Pour des valeurs numériques discrètes il est possible d'utiliser la définition \ref{eqMet1},
213   -
214   -\begin{equation}
215   -\delta(q_f, x_{if})=
216   -\begin{cases}
217   -0&q_f=x_{if}\\
218   -1&q_f \neq x_{if}
219   -\end{cases}
220   -\label{eqMet1}
221   -\end{equation}
222   -
223   -et si les valeurs sont continues l'équation \ref{eqMet2}.
224   -
225   -\begin{equation}
226   -\delta(q_f, x_{if})= \lvert q_f-x_{if} \rvert
227   -\label{eqMet2}
228   -\end{equation}
229   -
230   -Un poids plus important est généralement attribué aux voisins les plus proches. Le vote pondéré en fonction de la distance est une technique couramment utilisée (équation \ref{eqV1}).
231   -
232   -\begin{equation}
233   -N(a,b)= \begin{cases} 1 & a=b \\ 0 & a \neq b \end{cases}
234   -\label{eqV1}
235   -\end{equation}
236   -
237   -Le vote est couramment calculé selon l'équation \ref{eqV2}.
238   -
239   -\begin{equation}
240   -vote(y_i)=\sum_{c=1}^{k} \frac{1}{d(q, x_c)^p}N(y_j, y_c)
241   -\label{eqV2}
242   -\end{equation}
243   -
244   -une autre alternative est basée sur le travail de Shepard, équation \ref{eqV3}.
245   -
246   -\begin{equation}
247   -vote(y_i)=\sum_{c=1}^{k} e^{d(q, x_c)}N(y_j, y_c)
248   -\label{eqV3}
249   -\end{equation}
250   -
251   -La fonction de distance peut être n'importe quelle mesure d'affinité entre deux objets, mais cette fonction doit répondre à quatre critères (équations \ref{eqCond}).
252   -
253   -\begin{equation}
254   -\begin{array}{l}
255   - d(x,y) \ge 0\\
256   - d(x,y) = 0, \; seulement \; si \; x=y\\
257   - d(x,y)=d(y,x)\\
258   - d(x,z) \ge d(x,y) + d(y,z)\\
259   -\end{array}
260   -\label{eqCond}
261   -\end{equation}
262   -
263   -\subsubsection{K-Moyennes}
264   -
265   -Selon \cite{9072123}, K-Moyennes est un algorithme d'apprentissage utilisé pour partitionner et grouper des données. Considérons $X = \{x_1, . . . , x_n\}$ un ensemble de vecteurs dans un espace Euclidien $\mathbb{R}^d$, et $A = \{a_1, . . . , a_c\}$ où $c$ est le nombre de groupes. Considérons également $z = [z_{ik} ]_{n \times c}$, où $z_{ik}$ est une variable binaire (i.e. $z_{ik} \in \{0, 1\}$) qui indique si une donnée $x_i$ appartient au k-ème groupe, $k = 1, · · · , c$. La fonction bijective k-moyenne est définie selon l'équation \ref{eqKM}.
266   -
267   -\begin{equation}
268   -J (z, A) = \sum_{i=1}^n \sum_{k=1}^c z_{ik} \parallel x_i - a_k \parallel ^2
269   -\label{eqKM}
270   -\end{equation}
271   -
272   -Cet algorithme minimise la fonction objectif des k moyennes $J (z, A)$ : à chaque itération, les termes $a_k$ et $z_{ik}$ sont calculés selon les équations \ref{eqCentres} et \ref{eqApp}.
273   -
274   -\begin{equation}
275   -a_k=\frac{\sum_{i=1}^n z_{ik}x_{ij}}{\sum_{i=1}^n z_{ik}}
276   -\label{eqCentres}
277   -\end{equation}
278   -
279   -\begin{equation}
280   -z_{ik}=\begin{cases}1 & if \parallel x_i - a_k \parallel ^2=min_{1 \le k \le c} \parallel x_i - a_k \parallel ^2\\ 0,&otherwise\end{cases}
281   -\label{eqApp}
282   -\end{equation}
283   -
284   -\subsubsection{Modèle de Mélange Gaussien GMM (\textit{Gaussian Mixture Model})}
285   -
286   -Le modèle de mélange gaussien (GMM) est un modèle probabiliste composé de plusieurs modèles gaussiens simples. Ce modèle est décrit dans \cite{WANG2021331}. En considérant une variable d'entrée multidimensionnelle $x=\{x_1, x_2, ..., x_d\}$, GMM multivarié est défini selon dans l'équation \ref{eqGMM}.
287   -
288   -\begin{equation}
289   -p(x \lvert \theta)=\sum_{k=1}^K \alpha_k g(x \lvert \theta_k)
290   -\label{eqGMM}
291   -\end{equation}
292   -
293   -Dans cette équation, $K$ est le nombre de modèles gaussiens uniques dans GMM, également appelés composants; $\alpha_k$ est la probabilité de mélange de la k-ème composante respectant la condition $\sum_{k=1}^K \alpha_k=1$.
294   -
295   -$\theta_k$ représente la valeur moyenne et la matrice de covariance de chaque modèle gaussien unique: $\theta_k=\lbrace \mu_k, \Sigma_k \rbrace$. Pour un seul modèle gaussien multivarié, nous avons la fonction de densité de probabilité $g(x)$ (équation \ref{eqdProb}).
296   -
297   -\begin{equation}
298   -g(x; \mu, \Sigma)=\frac{1}{(2\pi)^{n/2} \lvert \Sigma \rvert ^{1/2}} exp \left( - \frac{1}{2} (x-\mu)^T \Sigma ^{-1} (x-\mu) \right )
299   -\label{eqdProb}
300   -\end{equation}
301   -
302   -La tâche principale est d'obtenir les paramètres $\alpha_k, \theta_k$ pour tout $k$ défini dans GMM en utilisant un ensemble de données avec $N$ échantillons d'entrainement. Une solution classique pour l'estimation des paramètres requis utilise l'algorithme de maximisation des attentes (Expectation-Maximization EM), qui vise à maximiser la vraisemblance de l'ensemble de données. Il s'agit d'un algorithme itératif durant lequel les paramètres sont continuellement mis à jour jusqu'à ce que la valeur delta log-vraisemblance entre deux itérations soit inférieure à un seuil donné.
303   -
304   -\subsubsection{Fuzzy-C}
305   -Fuzzy C-Means Clustering (FCM) est un algorithme de clustering flou non supervisé largement utilisé \cite{9627973}. Le FCM utilise comme mesure de distance la mesure euclidienne. Supposons d'abord que l'ensemble d'échantillons à regrouper est $X=\{x_1,x_2,...,x_n\}$, où $x_j \in R^d(1 \le j \le n)$ dans un espace Euclidien à $d$ dimensions, et $c$ le nombre de clusters. L'équation \ref{eqFuzzy} montre la fonction objectif de FCM.
306   -
307   -\begin{equation}
308   -J(U,V)=\sum_{i=1}^c \sum_{j=1}^n u_{ij}^m (x_j - v_i)^T A(x_j-v_i)
309   -\label{eqFuzzy}
310   -\end{equation}
311   -
312   -où $A$ est la matrice métrique, $m$ est un nombre quelconque ($m > 1$) qui dénote le degré de flou, $u_{ij}$ est le degré d'appartenance du j-ème échantillon $x_j$ qui appartient au i-ème cluster, dont le centre est $v_i$. $U=(u_{ij})$, $V=[v_1,v_2,...,v_c], 1 \le i \le c, 1 \le j \le n, 2 \le c < n$ satisfaisant les conditions de l'équation \ref{eqFCond}.
313   -
314   -\begin{equation}
315   -\sum_{i=1}^c u_{ij} = 1, u_{ij} \ge 0
316   -\label{eqFCond}
317   -\end{equation}
318   -
319   -Pour compléter le modèle, les équations de mise à jour pour le centre du cluster $v_i$ (équation \ref{eqFV}) et des degrés d'appartenance $u_{ij}$ (équation \ref{eqFU}) sont définies.
320   -
321   -\begin{equation}
322   -v_i=\frac{\sum_{j=1}^n u_{ij}^m x_j}{\sum_{j=1}^n u_{ij}^m}
323   -\label{eqFV}
324   -\end{equation}
325   -
326   -\begin{equation}
327   -u_{ij}=\frac{((x_j-v_i)^TA(x_j-v_i))^{\frac{2}{m-1}}}{\left( \sum_{h=1}^c (x_j-v_h)^TA(x_j-v_h) \right)^{\frac{2}{m-1}}}
328   -\label{eqFU}
329   -\end{equation}
330   -
331   -Les algorithmes qui se trouvent dans la suite de cette section sont des algorithmes qui font partie de l'intelligence artificielle et sont utilisés dans certains EIAH pour améliorer les recommandations, essayer de corriger et de détecter les faiblesses des apprenants de façon automatique.
332   -
333   -\subsubsection{Bandit Manchot MAB (\textit{Multi-Armed Bandits})}
334   -
335   -Dans \cite{9434422} MAB est décrit comme un problème qui appartient au domaine de l'apprentissage par renforcement. Celui-ci représente un processus de prise de décision séquentielle dans des instants $t$ de temps, où un utilisateur doit sélectionner une action $k_t \in K$ à réaliser dans un ensemble $K$ fini d'actions possibles et donnant une récompense inconnue de l'utilisateur. L'objectif est de maximiser la récompense cumulée globale dans le temps. La clé pour trouver une solution au problème est de trouver l'équilibre optimal entre l'exploration (exécuter des actions inconnues pour collecter de l'information complémentaire) et l'exploitation (continuer à exécuter les actions déjà connues pour cumuler plus de gains). L'un des algorithmes utilisés pour résoudre ce problème c'est l'échantillonnage de Thompson.
336   -
337   -\subsubsection{Échantillonnage de Thompson TS (\textit{Thompson Sampling})}
338   -
339   -Comme indiqué dans \cite{9870279}, l'algorithme d'échantillonnage de Thompson est un algorithme de type probabiliste utilisé généralement pour résoudre le problème MAB. Il s'appuie sur un modèle Bayesien dans lequel une distribution de probabilités \textit{Beta} est initialisée. Cette distribution de probabilités est ensuite affinée de manière à optimiser la valeur résultat à estimer. Les valeurs initiales des probabilités de Beta sont définies sur l'intervalle $[0, 1]$. Elle est définie à l'aide de deux paramètres $\alpha$ et $\beta$.
340   -
341   -L'échantillonnage de Thompson peut être appliqué à la résolution du problème du Bandit Manchot(MAB). Dans ce cas, les actions définies dans le MAB ont chacune une incidence sur la distribution de probabilités Beta de l'échantillonnage de Thompson. Pour chaque action de MAB, les paramètres de Beta sont initialisés à 1. Ces valeurs changent et sont calculées à partir de récompenses obtenues : si au moment d'exécuter une action spécifique le résultat est un succès, alors la valeur du paramètre $\alpha$ de sa distribution Beta augmente mais si le résultat est un échec alors c'est la valeur du paramètre $\beta$ de sa distribution Beta qui augmente. De cette façon, la distribution pour chacune des actions possibles est ajustée en privilégiant les actions qui génèrent le plus de récompenses.
342   -
343   -L'échantillonnage de Thompson est un cas particulier de la loi de Dirichlet comme le montre la figure \figref{figBeta}. L'équation \ref{eqBeta} décrit formellement la famille des courbes générées par la distribution Beta.
344   -
345   -\mfigure[!ht]{scale=0.5}{./Figures/beta-distribution.png}{Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$}{figBeta}
346   -
347   -%\begin{figure}
348   -%\centering
349   -%\includegraphics[scale=0.5]{./Figures/beta-distribution.png}
350   -%\caption{Comportement de la distribution Beta avec différentes valeurs dans ses paramètres}
351   -%\label{figBeta}
352   -%\end{figure}
353   -
354   -\begin{equation}
355   -B(x, \alpha, \beta) =
356   -\begin{cases}
357   -\frac{x^{\alpha-1}(1-x)^{\beta - 1}}{\int_0^1 u^{\alpha - 1}(1-u)^{\beta - 1}du} & pour x \in [0, 1] \\
358   -0&sinon
359   -\end{cases}
360   -\label{eqBeta}
361   -\end{equation}
362   -
363   -Le chapitre suivant présente un état de l'art plus détaillé des EIAH et des systèmes de RàPC dédiés aux EIAH.