Compare View
Commits (4)
Diff
Showing 29 changed files Side-by-side Diff
- .DS_Store
- Figures/EIAH.drawio
- Figures/EIAH.png
- Figures/ELearningLevels.png
- Figures/taxonomieEIAH.drawio
- Figures/taxonomieEIAH.png
- chapters/Architecture.aux
- chapters/Architecture.tex
- chapters/Architecture0.tex
- chapters/CBR.aux
- chapters/CBR.tex
- chapters/Conclusions.aux
- chapters/EIAH.tex
- chapters/ESCBR.aux
- chapters/ESCBR.tex
- chapters/Publications.aux
- chapters/Publications.tex
- chapters/TS.aux
- chapters/TS.tex
- chapters/contexte2.aux
- chapters/contexte2.tex
- main.log
- main.out
- main.pdf
- main.synctex.gz
- main.tex
- main.toc
- main0.tex
- manuscrit.pdf
.DS_Store
View file @
4b1afa3
Figures/EIAH.drawio
View file @
4b1afa3
1 | -<mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:140.0) Gecko/20100101 Firefox/140.0" version="28.0.5"> | |
1 | +<mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:140.0) Gecko/20100101 Firefox/140.0" version="28.0.6"> | |
2 | 2 | <diagram name="Page-1" id="OSgn3XfzTL5SABNI0Qxs"> |
3 | 3 | <mxGraphModel dx="786" dy="435" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> |
4 | 4 | <root> |
... | ... | @@ -24,7 +24,7 @@ |
24 | 24 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-22" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1"> |
25 | 25 | <mxGeometry relative="1" as="geometry" /> |
26 | 26 | </mxCell> |
27 | - <mxCell id="HP-W8r5hdSGzMFOFOmfQ-18" value="<b><font style="font-size: 15px;">Modèle du domain</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
27 | + <mxCell id="HP-W8r5hdSGzMFOFOmfQ-18" value="<b><font style="font-size: 15px;">Modèle du domaine</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
28 | 28 | <mxGeometry x="300" y="80" width="120" height="60" as="geometry" /> |
29 | 29 | </mxCell> |
30 | 30 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-23" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-19" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1"> |
Figures/EIAH.png
View file @
4b1afa3
Figures/ELearningLevels.png
View file @
4b1afa3
Figures/taxonomieEIAH.drawio
View file @
4b1afa3
1 | -<mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:136.0) Gecko/20100101 Firefox/136.0" version="26.1.3"> | |
1 | +<mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:140.0) Gecko/20100101 Firefox/140.0" version="28.0.6"> | |
2 | 2 | <diagram name="Page-1" id="w2hWb6gX0Axkn_KR6Cac"> |
3 | - <mxGraphModel dx="794" dy="382" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> | |
3 | + <mxGraphModel dx="786" dy="435" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> | |
4 | 4 | <root> |
5 | 5 | <mxCell id="0" /> |
6 | 6 | <mxCell id="1" parent="0" /> |
... | ... | @@ -34,10 +34,10 @@ |
34 | 34 | <mxCell id="4dwB7kk_Vurboq88jpxZ-17" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-16" edge="1"> |
35 | 35 | <mxGeometry relative="1" as="geometry" /> |
36 | 36 | </mxCell> |
37 | - <mxCell id="4dwB7kk_Vurboq88jpxZ-3" value="<b><font style="font-size: 20px;">Basé de connaissances (KB)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
37 | + <mxCell id="4dwB7kk_Vurboq88jpxZ-3" value="<b><font style="font-size: 20px;">Fondé sur les connaissances (KB)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
38 | 38 | <mxGeometry x="253.5" y="150" width="160" height="70" as="geometry" /> |
39 | 39 | </mxCell> |
40 | - <mxCell id="4dwB7kk_Vurboq88jpxZ-4" value="<b><font style="font-size: 20px;">Basé sur le contenu (CB)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
40 | + <mxCell id="4dwB7kk_Vurboq88jpxZ-4" value="<b><font style="font-size: 20px;">Fondé sur le contenu (CB)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
41 | 41 | <mxGeometry x="447" y="150" width="120" height="70" as="geometry" /> |
42 | 42 | </mxCell> |
43 | 43 | <mxCell id="4dwB7kk_Vurboq88jpxZ-20" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-5" target="4dwB7kk_Vurboq88jpxZ-18" edge="1"> |
... | ... | @@ -55,13 +55,13 @@ |
55 | 55 | <mxCell id="4dwB7kk_Vurboq88jpxZ-6" value="<b><font style="font-size: 20px;">Hybride</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> |
56 | 56 | <mxGeometry x="750" y="150" width="120" height="70" as="geometry" /> |
57 | 57 | </mxCell> |
58 | - <mxCell id="4dwB7kk_Vurboq88jpxZ-12" value="<b><font style="font-size: 20px;">Basé sur les contraintes</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
58 | + <mxCell id="4dwB7kk_Vurboq88jpxZ-12" value="<b><font style="font-size: 20px;">Fondé sur les contraintes</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
59 | 59 | <mxGeometry x="120" y="300" width="120" height="70" as="geometry" /> |
60 | 60 | </mxCell> |
61 | - <mxCell id="4dwB7kk_Vurboq88jpxZ-14" value="<b><font style="font-size: 20px;">Basé sur les cas</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
61 | + <mxCell id="4dwB7kk_Vurboq88jpxZ-14" value="<b><font style="font-size: 20px;">Fondé sur les cas</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
62 | 62 | <mxGeometry x="273.5" y="300" width="120" height="70" as="geometry" /> |
63 | 63 | </mxCell> |
64 | - <mxCell id="4dwB7kk_Vurboq88jpxZ-16" value="<b><font style="font-size: 20px;">Basé sur l'ontologie</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
64 | + <mxCell id="4dwB7kk_Vurboq88jpxZ-16" value="<b><font style="font-size: 20px;">Fondé sur l'ontologie</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
65 | 65 | <mxGeometry x="430" y="300" width="120" height="70" as="geometry" /> |
66 | 66 | </mxCell> |
67 | 67 | <mxCell id="4dwB7kk_Vurboq88jpxZ-23" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-18" target="4dwB7kk_Vurboq88jpxZ-22" edge="1"> |
... | ... | @@ -70,22 +70,22 @@ |
70 | 70 | <mxCell id="4dwB7kk_Vurboq88jpxZ-25" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-18" target="4dwB7kk_Vurboq88jpxZ-24" edge="1"> |
71 | 71 | <mxGeometry relative="1" as="geometry" /> |
72 | 72 | </mxCell> |
73 | - <mxCell id="4dwB7kk_Vurboq88jpxZ-18" value="<b><font style="font-size: 20px;">Basé sur la mémoire</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
73 | + <mxCell id="4dwB7kk_Vurboq88jpxZ-18" value="<b><font style="font-size: 20px;">Fondé sur la mémoire</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
74 | 74 | <mxGeometry x="600" y="300" width="120" height="70" as="geometry" /> |
75 | 75 | </mxCell> |
76 | 76 | <mxCell id="4dwB7kk_Vurboq88jpxZ-27" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-19" target="4dwB7kk_Vurboq88jpxZ-26" edge="1"> |
77 | 77 | <mxGeometry relative="1" as="geometry" /> |
78 | 78 | </mxCell> |
79 | - <mxCell id="4dwB7kk_Vurboq88jpxZ-19" value="<b><font style="font-size: 20px;">Basé sur le modèle</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
79 | + <mxCell id="4dwB7kk_Vurboq88jpxZ-19" value="<b><font style="font-size: 20px;">Fondé sur le modèle</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
80 | 80 | <mxGeometry x="740" y="300" width="120" height="70" as="geometry" /> |
81 | 81 | </mxCell> |
82 | - <mxCell id="4dwB7kk_Vurboq88jpxZ-22" value="<b><font style="font-size: 20px;">Basé sur l'utilisateur</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
82 | + <mxCell id="4dwB7kk_Vurboq88jpxZ-22" value="<b><font style="font-size: 20px;">Fondé sur l'utilisateur</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
83 | 83 | <mxGeometry x="530" y="440" width="120" height="70" as="geometry" /> |
84 | 84 | </mxCell> |
85 | - <mxCell id="4dwB7kk_Vurboq88jpxZ-24" value="<b><font style="font-size: 20px;">Basé sur les éléments</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
85 | + <mxCell id="4dwB7kk_Vurboq88jpxZ-24" value="<b><font style="font-size: 20px;">Fondé sur les éléments</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
86 | 86 | <mxGeometry x="680" y="440" width="120" height="70" as="geometry" /> |
87 | 87 | </mxCell> |
88 | - <mxCell id="4dwB7kk_Vurboq88jpxZ-26" value="<div><font style="font-size: 20px;"><b>Clustering</b></font></div><div><font style="font-size: 20px;"><b>Classification</b></font></div><div><font style="font-size: 20px;"><b>Factorisation Matricielle</b></font></div><div><font style="font-size: 20px;"><b>Réseau Bayésien</b></font></div><div><font style="font-size: 20px;"><b>Régression</b></font></div><div><font style="font-size: 20px;"><b>Basé sur les règles</b></font></div>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
88 | + <mxCell id="4dwB7kk_Vurboq88jpxZ-26" value="<div><font style="font-size: 20px;"><b>Clustering</b></font></div><div><font style="font-size: 20px;"><b>Classification</b></font></div><div><font style="font-size: 20px;"><b>Factorisation Matricielle</b></font></div><div><font style="font-size: 20px;"><b>Réseau Bayésien</b></font></div><div><font style="font-size: 20px;"><b>Régression</b></font></div><div><font style="font-size: 20px;"><b>Fondé sur les règles</b></font></div>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
89 | 89 | <mxGeometry x="830" y="420" width="200" height="220" as="geometry" /> |
90 | 90 | </mxCell> |
91 | 91 | <mxCell id="4dwB7kk_Vurboq88jpxZ-28" value="<div><font style="font-size: 20px;"><b>CF + CB</b></font></div><div><font style="font-size: 20px;"><b>KB + CF</b></font></div><div><font style="font-size: 20px;"><b>KB + CF + DF</b></font></div>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> |
Figures/taxonomieEIAH.png
View file @
4b1afa3
chapters/Architecture.aux
View file @
4b1afa3
... | ... | @@ -10,6 +10,7 @@ |
10 | 10 | \citation{Daubias2011} |
11 | 11 | \citation{10.1007/978-3-030-01081-2_9} |
12 | 12 | \@writefile{toc}{\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}\protected@file@percent } |
13 | +\newlabel{sec:descAIVT}{{5.2}{42}{Description du système AI-VT}{section.5.2}{}} | |
13 | 14 | \@writefile{lof}{\contentsline {figure}{\numberline {5.1}{\ignorespaces Structure du système AI-VT\relax }}{42}{figure.caption.17}\protected@file@percent } |
14 | 15 | \newlabel{fig:figSys1}{{5.1}{42}{Structure du système AI-VT\relax }{figure.caption.17}{}} |
15 | 16 | \@writefile{lot}{\contentsline {table}{\numberline {5.1}{\ignorespaces Un tableau décrivant les caractéristiques du système AI-VT\relax }}{43}{table.caption.18}\protected@file@percent } |
chapters/Architecture.tex
View file @
4b1afa3
... | ... | @@ -2,7 +2,7 @@ |
2 | 2 | |
3 | 3 | \section{Introduction} |
4 | 4 | |
5 | -Il est important de définir et décrire l'architecture logicielle d'un système complexe afin de mieux comprendre son fonctionnement. L'architecture montre les composants, les couches, les fonctionnalités et les interactions. Ce chapitre présente l'architecture modulaire proposée pour le système AI-VT. Les modules intègrent des outils issus de différents paradigmes, des modèles et des algorithmes d'intelligence artificielle permettant au système d'être plus performant. Les objectifs de l'architecture proposée sont de rendre le logiciel AI-VT (Artificial Intelligence Virtual Trainer) stable, évolutif, performant et facile à entretenir. L'architecture proposée se compose de quatre couches indépendantes, chacune dédiée à une fonctionnalité spécifique : correction automatique, identification, révision et test. Le contenu de ce chapitre a été publié dans \textit{et al.} \cite{10.1007/978-3-031-63646-2_13}. | |
5 | +Il est important de définir et décrire l'architecture logicielle d'un système complexe afin de mieux comprendre son fonctionnement. L'architecture montre les composants, les couches, les fonctionnalités et les interactions. Ce chapitre présente l'architecture modulaire proposée pour le système AI-VT. Les modules intègrent des outils issus de différents paradigmes, des modèles et des algorithmes d'intelligence artificielle permettant au système d'être plus performant. Les objectifs de l'architecture proposée sont de rendre le logiciel AI-VT (Artificial Intelligence - Virtual Trainer) stable, évolutif, performant et facile à entretenir. L'architecture proposée se compose de quatre couches indépendantes, chacune dédiée à une fonctionnalité spécifique : correction automatique, identification, révision et test. Le contenu de ce chapitre a été publié dans \textit{et al.} \cite{10.1007/978-3-031-63646-2_13}. | |
6 | 6 | |
7 | 7 | Il est possible de classer les architectures selon deux catégories : les architectures monolithiques et les architectures modulaires. Dans une architecture monolithique, le système logiciel est considéré comme une entité unique et unitaire avec une seule source de code, une seule base de données et un seul déploiement pour l'ensemble du système. Ce type de système est simple à développer et à tester mais il est peu adapté à la mise à jour et à l'évolution en raison de sa rigidité. Une architecture modulaire divise le système en modules indépendants qui peuvent communiquer entre eux, chaque module contenant alors tout ce qui est nécessaire pour fonctionner. De nombreux systèmes logiciels ont été conçus avec une architecture modulaire en raison des multiples avantages qu'elle présente \cite{Auer} \cite{jmse10040464}. |
8 | 8 | |
... | ... | @@ -14,7 +14,7 @@ L'EIAH AI-VT a ainsi évolué vers une architecture modulaire que nous présento |
14 | 14 | % SECTION 2 |
15 | 15 | %---------------------------------------------------------------------------------------- |
16 | 16 | |
17 | -\section{Description du système AI-VT} | |
17 | +\section{Description du système AI-VT}\label{sec:descAIVT} | |
18 | 18 | |
19 | 19 | Pour rappel, le système AI-VT est un outil pédagogique générique qui vise à accompagner les apprenants dans leur apprentissage en leur proposant des fiches d'exercices appelées sessions. Durant chaque session, les capacités attendues sont divisées en compétences, elles-mêmes divisées en sous-compétences. L'apprenant choisit une compétence à travailler et le système génère une session composée d'exercices associés à plusieurs sous-compétences de la compétence choisie. Le système propose une liste d'exercices au début d'une session en utilisant le paradigme du raisonnement à partir de cas avec une base de données de questions. |
20 | 20 | |
... | ... | @@ -29,7 +29,7 @@ Le système AI-VT est un EIAH générique dont la structure globale est présent |
29 | 29 | %\label{figSys1} |
30 | 30 | %\end{figure} |
31 | 31 | |
32 | -En s'appuyant sur la philosophie du RàPC, le système global AI-TV part du principe que la création d'une session pour un apprenant peut être réalisé par analogie avec celles proposées à des étudiants ayant des acquis, besoins et capacités similaires. AI-VT propose une liste d'exercices en fonction de la compétence ou de la sous-compétence sélectionnée par similitude avec celles proposées auparavant à d'autres apprenants. | |
32 | +En s'appuyant sur la philosophie du RàPC, le système global AI-TV part du principe que la création d'une session pour un apprenant peut être réalisé par analogie avec celles proposées à des apprenants ayant des acquis, besoins et capacités similaires. AI-VT propose une liste d'exercices en fonction de la compétence ou de la sous-compétence sélectionnée par similitude avec celles proposées auparavant à d'autres apprenants. | |
33 | 33 | |
34 | 34 | L'algorithme d'AI-VT tente de tenir compte de l'équilibre entre répétitivité et variété. De plus, le nombre d'exercices par session change en fonction du domaine, de la compétence choisie et du niveau de l'apprenant. La liste d'exercices est générée au début de chaque séance et elle n'est pas modifiée au cours de la séance en fonction des réponses fournies par l'apprenant : les listes d'exercices sont statiques pendant la séance \cite{10.1007/978-3-030-01081-2_9}. |
35 | 35 | |
... | ... | @@ -68,13 +68,13 @@ Dispositifs&le type de dispositif d'affichage du profil &Ordinateur ou appareils |
68 | 68 | |
69 | 69 | \section{Modèle d'architecture proposé} |
70 | 70 | |
71 | -Cette section explicite l'architecture proposée à partir du système AI-VT déjà existante. | |
71 | +Cette section explicite l'architecture proposée à partir du système AI-VT initial. | |
72 | 72 | |
73 | 73 | %\textcolor{red}{pour tous les modules dire précisément ce qui est développé ou en cours} |
74 | 74 | |
75 | 75 | La nouvelle architecture proposée a pour objectif d'intégrer de nouvelles fonctionnalités complémentaires au système initial sans en modifier les fonctionnalités. L'idée consiste donc à pouvoir activer simplement le module correspondant en envoyant et en recevant les informations nécessaires à son fonctionnement. Une évolution vers une architecture plus modulaire permet ainsi d'ajouter de nouvelles fonctionnalités au système d'origine en intégrant de nouveaux modules ou en faisant évoluer les modules existants. La conception modulaire facilite également la maintenance du code, le développement et l'intégration de nouvelles extensions. De plus, le système peut être configuré et adapté module par module, réduisant ainsi les risques de pannes et les coûts de maintenance et d'évolution. La modularité permet également d'exécuter les algorithmes de chaque module de manière asynchrone, en parallèle ou en mode distribué si nécessaire.%\textcolor{red}{idem préciser ce qui était avant, le travail de floran et ton travail} |
76 | 76 | |
77 | -L'architecture se compose de deux éléments principaux représentés sur la figure \figref{sa1} : le système central AI-VT, tel qui décrit dans la section 5.2 et les modules fonctionnels proposées pour compléter et améliorer certaines fonctionnalités. Le système central gère l'ensemble du processus d'apprentissage ; il génère %\textcolor{red}{démarre?} | |
77 | +L'architecture se compose de deux éléments principaux représentés sur la figure \figref{sa1} : le système central AI-VT, tel qu'il est décrit dans la section \ref{sec:descAIVT}, et les modules fonctionnels proposées pour compléter et améliorer certaines fonctionnalités. Le système central gère l'ensemble du processus d'apprentissage ; il génère %\textcolor{red}{démarre?} | |
78 | 78 | les séances ; il stocke les données relatives aux compétences, aux questions, aux ressources, aux apprenants, aux enseignants et aux réponses ; il contient les commandes et l'interface générale ; il gère le flux d'informations et active les modules nécessaires. Les modules sont un ensemble de fonctionnalités indépendantes mises en œuvre avec des algorithmes d'intelligence artificielle qui reçoivent et envoient des données depuis le composant central. Chaque module fonctionne selon des critères spécifiques liés à son propre objectif. Les modules sont regroupés en couches selon leur fonctionnalité : correction automatique, identification, adaptation, révision et test. L'enseignant et l'apprenant n'utilisent pas les modules directement ; ceux-ci sont appelés par le système pour compléter certaines fonctionnalités. |
79 | 79 | |
80 | 80 | \mfigure[!ht]{width=\textwidth}{./Figures/Architecture AI-VT2.png}{Schème de l'architecture proposée}{sa1} |
... | ... | @@ -117,7 +117,7 @@ Les modules LC1, LC2, LC3 ont été partiellement développés et n'ont pas ét |
117 | 117 | |
118 | 118 | \subsection{Identification} |
119 | 119 | |
120 | -Les modules de la couche d'identification visent à extraire des informations complémentaires à la note de l'étudiant pour chacune des réponses envoyées au système et ainsi affiner encore plus les recommandations générées. Ces informations complémentaires permettent d'obtenir principalement des informations sur les émotions (bonheur, dégoût, surprise, colère, peur, neutre et triste) grâce à la détection des expressions faciales et aussi les lacunes de connaissance de l'apprenant %\textcolor{red}{expression et faiblesse de quoi, comment?} | |
120 | +Les modules de la couche d'identification visent à extraire des informations complémentaires à la note de l'apprenant pour chacune des réponses envoyées au système et ainsi affiner encore plus les recommandations générées. Ces informations complémentaires permettent d'obtenir principalement des informations sur les émotions (bonheur, dégoût, surprise, colère, peur, neutre et triste) grâce à la détection des expressions faciales et aussi les lacunes de connaissance de l'apprenant %\textcolor{red}{expression et faiblesse de quoi, comment?} | |
121 | 121 | qui peuvent se manifester dans chaque sous-compétence et niveau de complexité. Ces modules d'AI-VT sont capables d'obtenir une meilleure estimation de l'état de l'apprentissage afin de mieux adapter le parcours de l'apprenant. |
122 | 122 | |
123 | 123 | Les modules d'identification LD1, LD2 et LD4 tentent de détecter les comportements, les émotions et les sentiments à l'aide de dispositifs externes tels que la caméra vidéo et le microphone. Dans le cas de l'analyse vidéo, des réseaux neuronaux d'apprentissage profond sont utilisés pour capturer et analyser les images statiques obtenues à partir du flux de la caméra vidéo. Le modèle d'IA a été entraîné à détecter des émotions prédéfinies. Le module audio vise à détecter le même type d'émotions, mais à partir de l'analyse des signaux obtenus à partir d'un microphone. Il utilise également l'apprentissage profond entrainé avec des signaux qui présentent différentes émotions prédéfinies. Le module capteur est plus générique, mais il peut être subdivisé en modules spécifiques en fonction du type de capteur et du signal à analyser. Toutefois, l'idée de la détection est la même : détecter des émotions prédéfinies. |
... | ... | @@ -130,7 +130,7 @@ Les modules LD1 et LD3 ont été partiellement développés et n'ont pas été s |
130 | 130 | |
131 | 131 | Les modules qui se trouvent dans cette section sont les modules principaux de ce travail. Dans la couche de révision, les modules utilisent les informations générées par les modules des couches de correction automatique et d'identification ainsi que les informations complémentaires de l'apprenant stockées dans la base de données du système. Ces modules valident le fait que la recommandation générée est optimale pour l'apprenant. Toutes les informations récoltées permettent d'établir la meilleure façon de guider l'apprenant vers une meilleure compréhension en surmontant les faiblesses et les lacunes qui ont été identifiées. |
132 | 132 | |
133 | -Les ressources recommandées par le module LR1 proviennent d'une base de données déjà établie que le module consulte et suggère à l'étudiant en fonction du résultat de la comparaison de l'état d'apprentissage, du niveau et des caractéristiques et spécifications de chacune des ressources. | |
133 | +Les ressources recommandées par le module LR1 proviennent d'une base de données déjà établie que le module consulte et suggère à l'apprenant en fonction du résultat de la comparaison de l'état d'apprentissage, du niveau et des caractéristiques et spécifications de chacune des ressources. | |
134 | 134 | |
135 | 135 | Le module LR2 a deux variantes fondées sur les valeurs générées par l'apprenant lorsque la séance d'entraînement est en cours : l'une déterministe et l'autre stochastique. Le modèle déterministe utilise un tableau prédéterminé de rangs sur lequel l'apprenant est positionné pour générer la suggestion d'adaptation. Le modèle stochastique utilise des distributions de probabilités dynamiques qui changent en fonction des résultats de l'apprenant à chaque niveau de complexité de la même sous-compétence. |
136 | 136 | |
... | ... | @@ -140,7 +140,7 @@ Le module LR3 obtient dynamiquement des structures variables à partir des infor |
140 | 140 | |
141 | 141 | Le module LR4 utilise les informations produites par l'apprenant et les informations collaboratives pour tenter de prédire les performances futures de l'apprenant. En particulier avec la recommandation générée par les modules de la couche adaptative, la prédiction est utilisée pour valider l'adaptation recommandée et l'ajuster si nécessaire. |
142 | 142 | |
143 | -Le module LR1 est fonctionnel dans le système AI-VT, mais encore il est nécessaire ajouter plus de ressources en fonction des questions configurées. L'algorithme proposé pour le module LR2 est décrit dans le chapitre 7, l'algorithme proposé pour les modules LR3, et LR4 apparait dans le chapitre 6. | |
143 | +Le module LR1 est fonctionnel dans le système AI-VT, mais encore il est nécessaire ajouter plus de ressources en fonction des questions configurées. L'algorithme proposé pour le module LR2 est décrit dans le chapitre \ref{chap:RecommandationAIVT}, l'algorithme proposé pour les modules LR3, et LR4 apparait dans le chapitre \ref{ChapESCBR}. | |
144 | 144 | |
145 | 145 | \subsection{Test} |
146 | 146 | |
... | ... | @@ -148,7 +148,7 @@ La couche de test fonctionne en amont et en aval de la génération des séances |
148 | 148 | |
149 | 149 | Les outils des différentes couches de l'architecture peuvent communiquer entre eux, car, pour que certains de leurs modules internes fonctionnent, ils ont besoin des informations générées par les modules des autres couches. La figure \figref{figLayers} montre les interactions qui peuvent se produire lorsque le système génère une séance ou l'adapte ou encore lorsqu'un module expérimental doit être évalué. La couche de test (LT) a besoin des informations générées par les modules de toutes les autres couches pour évaluer leurs performances individuelles. La couche d'identification (LD) doit obtenir les données relatives au profil des apprenants. Ces informations sont générées par le module de profil qui se trouve dans la couche de révision (LR). Pour certains modules qui ont la capacité de modifier une solution, cette couche doit connaître les résultats obtenus par l'apprenant dans chacun des tests ou exercices proposés par le système. Ces résultats sont attribués par la couche de correction automatique (LC). De plus, il est possible d'obtenir une estimation du résultat de la révision proposée avant qu'elle ne soit envoyée à l'apprenant, pour cela il faut invoquer les modules spécifiques de prédiction qui appartiennent à la couche de révision (LR). |
150 | 150 | |
151 | -L'algorithme spécifique pour le module LT1 et les caractéristiques de la base de données générée sont détaillées dans le chapitre 7. | |
151 | +L'algorithme spécifique pour le module LT1 et les caractéristiques de la base de données générée sont détaillées dans le chapitre \ref{chap:RecommandationAIVT}. | |
152 | 152 | |
153 | 153 | \mfigure[!ht]{scale=0.8}{./Figures/Layers.png}{Relation entre les couches définies de l'architecture.}{figLayers} |
154 | 154 | |
... | ... | @@ -159,7 +159,7 @@ L'algorithme spécifique pour le module LT1 et les caractéristiques de la base |
159 | 159 | %\label{figLayers} |
160 | 160 | %\end{figure} |
161 | 161 | |
162 | -Le flux complet d'informations est représenté sur la figure \figref{figFlow}. La première étape consiste à envoyer le test généré par le système AI-VT à l'apprenant. Lors de cette étape, le module d'identification correspondant à l'analyse à effectuer est également lancé. Lorsque l'étudiant envoie la réponse à une question, le module d'identification envoie à l'apprenant l'analyse effectuée sur cette même réponse. Grâce à ces informations, le système active les modules de correction automatique pour attribuer une note à la réponse envoyée, en tenant compte également des résultats du module d'identification. À l'étape 6, la note générée est envoyée au système, puis pour effectuer l'adaptation, le système obtient les informations spécifiques de l'apprenant et lance les modules d'adaptation, en envoyant les informations obtenues dans les étapes précédentes. Les algorithmes d'adaptation évaluent les variables et déterminent le parcours optimal pour l'apprenant, mais avant de le renvoyer au système principal, l'étape 9 évalue sa pertinence à l'aide du module de prédiction. Si le résultat de la prédiction détermine que le chemin suggéré est acceptable, il est envoyé au système principal qui décide, à l'étape 11, de le présenter à l'apprenant comme une alternative au chemin sélectionné à l'origine. | |
162 | +Le flux complet d'informations est représenté sur la figure \figref{figFlow}. La première étape consiste à envoyer le test généré par le système AI-VT à l'apprenant. Lors de cette étape, le module d'identification correspondant à l'analyse à effectuer est également lancé. Lorsque l'apprenant envoie la réponse à une question, le module d'identification envoie à l'apprenant l'analyse effectuée sur cette même réponse. Grâce à ces informations, le système active les modules de correction automatique pour attribuer une note à la réponse envoyée, en tenant compte également des résultats du module d'identification. À l'étape 6, la note générée est envoyée au système, puis pour effectuer l'adaptation, le système obtient les informations spécifiques de l'apprenant et lance les modules d'adaptation, en envoyant les informations obtenues dans les étapes précédentes. Les algorithmes d'adaptation évaluent les variables et déterminent le parcours optimal pour l'apprenant, mais avant de le renvoyer au système principal, l'étape 9 évalue sa pertinence à l'aide du module de prédiction. Si le résultat de la prédiction détermine que le chemin suggéré est acceptable, il est envoyé au système principal qui décide, à l'étape 11, de le présenter à l'apprenant comme une alternative au chemin sélectionné à l'origine. | |
163 | 163 | |
164 | 164 | \mfigure[!ht]{width=\textwidth}{./Figures/flow.png}{Étapes du flux de l'information pour la fonctionnalité de recommandation globale.}{figFlow} |
165 | 165 |
chapters/CBR.aux
View file @
4b1afa3
... | ... | @@ -3,7 +3,7 @@ |
3 | 3 | \citation{schank+abelson77} |
4 | 4 | \citation{KOLODNER1983281} |
5 | 5 | \citation{Riesbeck1989} |
6 | -\citation{JUNG20095695} | |
6 | +\citation{RICHTER20093} | |
7 | 7 | \citation{JUNG20095695} |
8 | 8 | \@writefile{toc}{\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}\protected@file@percent } |
9 | 9 | \@writefile{lof}{\addvspace {10\p@ }} |
... | ... | @@ -12,44 +12,45 @@ |
12 | 12 | \citation{10.1007/978-3-642-15973-2_50} |
13 | 13 | \citation{PETROVIC201617} |
14 | 14 | \citation{10.1007/978-3-319-24586-7_20} |
15 | -\@writefile{toc}{\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}\protected@file@percent } | |
16 | 15 | \citation{10.1007/978-3-030-58342-2_20} |
16 | +\@writefile{toc}{\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}\protected@file@percent } | |
17 | 17 | \citation{wolf2024keep} |
18 | 18 | \citation{PAREJASLLANOVARCED2024111469} |
19 | 19 | \citation{Muller} |
20 | -\@writefile{toc}{\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}\protected@file@percent } | |
21 | 20 | \citation{10.1007/978-3-319-47096-2_11} |
22 | 21 | \citation{10.1007/978-3-642-15973-2_50} |
23 | 22 | \citation{Robertson2014ARO} |
24 | 23 | \citation{10.1007/978-3-319-47096-2_11} |
25 | 24 | \citation{10.1007/978-3-319-47096-2_11} |
25 | +\@writefile{toc}{\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}\protected@file@percent } | |
26 | 26 | \citation{ROLDANREYES20151} |
27 | 27 | \citation{ROLDANREYES20151} |
28 | 28 | \citation{ROLDANREYES20151} |
29 | 29 | \citation{10.1007/978-3-319-47096-2_11} |
30 | +\citation{10.1007/978-3-319-61030-6_1} | |
30 | 31 | \@writefile{lof}{\contentsline {figure}{\numberline {4.1}{\ignorespaces Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }}{32}{figure.caption.13}\protected@file@percent } |
31 | 32 | \newlabel{fig:figMCBR2}{{4.1}{32}{Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }{figure.caption.13}{}} |
32 | -\citation{10.1007/978-3-319-61030-6_1} | |
33 | 33 | \citation{buildings13030651} |
34 | +\citation{YU2023110163} | |
34 | 35 | \@writefile{lof}{\contentsline {figure}{\numberline {4.2}{\ignorespaces Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }}{33}{figure.caption.14}\protected@file@percent } |
35 | 36 | \newlabel{fig:figMCBR1}{{4.2}{33}{Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }{figure.caption.14}{}} |
36 | 37 | \@writefile{toc}{\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}\protected@file@percent } |
37 | -\citation{YU2023110163} | |
38 | 38 | \citation{10.1007/978-3-031-63646-2_4} |
39 | 39 | \citation{10.1007/978-3-030-01081-2_25} |
40 | 40 | \citation{10.1007/978-3-030-58342-2_8} |
41 | 41 | \citation{10.1007/978-3-030-58342-2_5} |
42 | -\@writefile{toc}{\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}\protected@file@percent } | |
43 | 42 | \citation{YU2024123745} |
44 | 43 | \citation{Sadeghi} |
44 | +\@writefile{toc}{\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}\protected@file@percent } | |
45 | 45 | \citation{8495930} |
46 | 46 | \citation{Obeid} |
47 | 47 | \citation{skittou2024recommender} |
48 | 48 | \citation{Obeid} |
49 | 49 | \citation{Obeid} |
50 | -\@writefile{toc}{\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}\protected@file@percent } | |
51 | 50 | \citation{HU2025127130} |
52 | 51 | \citation{ALABDULRAHMAN2021114061} |
52 | +\@writefile{toc}{\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}\protected@file@percent } | |
53 | +\@writefile{toc}{\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}\protected@file@percent } | |
53 | 54 | \citation{JUNG20095695} |
54 | 55 | \citation{10.1007/978-3-642-15973-2_50} |
55 | 56 | \citation{PETROVIC201617} |
... | ... | @@ -74,7 +75,6 @@ |
74 | 75 | \citation{skittou2024recommender} |
75 | 76 | \@writefile{lof}{\contentsline {figure}{\numberline {4.3}{\ignorespaces Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }}{36}{figure.caption.15}\protected@file@percent } |
76 | 77 | \newlabel{fig:figTax}{{4.3}{36}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }{figure.caption.15}{}} |
77 | -\@writefile{toc}{\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{36}{section.4.7}\protected@file@percent } | |
78 | 78 | \@writefile{lot}{\contentsline {table}{\numberline {4.1}{\ignorespaces Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }}{37}{table.caption.16}\protected@file@percent } |
79 | 79 | \newlabel{tabArts2}{{4.1}{37}{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }{table.caption.16}{}} |
80 | 80 | \@setckpt{./chapters/CBR}{ |
chapters/CBR.tex
View file @
4b1afa3
1 | -\chapter{\'Etat de l'art (Raisonnement à Partir de Cas)} | |
2 | - | |
3 | -Le raisonnement à partir de cas est une approche fondée sur la connaissance. Il s'agit d'une technique d'intelligence artificielle dont l'idée est de résoudre un nouveau problème grâce aux connaissances déjà acquises par le système et en tenant un raisonnement fondé sur l'analogie. Le RàPC est apparu comme une alternative pour améliorer les systèmes experts. Shank et Abelson \cite{schank+abelson77} ont initialement mené des travaux sur l'organisation hiérarchique de la mémoire pour imiter le raisonnement humain. Ceux-ci ont servi de fondement aux travaux de Janet Kolodner \cite{KOLODNER1983281} et ont abouti à l'implémentation d'un système fondé sur ces principes en 1983. Le terme \textit{raisonnement à partir de cas} est utilisé pour la première fois en 1989 par Riesbeck et Shank \cite{Riesbeck1989}. | |
4 | - | |
5 | -Comme vu dans le chapitre "contexte", le raisonnement à partir de cas utilise quatre conteneurs de connaissance pour représenter la connaissance complète du système. Chaque conteneur stocke l'information associée à une fonction spécifique et tout est fondé sur le carré d'analogie : des solutions ayant permis de résoudre un problème sont réutilisées afin de résoudre un nouveau problème similaire. La plupart des systèmes de RàPC fonctionnent suivant un cycle composé de quatre étapes : retrouver, réutiliser, réviser et retenir. | |
6 | - | |
7 | -Les travaux présentés dans ce chapitre ont nourri notre réflexion et ont ouvert des perspectives d'amélioration de performance du système AI-VT. Ce chapitre commence par la présentation de travaux emblématiques intégrant un réseau de neurones au cycle de RàPC. Cette première section est suivie d'une présentation de différents travaux liés à l'explicabilité, toujours en utilisant le RàPC. Des travaux récents sur la représentation des cas et le cycle du RàPC, puis sur l'intégration d'autres algorithmes au cycle du RàPC sont ensuite présentés. Pour finir, la prédiction et la recommandation via le RàPC terminent ce chapitre. | |
8 | - | |
9 | -\section{Intégration d'un réseau de neurones dans le cycle du RàPC} | |
10 | - | |
11 | -Plusieurs travaux combinent le RàPC avec les réseaux de neurones dans l'objectif d'améliorer les réponses générées et optimiser les performances de chaque algorithme. C'est une idée explorée dès 2009 par Jung \textit{et al.} \cite{JUNG20095695}. Les auteurs de cet article ont en effet développé un système fondé sur l'hybridation du RàPC avec des réseaux de neurones pour concevoir des produits. Cette hybridation est implémentée dans les phases "rechercher" et "réutiliser" : le système détermine de façon automatique les valeurs pour les paramètres nécessaires à la conception d'un produit particulier en suivant le cycle traditionnel du RàPC. Avec l'algorithme de k-moyennes, un cas représentatif de la base de cas est extrait et l'adaptation des solutions des voisins trouvées est faite avec le réseau de neurones RBFN (\textit{Radial Basis Function Network}). L'évaluation du système est faite en utilisant une base de données contenant 830 tests, les résultats démontrent que les produits conçus s'ajustent avec un grand pourcentage aux normes définies. | |
12 | -Plusieurs travaux combinent le RàPC avec les réseaux de neurones dans l'objectif d'améliorer les réponses générées et optimiser les performances de chaque algorithme. C'est une idée explorée dès 2009 par Jung \textit{et al.} \cite{JUNG20095695}. Les auteurs de cet article ont en effet développé un système fondé sur l'hybridation du RàPC avec des réseaux de neurones pour concevoir des produits. Cette hybridation est implémentée dans les phases "rechercher" et "réutiliser" : le système détermine de façon automatique les valeurs pour les paramètres nécessaires à la conception d'un produit particulier en suivant le cycle traditionnel du RàPC. Avec l'algorithme de k-moyennes, un cas représentatif de la base de cas et l'adaptation des solutions des voisins trouvées est faite avec le réseau de neurones RBFN (\textit{Radial Basis Function Network}). L'évaluation du système est faite en utilisant une base de données contenant 830 tests, les résultats démontrent que les produits conçus s'ajustent avec un grand pourcentage aux normes définies. | |
13 | - | |
14 | -Dans \cite{10.1007/978-3-642-15973-2_50} un réseau de neurones classique est implémenté pour définir la géométrie d'une matrice pour l'extrusion de l'aluminium. En effet, actuellement c'est un processus qui se fait manuellement et par essai et erreur. Le RàPC est alors utilisé pour aider à déterminer les valeurs optimales des paramètres du réseau, en utilisant l'information des matrices d'extrusion déjà testées. | |
15 | - | |
16 | -Petrovic \textit{et al.} \cite{PETROVIC201617} proposent un système de raisonnement à partir de cas pour calculer la dose optimale de radiation pour le traitement du cancer. Dans ce domaine particulier de la radiothérapie, administrer une dose nécessite de connaître avec précision le nombre de faisceaux et l'angle de chacun d'eux. L'algorithme proposé tente de trouver la combinaison de valeurs optimales pour ces deux paramètres en utilisant les réseaux de neurones. L'utilisation des réseaux de neurones intervient lors de l'adaptation des cas connus : ils modifient le nombre et les angles des faisceaux. La validation de l'algorithme est évaluée avec une base de 80 cas réels de cancer du cerveau extraits de l'hôpital de Nottingham City. Le nombre de neurones et de couches ont été définis de façon empirique. Les résultats montrent que l'utilisation des cas historiques et la construction des solutions à partir des solutions déjà connues permet une amélioration de 12\% concernant la décision du nombre de faisceaux et de 29\% concernant la décision liée à leur angle. | |
17 | - | |
18 | -\section{Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus} | |
19 | - | |
20 | -La génération, l'analyse et la correction de textes constituent également des domaines d'application intéressants du RàPC. Pour la réalisation de ces tâches il est parfois nécessaire de transformer le texte en représentation numérique ou de mesurer la proximité sémantique de mots. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit explore les transformations possibles afin que la nouvelle histoire ne soit pas très similaire aux histoires déjà connues mais qu'elle soit cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de celle-ci déterminent si l'histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit recommencer; l'adaptation se fait en recherchant les personnages, les contextes, les objets dans la base de cas, et en les unifiant avec des actions; la plupart des histoires générées sont cohérentes mais elles sont constituées de paragraphes très courts. | |
21 | - | |
22 | -Dans \cite{10.1007/978-3-030-58342-2_20} les phrases écrites en langue française sont corrigées. Ce travail n'utilise ni la transformation numérique des phrases, ni de connaissances linguistiques, mais retrouve les phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et calcule une mesure de distance avec les phrases correctes et incorrectes de la base de connaissances. Si les phrases similaires sont incorrectes, le système peut proposer une correction en changeant certains mots selon le contexte et recalculer les distances afin de mesurer la cohérence et la pertinence de la phrase proposée. | |
23 | - | |
24 | -Plus récemment Wolf \textit{et al.} \cite{wolf2024keep} ont présenté un système dans lequel le RàPC est employé pour expliquer les résultats générés par un réseau qui classifie les images en fonction de certains attributs et zones dans les images. Les résultats obtenus permettent de conclure que le RàPC permet d'expliquer fidèlement le contenu des images testées. | |
25 | - | |
26 | -\cite{PAREJASLLANOVARCED2024111469} utilisent également le RàPC pour sélectionner la meilleure explication au résultat donné par le classificateur d'images fondé sur l'apprentissage profond (\textit{Deep Learning}). Dans ce système, la base de connaissances est constituée d'images avec des étiquettes décrivant l'information associée. Les résultats obtenus par ce système sont très prometteurs. | |
27 | - | |
28 | -\section{Travaux récents sur la représentation des cas et le cycle du RàPC} | |
29 | - | |
30 | -Certains travaux ont appliqué le raisonnement à partir de cas à un problème spécifique en modifiant les représentations des cas et des solutions. D'autres ont modifié le cycle conceptuel comme le montre la figure \figref{figMCBR2} avec l'objectif d'obtenir des réponses dynamiques et plus aptes à proposer des solutions à des problèmes complexes. | |
31 | - | |
32 | -En effet, la représentation des cas peut permettre d'améliorer les résultats d'un système de RàPC. La performance d'un système de RàPC dépend de la quantité d'informations stockées, mais également des algorithmes implémentés. C'est le cas dans \cite{Muller} où les recettes de cuisine sont codées comme un processus de transformation et mélangent des ingrédients en suivant une suite d'étapes ordonnées. Pour créer des recettes innovantes, une mesure de distance est utilisée entre les ingrédients. Cette mesure permet de trouver une recette en substituant certains ingrédients par d'autres, similaires ou aux qualités et/ou caractéristiques similaires. De la même manière, il est possible de créer des recettes plus proches des exigences des utilisateurs. Les étapes de transformation appelées aussi opérateurs sont stockées et catégorisées grâce à une métrique permettant de les échanger afin d'obtenir une nouvelle recette. | |
33 | - | |
34 | -Les auteurs de \cite{10.1007/978-3-319-47096-2_11} introduisent un cycle complémentaire incluant un outil d'apprentissage profond pour améliorer le résultat du système fondé sur le RàPC. | |
35 | - | |
36 | -Dans \cite{10.1007/978-3-642-15973-2_50}, la phase de stockage est modifiée en retenant les cas dont les résultats n'ont pas eu de succès, pour guider le processus dans la fabrications de nouvelles pièces. | |
37 | - | |
38 | -Enfin, dans \cite{Robertson2014ARO}, les auteurs proposent d'ajouter à chaque cas une valeur d'utilité espérée en fonction de chaque action possible. Cet ajout s'accompagne d'une prédiction probabiliste des actions que l'application engendrera en réponse. Cette prédiction probabiliste dépend bien entendu de l'état initial du système avant la mise en œuvre de l'action. | |
39 | - | |
40 | -\mfigure[!ht]{width=\textwidth}{./Figures/ModCBR2.png}{Ajout d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (Traduit de \cite{10.1007/978-3-319-47096-2_11})}{figMCBR2} | |
41 | - | |
42 | -Plusieurs travaux appliquent le RàPC avec succès en proposant des modifications dans chacune des phases ou en combinant différents algorithmes. Certains systèmes de RàPC appliqués au domaine de la conception de produits sont remarquables à ce titre. | |
43 | - | |
44 | -Dans \cite{ROLDANREYES20151}, les auteurs proposent un algorithme pour produire le propylène glycol dans un réacteur chimique comme le montre la figure \figref{figMCBR1}. Dans ce cas, la phase de réutilisation du RàPC est couplée à la recherche des états satisfaisant le nouveau problème (\textit{Constraint satisfaction problems CSP}) en utilisant l'information des cas de base déjà résolus. Les solutions trouvées sont évaluées selon le nombre de changements réalisés sur les solutions déjà connues (parcimonie), le nombre de solutions possibles trouvées (précision), l'évaluation de commentaires faits par des experts et la complexité des transformations réalisées. | |
45 | - | |
46 | -\mfigure[!ht]{width=\textwidth}{./Figures/ModCBR1.png}{Cycle du RàPC modifié. (Traduit de \cite{ROLDANREYES20151})}{figMCBR1} | |
47 | - | |
48 | -Dans \cite{10.1007/978-3-319-47096-2_11}, les auteurs ajoutent un nouveau cycle au cycle traditionnel du RàPC. Le premier cycle génère des descriptions abstraites du problème avec un réseau de neurones et des algorithmes génétiques; le second cycle prend les descriptions abstraites comme des nouveaux cas, cherche les cas similaires et adapte les solutions rencontrées. L'exécution des deux cycles prend en compte certains critères prédéfinis par l'utilisateur. En comparant le même problème avec le cycle traditionnel du RàPC, les auteurs mesurent une amélioration de la qualité des recettes proposées et montrent que celles-ci sont plus en accord avec les critères définis. | |
49 | - | |
50 | -\cite{10.1007/978-3-319-61030-6_1} s'intéressent quant à eux à la génération de recettes de cuisine originales. Les auteurs modifient le cycle traditionnel du RàPC et créent deux cycles, combinant l'apprentissage profond et la récupération de cas fondée sur la similarité. Le premier cycle génère des descriptions abstraites de la conception avec des algorithmes génétiques et un réseau neuronal profond. Le second cycle utilise les descriptions abstraites pour récupérer et adapter des objets. Cette structure donne lieu à un prototype appelé Q-chef qui génère une recette fondée sur d'autres ingrédients connus du système et les demandes de l'utilisateur. Ce travail ne montre pas de métriques standard génériques mais utilise deux nombres indicatifs (plausibilité et surprise) pour démontrer la génération efficace de nouvelles recettes selon les critères de l'utilisateur en comparant le RàPC à deux cycles avec le RàPC à un cycle, démontrant plus de plausibilité et de surprise dans les recettes générées. | |
51 | - | |
52 | -\section{Intégration d'autres algorithmes dans le cycle du RàPC} | |
53 | - | |
54 | -Par rapport à l'intégration du RàPC avec d'autres algorithmes nous pouvons citer \cite{buildings13030651} qui mettent en œuvre un RáPC avec une méthode d'agrégation \textit{bootstrap} (\textit{bagging}) pour améliorer la précision du RàPC lorsqu'il n'y a pas suffisamment de cas et réduire la variance. L'une des problématiques auxquelles les auteurs tentent de répondre dans cet article est l'estimation des coûts conceptuels dans les décisions de faisabilité d'un projet lorsque l'on ne dispose pas de suffisamment d'informations sur la conception détaillée et les exigences du projet. Les résultats ont révélé que le RàPC associé à \textit{bootstrap} est plus performant que le RàPC non associé à \textit{bootstrap}. | |
55 | - | |
56 | -Un modèle d'ensemble fondé sur le raisonnement à partir de cas est proposé par \cite{YU2023110163}. Celui-ci est appliqué à la prédiction financière et au remplissage des données manquantes. Dans ce système, pour retrouver les plus proches voisins, le modèle utilise trois mesures de distance différentes et une étape de vote pour l'intégration. Le modèle a été testé avec une base de données comportant onze caractéristiques (informations) financières provenant de 249 entreprises. La comparaison est faite avec deux objectifs. Premièrement, le remplissage des données manquantes avec d'autres algorithmes tels que KNN ou \textit{Random Forest}, et deuxièmement, la comparaison de la prédiction avec des algorithmes uniques utilisant une métrique de distance spécifique. Les résultats obtenus montrent que le système est plus performant aussi bien pour le remplissage des données manquantes que pour la prédiction des données financières. | |
57 | - | |
58 | -Une étape très importante dans le RàPC est l'adaptation. Dans \cite{10.1007/978-3-031-63646-2_4} l'objectif est changer la représentation de la connaissance pour évaluer s'il y a un impact positif dans les solutions générées, ce changement permet aussi d'établir règles d'adaptation, les résultats permettent de dire que choisir une représentation adéquate et des règles correctes en fonction du problème étudié peut améliorer la qualité des solutions pour résoudre des problèmes complexes. | |
59 | - | |
60 | -\section{Prédiction et interpolation en utilisant le RàPC} | |
61 | - | |
62 | -L'objectif du travail de \cite{10.1007/978-3-030-01081-2_25} est la prédiction du temps de course pour un athlète. L'algorithme KNN est utilisé pour rechercher les cas similaires. Le système interpole un temps final grâce au calcul d'une moyenne pondérée des meilleurs temps des cas similaires retrouvés dans la première étape du RàPC. | |
63 | - | |
64 | -Dans \cite{10.1007/978-3-030-58342-2_8}, les auteurs essaient de prédire le meilleur temps d'un patineur par analogie avec ceux des patineurs ayant des caractéristiques et une histoire de course similaires. Cependant, parfois, calculer une moyenne des temps similaires trouvés ne suffit pas. Certaines caractéristiques liées au contexte, à l'environnement et à la nature de la course (le type de course, le type de piste, la distance à parcourir, etc.), peuvent en effet influencer de manière importante la performance du patineur. L'algorithme a été testé avec une base de données contenant les informations de 21 courses de 500m, 700m, 1000m, 1500m, 3km, 5km and 10km réalisées entre Septembre 2015 et Janvier 2020. | |
65 | - | |
66 | -Un système multi-fonctionnel est décrit dans \cite{10.1007/978-3-030-58342-2_5}. Celui-ci permet d'obtenir une prédiction du temps de course, de suggérer un plan du rythme de la course et il recommande également un plan d'entraînement pour une course donnée. Les trois fonctionnalités sont implémentées en utilisant le RàPC. Les calculs de la similarité sont fondés sur un historique et des caractéristiques physiques des coureurs. Les plans d'entraînement sont génériques et sont proposés sur les 16 semaines précédant le début du marathon ciblé (selon les auteurs, c'est en effet le temps usuel pour une préparation à ce type d'épreuve). Le système a été évalué avec une base de données constituée de caractéristiques de 21000 coureurs des marathons de Dublin, Londres ou New-York pour la période de 2014 à 2017. | |
67 | - | |
68 | -Les auteurs de \cite{YU2024123745} proposent un algorithme en deux étapes pour prédire avec précision et robustesse la détresse financière. Les deux étapes utilisent le RàPC. La première étape consiste à compléter les valeurs manquantes de la base de données considérée. Un cycle de RàPC est ensuite combiné avec un LVQ (\textit{Learning Vector Quantization}) pour interpoler une classification. Les résultats obtenus sont prometteurs. | |
69 | - | |
70 | -Les auteurs de \cite{Sadeghi} présentent un nouvel algorithme pour la prévision de la demande de matériel de secours. Le système décrit dans cet article combine le RàPC avec la méthode du meilleur-pire (\textit{Best-Worst Method}, BWM) et les modèles de Markov cachés (\textit{Hidden Markov Model}, HMM). Le HMM est entrainé avec des données historiques de demande de matériel. Lorsque l'algorithme détecte un accident, le RàPC recherche les cas similaires pour proposer le matériel nécessaire. D'après les résultats, l'indice d'erreur de prévision est inférieur à 10\%, démontrant ainsi la robustesse du système CBR-BWM-HMM proposé. | |
71 | - | |
72 | -\section{Recommandation, EIAH et RàPC} | |
73 | - | |
74 | -Les systèmes de recommandation et le RàPC peuvent aussi être combinés comme dans le système proposé par \cite{8495930}. Cet article montre les bénéfices de l'utilisation du RàPC dans les environnements informatiques pour l'apprentissage humain (EIAH). Le modèle proposé suit le cycle traditionnel du RàPC en combinant les modèles d'apprentissages traditionnels et numériques. Les principales contributions sont la représentation des cas et la recommandation des parcours d'apprentissage personnalisés selon les informations issues des autres apprenants. Une base de cas initiaux a été créée pour mesurer l'efficacité du modèle. Celle-ci stocke la recommandation du parcours de 120 apprenants. Des examens, réalisés avant et après avoir suivi le parcours recommandé par le système, permettent de mesurer l'efficacité de la recommandation proposée. | |
75 | - | |
76 | -Le système décrit dans \cite{Obeid} présente la particularité d'être capable d'analyser des données hétérogènes et multidimensionnelles. Dans ce travail, un parcours de carrière associé aux universités/collèges est recommandé aux élèves du secondaire en fonction de leurs intérêts. Ce travail montre également une taxonomie des techniques algorithmiques généralement utilisées dans les systèmes de recommandation pour les EIAH (figure \figref{figTax}). | |
77 | - | |
78 | -En fonction de certains paramètres comme le type d'école, le nombre d'étudiants admis et non admis, le nombre de classes, les auteurs de \cite{skittou2024recommender} développent un modèle hybride combinant RàPC et raisonnement à partir de règles pour recommander des actions de planification en réponse à des cas éducatifs des écoles primaires. Le modèle a été testé sur des données réelles et a donné de bons résultats avec une grande précision. | |
79 | - | |
80 | -%Le RàPC a également été mis en oeuvre dans différents travaux liés à la génération, l’analyse et la correction de textes écrits. Pour la réalisation de ces tâches, il est parfois nécessaire de transformer le texte en représentation numérique ou d’établir une fonction ou mesure qui va indiquer quels mots ont une proximité sémantique. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit dans ce travail explore les transformations de forme possibles afin que la nouvelle histoire ne soit pas similaire aux histoires déjà connues tout en étant cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de la révision déterminent si l’histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit être recommencé. L'adaptation se fait en cherchant dans la base des cas, les personnages, les contextes, les objets et en \colorbox{pink}{unifiant tout avec des actions ??}. Les résultats montrent que la plupart des histoires générées sont cohérentes mais qu'elles sont constituées de paragraphes très courts. Dans \cite{10.1007/978-3-030-58342-2_20}, les phrases écrites en langue française sont corrigées, ce travail n'utilise ni la transformation numérique \colorbox{yellow}{?} des phrases, ni des connaissances linguistiques. Le système conçu retrouve des phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et en calculant la distance entre toutes les phrases \colorbox{yellow}{lesquelles ?} pour savoir \colorbox{pink}{je ne comprends pas la suite }si elle est bien écrite ou pas. Si la phrase n’est pas bien écrite, le système peut proposer une correction en changeant certains mots selon le contexte et calculer à nouveau les distances mesurant la cohérence et pertinence de la phrase. | |
81 | - | |
82 | -\mfigure[!ht]{width=\textwidth}{./Figures/taxonomieEIAH.png}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite{Obeid})}{figTax} | |
83 | - | |
84 | -%\begin{figure} | |
85 | -%\centering | |
86 | -%\includegraphics[scale=21]{./Figures/taxonomieEIAH.png} | |
87 | -%\caption{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (\cite{Obeid})} | |
88 | -%\label{figTax} | |
89 | -%\end{figure} | |
90 | - | |
91 | -\section{Récapitulatif des limites des travaux présentés dans ce chapitre} | |
92 | - | |
93 | -Le tableau \ref{tabArts2} récapitule les articles analysés dans cet état de l'art du RàPC et rappelle les limitations que nous avons identifiées. Ces limitations sont liées aux données, à la flexibilité, à la généralisation de l'algorithme proposé, à la validité des solutions proposées, l'automatisation du processus et complexité du modèle proposée. | |
94 | - | |
95 | -En complément, deux problèmes très communs des systèmes de recommandation peuvent être ajoutées à ces limitations : | |
96 | -\begin{itemize} | |
97 | - \item le \textit{cold-start} qui se produit au début d'une recommandation lorsqu'il n'y a pas suffisamment de données pour calculer ou inférer une recommandation appropriée \cite{HU2025127130}, et | |
98 | - \item le \textit{gray-sheep} qui se produit lorsqu'un utilisateur présente un comportement très différent de ceux qui sont stockés dans la base de données. Le système ne peut donc pas générer des recommandations en se basant sur l'information disponible \cite{ALABDULRAHMAN2021114061}. | |
99 | -\end{itemize} | |
100 | - | |
101 | -\begin{table} | |
102 | -\footnotesize | |
103 | -\begin{tabular}{p{4.4cm}p{9cm}} | |
104 | -Ref&Limites\\ | |
105 | -\hline | |
106 | - | |
107 | -\cite{JUNG20095695}&Le modèle d'adaptation proposé fonctionne seulement avec des cas très proches. L'apprentissage dans le RàCP se limite à stocker les nouveaux cas.\\ | |
108 | - | |
109 | -\cite{10.1007/978-3-642-15973-2_50}&Le RàPC n'est pas modifié ou amélioré. La révision dans le RàPC n'est pas automatique.\\ | |
110 | - | |
111 | -\cite{PETROVIC201617}&Grande quantité de données pour que l'algorithme fonctionne correctement. Recommandation limitée à un problème très spécifique.\\ | |
112 | - | |
113 | -\cite{wolf2024keep}&Le modèle n'est actuellement appliqué qu'à la classification d'images à un seul label. \\ | |
114 | - | |
115 | -\cite{PAREJASLLANOVARCED2024111469}&La base de données de test a été construite avec des évaluations subjectives. Le modèle ne considère pas les incertitudes.\\ | |
116 | - | |
117 | -\cite{ROLDANREYES20151}&Une seule méthode d'adaptation est utilisée. Le modèle n'exploite pas les cas qui présentent une erreur.\\ | |
118 | - | |
119 | -\cite{10.1007/978-3-319-47096-2_11}&Beaucoup de données sont nécessaires pour entraîner le modèle de 'Deep Learning'. Les solutions générées n'ont pas été validées.\\ | |
120 | - | |
121 | -\cite{10.1007/978-3-319-61030-6_1}&L'évaluation des solutions générées n'est pas automatique. Les solutions sont produites avec un seul point de vue.\\ | |
122 | - | |
123 | -\cite{buildings13030651}&La fonction d'unification des solutions est une moyenne des solutions générées avec la division des données et une seule approche\\ | |
124 | - | |
125 | -\cite{YU2023110163}&Une base de données déséquilibrée peut affecter négativement la performance du modèle proposé\\ | |
126 | - | |
127 | -\cite{Muller}&Une seule approche pour adapter les cas dans le RàPC. La révision dans le RàPC n'est pas automatique.\\ | |
128 | - | |
129 | -\cite{10.1007/978-3-319-24586-7_20}&Les solutions générées peuvent présenter des incohérences. Il n'y a pas une métrique objective pour mesurer la qualité des réponses.\\ | |
130 | - | |
131 | -\cite{10.1007/978-3-030-58342-2_20}&Les résultats ne sont pas très bons. Le modèle n'a pas de connaissances linguistiques.\\ | |
132 | - | |
133 | -\cite{10.1007/978-3-031-63646-2_4}&Les règles d'adaptation définies sont fixes et peuvent être limitées pour certaines situations.\\ | |
134 | - | |
135 | -\cite{10.1007/978-3-030-01081-2_25}&Les prédictions n'ont pas été testées dans le monde réel. Les données sont très spécifiques et peu variées.\\ | |
136 | - | |
137 | -\cite{10.1007/978-3-030-58342-2_8}&Les prédictions sont pour des cas limités. Le modèle est entraîné pour un type d'utilisateur spécifique.\\ | |
138 | - | |
139 | -\cite{10.1007/978-3-030-58342-2_5}&Seulement une technique de sélection de solutions. Les données nécessaires pour le modèle sont complexes.\\ | |
140 | - | |
141 | -\cite{YU2024123745}&Il n'y a pas de révision des cas dans la méthode d'imputation ni dans le modèle de classification fondé sur RàPC. Cela peut accroître le biais d'imputation et introduire des échantillons avec bruit.\\ | |
142 | - | |
143 | -\cite{Sadeghi}&Le temps de calcul peut être très grand en fonction de la quantité de données associées, dû à l'étape d'entraînement du modèle HMM.\\ | |
144 | - | |
145 | -\cite{8495930}&Le modèle a été validé avec peu de données. Les recommandations se basent seulement sur l'information des autres apprenants.\\ | |
146 | - | |
147 | -\cite{Obeid}&L'ontologie peut être limitée pour évaluer plusieurs cas inconnus ou imprévus. Il est nécessaire d'avoir une forte connaissance du domaine.\\ | |
148 | - | |
149 | -\cite{skittou2024recommender}&Les règles de décision établies sont fixes et avec l'hybridation il peut y avoir de l'incertitude et l'imprécision.\\ | |
150 | - | |
151 | -\end{tabular} | |
152 | -\caption{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC} | |
153 | -\label{tabArts2} | |
154 | -\end{table} | |
155 | - | |
156 | -%\begin{figure} | |
157 | -%\centering | |
158 | -%\includegraphics[scale=0.4]{./Figures/ModCBR2.png} | |
159 | -%\caption{Addition d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (\cite{10.1007/978-3-319-47096-2_11})} | |
160 | -%\label{figMCBR2} | |
161 | -%\end{figure} | |
1 | +\chapter{\'Etat de l'art (Raisonnement à Partir de Cas)} | |
2 | + | |
3 | +Le raisonnement à partir de cas est une approche fondée sur la connaissance. Il s'agit d'une technique d'intelligence artificielle dont l'idée est de résoudre un nouveau problème grâce aux connaissances déjà acquises par le système et en tenant un raisonnement fondé sur l'analogie. Le RàPC est apparu comme une alternative pour améliorer les systèmes experts. Shank et Abelson \cite{schank+abelson77} ont initialement mené des travaux sur l'organisation hiérarchique de la mémoire pour imiter le raisonnement humain. Ceux-ci ont servi de fondement aux travaux de Janet Kolodner \cite{KOLODNER1983281} et ont abouti à l'implémentation d'un système fondé sur ces principes en 1983. Le terme \textit{raisonnement à partir de cas} est utilisé pour la première fois en 1989 par Riesbeck et Shank \cite{Riesbeck1989}. | |
4 | + | |
5 | +Comme cela a été introduit dans le chapitre \ref{chap:contexte}, le raisonnement à partir de cas utilise quatre conteneurs de connaissance pour représenter la connaissance complète du système \cite{RICHTER20093}. Chaque conteneur stocke l'information associée à une fonction spécifique et le processus de construction d'une solution appropriée au problème posé est fondé sur le carré d'analogie : des solutions ayant permis de résoudre un problème sont réutilisées afin de résoudre un nouveau problème similaire. La plupart des systèmes de RàPC fonctionnent suivant un cycle composé de quatre étapes : retrouver, réutiliser, réviser et retenir. | |
6 | + | |
7 | +Les travaux présentés dans ce chapitre ont nourri notre réflexion et ont ouvert des perspectives d'amélioration de performance du système AI-VT. Ce chapitre commence par la présentation de travaux emblématiques intégrant un réseau de neurones au cycle de RàPC. Cette première section est suivie d'une présentation de différents travaux liés à l'explicabilité, toujours en utilisant le RàPC. Des travaux récents sur la représentation des cas et le cycle du RàPC, puis sur l'intégration d'autres algorithmes au cycle du RàPC sont ensuite présentés. Pour finir, la prédiction et la recommandation via le RàPC terminent ce chapitre. | |
8 | + | |
9 | +\section{Intégration d'un réseau de neurones dans le cycle du RàPC} | |
10 | + | |
11 | +Plusieurs travaux combinent le RàPC avec les réseaux de neurones dans l'objectif d'améliorer les réponses générées et optimiser les performances de chaque algorithme. C'est une idée explorée dès 2009 par Jung \textit{et al.} \cite{JUNG20095695}. Les auteurs de cet article ont en effet développé un système fondé sur l'hybridation du RàPC avec des réseaux de neurones pour concevoir des produits. Cette hybridation est implémentée dans les phases "rechercher" et "réutiliser" : le système détermine de façon automatique les valeurs pour les paramètres nécessaires à la conception d'un produit particulier en suivant le cycle traditionnel du RàPC. Avec l'algorithme de k-moyennes, un cas représentatif de la base de cas est extrait et l'adaptation des solutions des voisins trouvées est faite avec le réseau de neurones RBFN (\textit{Radial Basis Function Network}). L'évaluation du système est faite en utilisant une base de données contenant 830 tests, les résultats démontrent que les produits conçus s'ajustent avec un grand pourcentage aux normes définies. | |
12 | + | |
13 | +Dans \cite{10.1007/978-3-642-15973-2_50} un réseau de neurones classique est implémenté pour définir la géométrie d'une matrice pour l'extrusion de l'aluminium. En effet, actuellement c'est un processus qui se fait manuellement et par essai et erreur. Le RàPC est alors utilisé pour aider à déterminer les valeurs optimales des paramètres du réseau, en utilisant l'information des matrices d'extrusion déjà testées. | |
14 | + | |
15 | +Petrovic \textit{et al.} \cite{PETROVIC201617} proposent un système de raisonnement à partir de cas pour calculer la dose optimale de radiation pour le traitement du cancer. Dans ce domaine particulier de la radiothérapie, administrer une dose nécessite de connaître avec précision le nombre de faisceaux et l'angle de chacun d'eux. L'algorithme proposé tente de trouver la combinaison de valeurs optimales pour ces deux paramètres en utilisant les réseaux de neurones. L'utilisation des réseaux de neurones intervient lors de l'adaptation des cas connus : ils modifient le nombre et les angles des faisceaux. La validation de l'algorithme est évaluée avec une base de 80 cas réels de cancer du cerveau extraits de l'hôpital de Nottingham City. Le nombre de neurones et de couches ont été définis de façon empirique. Les résultats montrent que l'utilisation des cas historiques et la construction des solutions à partir des solutions déjà connues permet une amélioration de 12\% concernant la décision du nombre de faisceaux et de 29\% concernant la décision liée à leur angle. | |
16 | + | |
17 | +\section{Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus} | |
18 | + | |
19 | +La génération, l'analyse et la correction de textes constituent également des domaines d'application intéressants du RàPC. Pour la réalisation de ces tâches il est parfois nécessaire de transformer le texte en représentation numérique ou de mesurer la proximité sémantique de mots. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit explore les transformations possibles afin que la nouvelle histoire ne soit pas très similaire aux histoires déjà connues mais qu'elle soit cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de celle-ci déterminent si l'histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit recommencer; l'adaptation se fait en recherchant les personnages, les contextes, les objets dans la base de cas, et en les unifiant avec des actions; la plupart des histoires générées sont cohérentes mais elles sont constituées de paragraphes très courts. | |
20 | + | |
21 | +Dans \cite{10.1007/978-3-030-58342-2_20} les phrases écrites en langue française sont corrigées. Ce travail n'utilise ni la transformation numérique des phrases, ni de connaissances linguistiques, mais retrouve les phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et calcule une mesure de distance avec les phrases correctes et incorrectes de la base de connaissances. Si les phrases similaires sont incorrectes, le système peut proposer une correction en changeant certains mots selon le contexte et recalculer les distances afin de mesurer la cohérence et la pertinence de la phrase proposée. | |
22 | + | |
23 | +Plus récemment Wolf \textit{et al.} \cite{wolf2024keep} ont présenté un système dans lequel le RàPC est employé pour expliquer les résultats générés par un réseau qui classifie les images en fonction de certains attributs et zones dans les images. Les résultats obtenus permettent de conclure que le RàPC permet d'expliquer fidèlement le contenu des images testées. | |
24 | + | |
25 | +\cite{PAREJASLLANOVARCED2024111469} utilisent également le RàPC pour sélectionner la meilleure explication au résultat donné par le classificateur d'images fondé sur l'apprentissage profond (\textit{Deep Learning}). Dans ce système, la base de connaissances est constituée d'images avec des étiquettes décrivant l'information associée. Les résultats obtenus par ce système sont très prometteurs. | |
26 | + | |
27 | +\section{Travaux récents sur la représentation des cas et le cycle du RàPC} | |
28 | + | |
29 | +Certains travaux ont appliqué le raisonnement à partir de cas à un problème spécifique en modifiant les représentations des cas et des solutions. D'autres ont modifié le cycle conceptuel comme le montre la figure \figref{figMCBR2} avec l'objectif d'obtenir des réponses dynamiques et plus aptes à proposer des solutions à des problèmes complexes. | |
30 | + | |
31 | +En effet, la représentation des cas peut permettre d'améliorer les résultats d'un système de RàPC. La performance d'un système de RàPC dépend de la quantité d'informations stockées, mais également des algorithmes implémentés. C'est le cas dans \cite{Muller} où les recettes de cuisine sont codées comme un processus de transformation et mélangent des ingrédients en suivant une suite d'étapes ordonnées. Pour créer des recettes innovantes, une mesure de distance est utilisée entre les ingrédients. Cette mesure permet de trouver une recette en substituant certains ingrédients par d'autres, similaires ou aux qualités et/ou caractéristiques similaires. De la même manière, il est possible de créer des recettes plus proches des exigences des utilisateurs. Les étapes de transformation appelées aussi opérateurs sont stockées et catégorisées grâce à une métrique permettant de les échanger afin d'obtenir une nouvelle recette. | |
32 | + | |
33 | +Les auteurs de \cite{10.1007/978-3-319-47096-2_11} introduisent un cycle complémentaire incluant un outil d'apprentissage profond pour améliorer le résultat du système fondé sur le RàPC. | |
34 | + | |
35 | +Dans \cite{10.1007/978-3-642-15973-2_50}, la phase de stockage est modifiée en retenant les cas dont les résultats n'ont pas eu de succès, pour guider le processus dans la fabrications de nouvelles pièces. | |
36 | + | |
37 | +Enfin, dans \cite{Robertson2014ARO}, les auteurs proposent d'ajouter à chaque cas une valeur d'utilité espérée en fonction de chaque action possible. Cet ajout s'accompagne d'une prédiction probabiliste des actions que l'application engendrera en réponse. Cette prédiction probabiliste dépend bien entendu de l'état initial du système avant la mise en œuvre de l'action. | |
38 | + | |
39 | +\mfigure[!ht]{width=\textwidth}{./Figures/ModCBR2.png}{Ajout d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (Traduit de \cite{10.1007/978-3-319-47096-2_11})}{figMCBR2} | |
40 | + | |
41 | +Plusieurs travaux appliquent le RàPC avec succès en proposant des modifications dans chacune des phases ou en combinant différents algorithmes. Certains systèmes de RàPC appliqués au domaine de la conception de produits sont remarquables à ce titre. | |
42 | + | |
43 | +Dans \cite{ROLDANREYES20151}, les auteurs proposent un algorithme pour produire le propylène glycol dans un réacteur chimique comme le montre la figure \figref{figMCBR1}. Dans ce cas, la phase de réutilisation du RàPC est couplée à la recherche des états satisfaisant le nouveau problème (\textit{Constraint satisfaction problems CSP}) en utilisant l'information des cas de base déjà résolus. Les solutions trouvées sont évaluées selon le nombre de changements réalisés sur les solutions déjà connues (parcimonie), le nombre de solutions possibles trouvées (précision), l'évaluation de commentaires faits par des experts et la complexité des transformations réalisées. | |
44 | + | |
45 | +\mfigure[!ht]{width=\textwidth}{./Figures/ModCBR1.png}{Cycle du RàPC modifié. (Traduit de \cite{ROLDANREYES20151})}{figMCBR1} | |
46 | + | |
47 | +Dans \cite{10.1007/978-3-319-47096-2_11}, les auteurs ajoutent un nouveau cycle au cycle traditionnel du RàPC. Le premier cycle génère des descriptions abstraites du problème avec un réseau de neurones et des algorithmes génétiques; le second cycle prend les descriptions abstraites comme des nouveaux cas, cherche les cas similaires et adapte les solutions rencontrées. L'exécution des deux cycles prend en compte certains critères prédéfinis par l'utilisateur. En comparant le même problème avec le cycle traditionnel du RàPC, les auteurs mesurent une amélioration de la qualité des recettes proposées et montrent que celles-ci sont plus en accord avec les critères définis. | |
48 | + | |
49 | +\cite{10.1007/978-3-319-61030-6_1} s'intéressent quant à eux à la génération de recettes de cuisine originales. Les auteurs modifient le cycle traditionnel du RàPC et créent deux cycles, combinant l'apprentissage profond et la récupération de cas fondée sur la similarité. Le premier cycle génère des descriptions abstraites de la conception avec des algorithmes génétiques et un réseau neuronal profond. Le second cycle utilise les descriptions abstraites pour récupérer et adapter des objets. Cette structure donne lieu à un prototype appelé Q-chef qui génère une recette fondée sur d'autres ingrédients connus du système et les demandes de l'utilisateur. Ce travail ne montre pas de métriques standard génériques mais utilise deux nombres indicatifs (plausibilité et surprise) pour démontrer la génération efficace de nouvelles recettes selon les critères de l'utilisateur en comparant le RàPC à deux cycles avec le RàPC à un cycle, démontrant plus de plausibilité et de surprise dans les recettes générées. | |
50 | + | |
51 | +\section{Intégration d'autres algorithmes dans le cycle du RàPC} | |
52 | + | |
53 | +Par rapport à l'intégration du RàPC avec d'autres algorithmes nous pouvons citer \cite{buildings13030651} qui mettent en œuvre un RáPC avec une méthode d'agrégation \textit{bootstrap} (\textit{bagging}) pour améliorer la précision du RàPC lorsqu'il n'y a pas suffisamment de cas et réduire la variance. L'une des problématiques auxquelles les auteurs tentent de répondre dans cet article est l'estimation des coûts conceptuels dans les décisions de faisabilité d'un projet lorsque l'on ne dispose pas de suffisamment d'informations sur la conception détaillée et les exigences du projet. Les résultats ont révélé que le RàPC associé à \textit{bootstrap} est plus performant que le RàPC non associé à \textit{bootstrap}. | |
54 | + | |
55 | +Un modèle d'ensemble fondé sur le raisonnement à partir de cas est proposé par \cite{YU2023110163}. Celui-ci est appliqué à la prédiction financière et au remplissage des données manquantes. Dans ce système, pour retrouver les plus proches voisins, le modèle utilise trois mesures de distance différentes et une étape de vote pour l'intégration. Le modèle a été testé avec une base de données comportant $11$ caractéristiques (informations) financières provenant de $249$ entreprises. La comparaison est faite avec deux objectifs. Premièrement, le remplissage des données manquantes avec d'autres algorithmes tels que KNN ou \textit{Random Forest}, et deuxièmement, la comparaison de la prédiction avec des algorithmes uniques utilisant une métrique de distance spécifique. Les résultats obtenus montrent que le système est plus performant aussi bien pour le remplissage des données manquantes que pour la prédiction des données financières. | |
56 | + | |
57 | +Une étape très importante dans le RàPC est l'adaptation. Dans \cite{10.1007/978-3-031-63646-2_4} l'objectif est de changer la représentation de la connaissance pour évaluer s'il y a un impact positif dans les solutions générées. Ce changement permet aussi d'établir des règles d'adaptation. Les résultats démontrent que choisir une représentation adéquate et des règles correctes en fonction du problème étudié peut améliorer la qualité des solutions pour résoudre des problèmes complexes. | |
58 | + | |
59 | +\section{Prédiction et interpolation en utilisant le RàPC} | |
60 | + | |
61 | +L'objectif du travail de \cite{10.1007/978-3-030-01081-2_25} est la prédiction du temps de course d'un athlète. L'algorithme KNN est utilisé pour rechercher les cas similaires. Le système interpole un temps final grâce au calcul d'une moyenne pondérée des meilleurs temps des cas similaires retrouvés dans la première étape du RàPC. | |
62 | + | |
63 | +Dans \cite{10.1007/978-3-030-58342-2_8}, les auteurs essaient de prédire le meilleur temps d'un patineur par analogie avec ceux des patineurs ayant des caractéristiques et une histoire de course similaires. Toutefois, calculer une moyenne des temps similaires trouvés ne suffit pas toujours. Certaines caractéristiques liées au contexte, à l'environnement et à la nature de la course (le type de course, le type de piste, la distance à parcourir, etc.), peuvent en effet influencer de manière importante la performance du patineur. L'algorithme a été testé avec une base de données contenant les informations de 21 courses de 500m, 700m, 1000m, 1500m, 3km, 5km and 10km réalisées entre Septembre 2015 et Janvier 2020. | |
64 | + | |
65 | +Un système multi-fonctionnel est décrit dans \cite{10.1007/978-3-030-58342-2_5}. Celui-ci permet d'obtenir une prédiction du temps de course, de suggérer un plan du rythme de la course et il recommande également un plan d'entraînement pour une course donnée. Les trois fonctionnalités sont implémentées en utilisant le RàPC. Les calculs de la similarité sont fondés sur un historique et des caractéristiques physiques des coureurs. Les plans d'entraînement sont génériques et sont proposés sur les 16 semaines précédant le début du marathon ciblé (selon les auteurs, c'est en effet le temps usuel pour une préparation à ce type d'épreuve). Le système a été évalué avec une base de données constituée de caractéristiques de 21000 coureurs des marathons de Dublin, Londres ou New-York pour la période de 2014 à 2017. | |
66 | + | |
67 | +Les auteurs de \cite{YU2024123745} proposent un algorithme en deux étapes pour prédire avec précision et robustesse la détresse financière. Les deux étapes utilisent le RàPC. La première étape consiste à compléter les valeurs manquantes de la base de données considérée. Un cycle de RàPC est ensuite combiné avec un LVQ (\textit{Learning Vector Quantization}) pour interpoler une classification. Les résultats obtenus sont prometteurs. | |
68 | + | |
69 | +Les auteurs de \cite{Sadeghi} présentent un nouvel algorithme pour la prévision de la demande de matériel de secours. Le système décrit dans cet article combine le RàPC avec la méthode du meilleur-pire (\textit{Best-Worst Method}, BWM) et les modèles de Markov cachés (\textit{Hidden Markov Model}, HMM). Le HMM est entrainé avec des données historiques de demande de matériel. Lorsque l'algorithme détecte un accident, le RàPC recherche les cas similaires pour proposer le matériel nécessaire. D'après les résultats, l'indice d'erreur de prévision est inférieur à 10\%, démontrant ainsi la robustesse du système CBR-BWM-HMM proposé. | |
70 | + | |
71 | +\section{Recommandation, EIAH et RàPC} | |
72 | + | |
73 | +Les systèmes de recommandation et le RàPC peuvent aussi être combinés comme dans le système proposé par \cite{8495930}. Cet article montre les bénéfices de l'utilisation du RàPC dans les environnements informatiques pour l'apprentissage humain (EIAH). Le modèle proposé suit le cycle traditionnel du RàPC en combinant les modèles d'apprentissages traditionnels et numériques. Les principales contributions sont la représentation des cas et la recommandation des parcours d'apprentissage personnalisés selon les informations issues des autres apprenants. Une base de cas initiaux a été créée pour mesurer l'efficacité du modèle. Celle-ci stocke la recommandation du parcours de 120 apprenants. Des examens, réalisés avant et après avoir suivi le parcours recommandé par le système, permettent de mesurer l'efficacité de la recommandation proposée. | |
74 | + | |
75 | +Le système décrit dans \cite{Obeid} présente la particularité d'être capable d'analyser des données hétérogènes et multidimensionnelles. Dans ce travail, un parcours de carrière associé aux universités/collèges est recommandé aux élèves du secondaire en fonction de leurs intérêts. Ce travail montre également une taxonomie des techniques algorithmiques généralement utilisées dans les systèmes de recommandation pour les EIAH (figure \figref{figTax}). | |
76 | + | |
77 | +En fonction de certains paramètres comme le type d'école, le nombre d'étudiants admis et non admis, le nombre de classes, les auteurs de \cite{skittou2024recommender} développent un modèle hybride combinant RàPC et raisonnement à partir de règles pour recommander des actions de planification en réponse à des cas éducatifs des écoles primaires. Le modèle a été testé sur des données réelles et a donné de bons résultats avec une grande précision. | |
78 | + | |
79 | +%Le RàPC a également été mis en oeuvre dans différents travaux liés à la génération, l’analyse et la correction de textes écrits. Pour la réalisation de ces tâches, il est parfois nécessaire de transformer le texte en représentation numérique ou d’établir une fonction ou mesure qui va indiquer quels mots ont une proximité sémantique. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit dans ce travail explore les transformations de forme possibles afin que la nouvelle histoire ne soit pas similaire aux histoires déjà connues tout en étant cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de la révision déterminent si l’histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit être recommencé. L'adaptation se fait en cherchant dans la base des cas, les personnages, les contextes, les objets et en \colorbox{pink}{unifiant tout avec des actions ??}. Les résultats montrent que la plupart des histoires générées sont cohérentes mais qu'elles sont constituées de paragraphes très courts. Dans \cite{10.1007/978-3-030-58342-2_20}, les phrases écrites en langue française sont corrigées, ce travail n'utilise ni la transformation numérique \colorbox{yellow}{?} des phrases, ni des connaissances linguistiques. Le système conçu retrouve des phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et en calculant la distance entre toutes les phrases \colorbox{yellow}{lesquelles ?} pour savoir \colorbox{pink}{je ne comprends pas la suite }si elle est bien écrite ou pas. Si la phrase n’est pas bien écrite, le système peut proposer une correction en changeant certains mots selon le contexte et calculer à nouveau les distances mesurant la cohérence et pertinence de la phrase. | |
80 | + | |
81 | +\mfigure[!ht]{width=\textwidth}{./Figures/taxonomieEIAH.png}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite{Obeid})}{figTax} | |
82 | + | |
83 | +%\begin{figure} | |
84 | +%\centering | |
85 | +%\includegraphics[scale=21]{./Figures/taxonomieEIAH.png} | |
86 | +%\caption{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (\cite{Obeid})} | |
87 | +%\label{figTax} | |
88 | +%\end{figure} | |
89 | + | |
90 | +\section{Récapitulatif des limites des travaux présentés dans ce chapitre} | |
91 | + | |
92 | +Le tableau \ref{tabArts2} récapitule les articles analysés dans cet état de l'art du RàPC et rappelle les limitations que nous avons identifiées. Ces limitations sont liées aux données, à la flexibilité, à la généralisation de l'algorithme proposé, à la validité des solutions proposées, l'automatisation du processus et complexité du modèle proposée. | |
93 | + | |
94 | +En complément, deux problèmes très communs des systèmes de recommandation peuvent être ajoutées à ces limitations : | |
95 | +\begin{itemize} | |
96 | + \item le \textit{cold-start} qui se produit au début d'une recommandation lorsqu'il n'y a pas suffisamment de données pour calculer ou inférer une recommandation appropriée \cite{HU2025127130}, et | |
97 | + \item le \textit{gray-sheep} qui se produit lorsqu'un utilisateur présente un comportement très différent de ceux qui sont stockés dans la base de données. Le système ne peut donc pas générer des recommandations en se basant sur l'information disponible \cite{ALABDULRAHMAN2021114061}. | |
98 | +\end{itemize} | |
99 | + | |
100 | +\begin{table} | |
101 | +\footnotesize | |
102 | +\begin{tabular}{p{4.4cm}p{9cm}} | |
103 | +Ref&Limites\\ | |
104 | +\hline | |
105 | + | |
106 | +\cite{JUNG20095695}&Le modèle d'adaptation proposé fonctionne seulement avec des cas très proches. L'apprentissage dans le RàCP se limite à stocker les nouveaux cas.\\ | |
107 | + | |
108 | +\cite{10.1007/978-3-642-15973-2_50}&Le RàPC n'est pas modifié ou amélioré. La révision dans le RàPC n'est pas automatique.\\ | |
109 | + | |
110 | +\cite{PETROVIC201617}&Grande quantité de données pour que l'algorithme fonctionne correctement. Recommandation limitée à un problème très spécifique.\\ | |
111 | + | |
112 | +\cite{wolf2024keep}&Le modèle n'est actuellement appliqué qu'à la classification d'images à un seul label. \\ | |
113 | + | |
114 | +\cite{PAREJASLLANOVARCED2024111469}&La base de données de test a été construite avec des évaluations subjectives. Le modèle ne considère pas les incertitudes.\\ | |
115 | + | |
116 | +\cite{ROLDANREYES20151}&Une seule méthode d'adaptation est utilisée. Le modèle n'exploite pas les cas qui présentent une erreur.\\ | |
117 | + | |
118 | +\cite{10.1007/978-3-319-47096-2_11}&Beaucoup de données sont nécessaires pour entraîner le modèle de 'Deep Learning'. Les solutions générées n'ont pas été validées.\\ | |
119 | + | |
120 | +\cite{10.1007/978-3-319-61030-6_1}&L'évaluation des solutions générées n'est pas automatique. Les solutions sont produites avec un seul point de vue.\\ | |
121 | + | |
122 | +\cite{buildings13030651}&La fonction d'unification des solutions est une moyenne des solutions générées avec la division des données et une seule approche\\ | |
123 | + | |
124 | +\cite{YU2023110163}&Une base de données déséquilibrée peut affecter négativement la performance du modèle proposé\\ | |
125 | + | |
126 | +\cite{Muller}&Une seule approche pour adapter les cas dans le RàPC. La révision dans le RàPC n'est pas automatique.\\ | |
127 | + | |
128 | +\cite{10.1007/978-3-319-24586-7_20}&Les solutions générées peuvent présenter des incohérences. Il n'y a pas une métrique objective pour mesurer la qualité des réponses.\\ | |
129 | + | |
130 | +\cite{10.1007/978-3-030-58342-2_20}&Les résultats ne sont pas très bons. Le modèle n'a pas de connaissances linguistiques.\\ | |
131 | + | |
132 | +\cite{10.1007/978-3-031-63646-2_4}&Les règles d'adaptation définies sont fixes et peuvent être limitées pour certaines situations.\\ | |
133 | + | |
134 | +\cite{10.1007/978-3-030-01081-2_25}&Les prédictions n'ont pas été testées dans le monde réel. Les données sont très spécifiques et peu variées.\\ | |
135 | + | |
136 | +\cite{10.1007/978-3-030-58342-2_8}&Les prédictions sont pour des cas limités. Le modèle est entraîné pour un type d'utilisateur spécifique.\\ | |
137 | + | |
138 | +\cite{10.1007/978-3-030-58342-2_5}&Seulement une technique de sélection de solutions. Les données nécessaires pour le modèle sont complexes.\\ | |
139 | + | |
140 | +\cite{YU2024123745}&Il n'y a pas de révision des cas dans la méthode d'imputation ni dans le modèle de classification fondé sur RàPC. Cela peut accroître le biais d'imputation et introduire des échantillons avec bruit.\\ | |
141 | + | |
142 | +\cite{Sadeghi}&Le temps de calcul peut être très grand en fonction de la quantité de données associées, dû à l'étape d'entraînement du modèle HMM.\\ | |
143 | + | |
144 | +\cite{8495930}&Le modèle a été validé avec peu de données. Les recommandations se basent seulement sur l'information des autres apprenants.\\ | |
145 | + | |
146 | +\cite{Obeid}&L'ontologie peut être limitée pour évaluer plusieurs cas inconnus ou imprévus. Il est nécessaire d'avoir une forte connaissance du domaine.\\ | |
147 | + | |
148 | +\cite{skittou2024recommender}&Les règles de décision établies sont fixes et avec l'hybridation il peut y avoir de l'incertitude et l'imprécision.\\ | |
149 | + | |
150 | +\end{tabular} | |
151 | +\caption{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC} | |
152 | +\label{tabArts2} | |
153 | +\end{table} | |
154 | + | |
155 | +%\begin{figure} | |
156 | +%\centering | |
157 | +%\includegraphics[scale=0.4]{./Figures/ModCBR2.png} | |
158 | +%\caption{Addition d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (\cite{10.1007/978-3-319-47096-2_11})} | |
159 | +%\label{figMCBR2} | |
160 | +%\end{figure} | |
162 | 161 | \ No newline at end of file |
chapters/Conclusions.aux
View file @
4b1afa3
... | ... | @@ -42,7 +42,7 @@ |
42 | 42 | \setcounter{section@level}{1} |
43 | 43 | \setcounter{Item}{0} |
44 | 44 | \setcounter{Hfootnote}{0} |
45 | -\setcounter{bookmark@seq@number}{92} | |
45 | +\setcounter{bookmark@seq@number}{90} | |
46 | 46 | \setcounter{DefaultLines}{2} |
47 | 47 | \setcounter{DefaultDepth}{0} |
48 | 48 | \setcounter{L@lines}{3} |
chapters/EIAH.tex
View file @
4b1afa3
1 | -\chapter{Environnements Informatiques d'Apprentissage Humain} | |
2 | -\chaptermark{CHAPITRE 3. \'ETAT DE L'ART (EIAH)} | |
3 | - | |
4 | -Ce chapitre présente les travaux sur les EIAH en lien avec le travail de cette thèse. Les EIAH référencés dans cet état de l'art sont classés selon le thème principal abordé. | |
5 | - | |
6 | -\section{L'Intelligence Artificielle} | |
7 | - | |
8 | -L'intelligence artificielle a été appliquée avec succès au domaine de l'éducation dans plusieurs écoles de différents pays et pour l'apprentissage de l'informatique, des langues étrangères et des sciences. \cite{ZHANG2021100025} référence un grand nombre de travaux sur la période de 1993-2020. Cet article montre que les besoins et contraintes des EIAH ne sont pas différentes selon l'age, le niveau culturel, ou le niveau éducatif des apprenants. Cet article montre également qu'il est possible d'adapter une stratégie d'apprentissage quelque soit l'apprenant et de maximiser le rendement et l'acquisition des connaissances grâce à différentes techniques d'intelligence artificielle. | |
9 | - | |
10 | -\cite{CHIU2023100118} présente une révision des travaux d'intelligence artificielle appliquée à l'éducation extraits des bases de données bibliographiques ERIC, WOS et Scopus sur la période 2012-2021. Ce travail est focalisé sur les tendances et les outils employés pour aider le processus d'apprentissage. Une classification des contributions de l'IA est faite, fondée sur 92 travaux scientifiques. Les contributions et l'utilité des outils d'IA implémentés dans les EIAH évalués dans cet article sont évaluées sur les quatre domaines suivants : l'apprentissage, l'enseignement, l'évaluation et l'administration. | |
11 | -Pour l'apprentissage, l'IA est généralement utilisée pour attribuer des tâches en fonction des compétences individuelles, fournir des conversations homme-machine, analyser le travail des étudiants pour obtenir des commentaires et accroître l'adaptabilité et l'interactivité dans les environnements numériques. | |
12 | -Pour l'enseignement, des stratégies d'enseignement adaptatives peuvent être appliquées pour améliorer la capacité des enseignants à enseigner et soutenir le développement professionnel des enseignants. | |
13 | -Dans le domaine de l'évaluation, l'IA peut fournir une notation automatique et prédire les performances des élèves. | |
14 | -Enfin, dans le domaine de l'administration, l'IA contribue à améliorer la performance des plateformes de gestion, à soutenir la prise de décision pédagogique et à fournir des services personnalisés. | |
15 | -Cet article met également en lumière les lacunes suivantes de l'IA : | |
16 | -\begin{itemize} | |
17 | - \item Les ressources recommandées par les plateformes d'apprentissage personnalisées sont trop homogènes, | |
18 | - \item les données nécessaires pour les modèles d'IA sont très spécifiques, | |
19 | - \item le lien entre les technologies et l'enseignement n'est pas bien clair. En effet, la plupart des travaux sont conçus pour un domaine ou un objectif très spécifique difficilement généralisable, | |
20 | - \item l'inégalité éducative, car les technologies ne suscitent pas la motivation chez tous les élèves. De plus, l'intelligence artificielle peut parfois engendrer des attitudes négatives et s'avérer difficile à maîtriser et à intégrer efficacement dans les cours. | |
21 | - %\textcolor{red}{revoir cette phrase}. | |
22 | -\end{itemize} | |
23 | - | |
24 | -Les techniques d'IA peuvent aussi aider à prendre des décisions stratégiques visant des objectifs à longue échéance comme le montre le travail de \cite{Robertson2014ARO}. Les jeux de stratégie présentent en effet plusieurs particularités singulières. Ils continent plusieurs règles et des environnements contraints. Ils nécessitent de mettre en œuvre des actions et réactions en temps réel. Ils intègrent des aléas et des informations cachées. Les techniques principales identifiées et implémentées dans ces jeux de stratégie sont l'apprentissage par renforcement, les modèles bayésiens, la recherche d'information dans une structure de type arbre, le raisonnement à partir de cas, les réseaux de neurones et les algorithmes évolutifs. Il est également important de noter que la combinaison de ces techniques permet dans certains cas d'améliorer le comportement global des algorithmes et d'obtenir de meilleures réponses. | |
25 | - | |
26 | -\section{Systèmes de recommandation dans les EIAH} | |
27 | - | |
28 | -Des systèmes de recommandation sont régulièrement intégrés aux EIAH. | |
29 | -Ils permettent en effet de tenir compte des exigences, des besoins, du profil, des compétences, des intérêts et de l'évolution de l'apprenant pour s'adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise de concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types \cite{MUANGPRATHUB2020e05227} : | |
30 | -\begin{itemize} | |
31 | - \item l'adaptation de la présentation qui montre aux apprenants les ressources en concordance avec leurs faiblesses et | |
32 | - \item l'adaptation du parcours qui change la structure du cours en fonction du niveau et style d'apprentissage de chaque apprenant. | |
33 | -\end{itemize} | |
34 | -Ces systèmes montrent des effets positifs pour les apprenants comme le révèle le travail de \cite{HUANG2023104684} qui utilise l'IA pour personnaliser des recommandations de ressources vidéo et ainsi aider et motiver les apprenants. L'évolution des résultats entre les tests préliminaires et ceux réalisés après la finalisation du cours des groupes ayant suivi les cours avec et sans système de recommandation démontre cet effet positif. La figure \ref{figArch} montre l'architecture du système qui utilise l'intelligence artificielle dans différentes étapes du processus avec les données de l'apprenant sous la supervision et contrôle de l'enseignant. | |
35 | - | |
36 | -\begin{figure} | |
37 | -\centering | |
38 | -\includegraphics[width=\textwidth]{./Figures/architecture.png} | |
39 | -\caption{Traduction de l'architecture du système de recommandation proposé dans \cite{HUANG2023104684}} | |
40 | -\label{figArch} | |
41 | -\end{figure} | |
42 | - | |
43 | -Le travail de \cite{pmlr-v108-seznec20a} propose un modèle générique de recommandation qui peut être utilisé dans les systèmes de recommandation de produits ou les systèmes d'apprentissage. Ce modèle est fondé sur l'algorithme par renforcement UCB (\textit{Upper Confidence Bound}) qui permet de trouver une solution approchée à une variante du problème \textit{Bandit manchot} non stationnaire (MAB, présenté dans le chapitre 7 de ce manuscrit), où les récompenses de chaque action diminuent progressivement après chaque utilisation. Pour valider le modèle, une comparaison avec trois autres algorithmes a été menée en considérant une base de données réelle. La performance du système a été démontrée en se fondant sur la moyenne accumulée du regret et la moyenne de la récompense accumulée. | |
44 | - | |
45 | -Aussi, \cite{INGKAVARA2022100086} met en évidence que les technologies et les systèmes de recommandation peuvent s'adapter à différents besoins et aspirations et qu'ils peuvent également favoriser l'apprentissage auto-régulé. Ce type d'apprentissage aide les apprenants à acquérir les compétences pour diminuer les délais de réponse et devenir plus performants. Ce type d'apprentissage permet de définir des objectifs variables dans un environnement structuré, et également d'adapter le temps nécessaire à l'acquisition et la maîtrise de connaissances et de compétences. De plus, avec les systèmes de recommandation est possible d'avoir accès à des ressources et ainsi constituer un excellent outil pour le renforcement des connaissances acquises. | |
46 | - | |
47 | -Dans le travail de \cite{LALITHA2020583}, l'IA est utilisée pour l'apprentissage adaptatif afin de suggérer des ressources d'étude. Le système proposé par ces auteurs intègre un module de personnalisation qui collecte l'information de l'apprenant et ses exigences, un module de classification qui compare l'information avec d'autres profils en utilisant l'algorithme KNN et un module de recommandation chargé d'identifier les ressources communes entre les profils afin d'en extraire des informations complémentaires provenant d'Internet. Ce système inclut également un algorithme \textit{Random Forest} pour améliorer le processus d'apprentissage du nouvel apprenant. Les techniques et les stratégies sont très variées mais l'objectif est de s'adapter aux apprenants et à leurs besoins. Dans \cite{ZHAO2023118535} les données des apprenants sont collectées et classées dans des groupes présentant des caractéristiques similaires. Ensuite, la méthode d'analyse par enveloppement des données (DEA) permet d'identifier les besoins spécifiques de chaque groupe et ainsi proposer un parcours d'apprentissage personnalisé. | |
48 | - | |
49 | -La représentation des données des enseignants, des apprenants et l'environnement sont des aspects particulièrement importants à considérer dans l'implémentation de ces systèmes de recommandation. Ces aspects influencent en effet les performances globales des EIAH dans lesquels ils sont intégrés. La proposition de \cite{SU2022109547} consiste à stocker les données des apprenants dans deux graphes évolutifs qui contiennent les relations entre les questions et les réponses correctes ainsi que les réponses données par les apprenants. Ces informations et relations permettent de construire un graphe global propre à chaque apprenant en donnant une information sur son état cognitif et ainsi de personnaliser son parcours. Dans \cite{MUANGPRATHUB2020e05227} les auteurs définissent dans leur EIAH trois ensembles de concepts : | |
50 | -\begin{itemize} | |
51 | - \item les objets (G), | |
52 | - \item les attributs (M) et | |
53 | - \item les relations entre G et M. | |
54 | -\end{itemize} | |
55 | - | |
56 | -L'originalité de ce travail consiste à analyser ces concepts en suivant l'approche du FCA (\textit{Formal Context Analysis}). Ce type de représentation permet de mettre en relation les ressources d'étude, les questions et les sujets. En conséquence, si un apprenant étudie un sujet $S_1$ et si une règle relie $S_1$ au sujet $S_4$ ou la question $Q_{3,4}$, alors le système peut suggérer l'étude des ressources d'étude associées au sujet $S_4$ ou aux questions associées par les règles. Par ailleurs, cet algorithme se fonde sur une structure du cours prédéfinie pour recommander un parcours exhaustif d'apprentissage. | |
57 | - | |
58 | -\cite{Zhou2021} propose un système de recommandation pour personnaliser des exercices pour l'apprentissage de l'anglais. Le système décrit contient un module principal qui représente les apprenants comme des vecteurs selon le modèle DINA où sont stockés les points des connaissances acquises. Le vecteur de connaissances $K$ est de dimension $n$ ($K=\{k_1, k_2, ..., k_n\}$) où chaque dimension correspond à un point de connaissance. Ainsi, $k_i=1$ signifie que l'apprenant maîtrise le point de connaissance $k_i$. A contrario, $k_i=0$ signifie que l'apprenant doit étudier le point de connaissance $k_i$ car car non acquise. La recommandation des questions proposées par le système se sert par ailleurs d'une librairie de ressources associées à chacune des questions possibles et permettant à l'apprenant de renforcer son apprentissage et d'avancer dans le programme du cours. | |
59 | - | |
60 | -Certains travaux de recommandation et de personnalisation considèrent des variables complémentaires aux notes. C'est le cas de l'EIAH proposé par \cite{EZALDEEN2022100700}, qui lie l'analyse du comportement de l'apprenant à une analyse sémantique de son propre profil. La première étape consiste à collecter les données nécessaires pour créer un profil de l'apprenant. Fort de ce profil complet, des associations sont faites entre l'apprenant et un groupe de catégories d'apprentissages prédéfinies. Les apprentissages sont regroupés selon ses préférences et les données historiques. Puis les concepts associés pour les catégories sont recherchés et permettent ainsi de générer un guide pour obtenir des ressources internet qu'il est possible de recommander. Le système est divisé en quatre niveaux représentés sur la figure \figref{figLevels} où chacun des niveaux est chargé d'une tâche spécifique. Les résultats d'un niveau sont envoyés au niveau suivant jusqu'à proposer des recommandations personnalisées pour l'apprenant. | |
61 | - | |
62 | -\mfigure[!ht]{width=\textwidth}{./Figures/ELearningLevels.png}{Traduction des niveaux du système de recommandation dans \cite{EZALDEEN2022100700}}{figLevels} | |
63 | - | |
64 | -%\begin{figure}[!ht] | |
65 | -%\centering | |
66 | -%\includegraphics[scale=0.5]{./Figures/ELearningLevels.png} | |
67 | -%\caption{Niveaux du système de recommandation dans le travail \cite{EZALDEEN2022100700}} | |
68 | -%\label{figLevels} | |
69 | -%\end{figure} | |
70 | - | |
71 | -Le tableau \ref{tabArts} présente un récapitulatif des articles analysés dans l'état de l'art des EIAH. Les articles apparaissent dans l'ordre de citation dans le chapitre. Les limites décrites correspondent au temps de calcul, quantité de données d'entraînement, complexité de définitions ou des règles et la quantité de variables subjectives. | |
72 | - | |
73 | -Une limitation générale que présentent les algorithmes d'IA dans les EIAH est que ce type d'algorithmes ne permet pas d'oublier l'information avec laquelle ils ont été entraînés. Cette propriété est parfois nécessaire pour les EIAH quand un dysfonctionnement du système se produit, pour la réévaluation d'un apprenant ou la restructuration d'un cours. Par ailleurs, les représentations et algorithmes peuvent changer et évoluer. Aujourd'hui il existe encore beaucoup de potentiel pour développer les capacités de calcul et d'adaptation. | |
74 | - | |
75 | -\begin{table} | |
76 | -\footnotesize | |
77 | -\begin{tabular}{p{4.2cm}p{10cm}} | |
78 | -Référence&Limites\\ | |
79 | -\hline | |
80 | -\cite{ZHANG2021100025}&Niveau global d'application de EIAH. Analyse des effets de l'IA\\ | |
81 | -\cite{CHIU2023100118}&Aspects non cognitifs en IA. Motivation des apprenants\\ | |
82 | -\cite{Robertson2014ARO}&Peu de test. Pas de standard d'évaluation\\ | |
83 | -\cite{HUANG2023104684}&Recommandation en fonction de la motivation seulement. N'est pas général pour tous les apprenants\\ | |
84 | -\cite{pmlr-v108-seznec20a}&Le modèle n'a pas été testé avec données d'étudiants. UCB prend beaucoup de temps pour explorer les alternatives\\ | |
85 | -\cite{INGKAVARA2022100086}&Modèle très complexe. Définition de constantes subjectif et beaucoup de variables.\\ | |
86 | -\cite{LALITHA2020583}&A besoin de beaucoup de données pour entraînement. Ne marche pas dans le cas 'cold-start', n'est pas totalement automatisé\\ | |
87 | -\cite{SU2022109547}&Estimation de la connaissance de façon subjective. Une étape d'entraînement est nécessaire\\ | |
88 | -\cite{MUANGPRATHUB2020e05227}&Structure des règles complexe. Définition de la connaissance de base complexe\\ | |
89 | -\cite{Zhou2021}&Utilisation d'un filtre collaboratif sans stratification. Utilisation d'une seule métrique de distance\\ | |
90 | -\cite{EZALDEEN2022100700}&Il n'y a pas de comparaison avec d'autres modèles différents de CNN. Beaucoup de variables à valeurs subjectives\\ | |
91 | - | |
92 | -\end{tabular} | |
93 | -\caption{Tableau de synthèse des articles analysés dans l'état de l'art des EIAH} | |
94 | -\label{tabArts} | |
95 | -\end{table} | |
1 | +\chapter{Environnements Informatiques d'Apprentissage Humain} | |
2 | +\chaptermark{CHAPITRE 3. \'ETAT DE L'ART (EIAH)} | |
3 | + | |
4 | +Ce chapitre présente les travaux sur les EIAH en lien avec le travail de cette thèse. Les EIAH référencés dans cet état de l'art sont classés selon le thème principal abordé. | |
5 | + | |
6 | +\section{L'Intelligence Artificielle} | |
7 | + | |
8 | +L'intelligence artificielle a été appliquée avec succès au domaine de l'éducation dans plusieurs écoles de différents pays et pour l'apprentissage de l'informatique, des langues étrangères et des sciences. \cite{ZHANG2021100025} référence un grand nombre de travaux sur la période de 1993-2020. Cet article montre que les besoins et contraintes des EIAH ne sont pas différentes selon l'age, le niveau culturel, ou le niveau éducatif des apprenants. Cet article montre également qu'il est possible d'adapter une stratégie d'apprentissage quelque soit l'apprenant et de maximiser le rendement et l'acquisition des connaissances grâce à différentes techniques d'intelligence artificielle. | |
9 | + | |
10 | +\cite{CHIU2023100118} présente une révision des travaux d'intelligence artificielle appliquée à l'éducation extraits des bases de données bibliographiques ERIC, WOS et Scopus sur la période 2012-2021. Ce travail est focalisé sur les tendances et les outils employés pour aider le processus d'apprentissage. Une classification des contributions de l'IA est faite, fondée sur 92 travaux scientifiques. Les contributions et l'utilité des outils d'IA implémentés dans les EIAH évalués dans cet article sont évaluées sur les quatre domaines suivants : l'apprentissage, l'enseignement, l'évaluation et l'administration. | |
11 | +Pour l'apprentissage, l'IA est généralement utilisée pour attribuer des tâches en fonction des compétences individuelles, fournir des conversations homme-machine, analyser le travail des étudiants pour obtenir des commentaires et accroître l'adaptabilité et l'interactivité dans les environnements numériques. | |
12 | +Pour l'enseignement, des stratégies d'enseignement adaptatives peuvent être appliquées pour améliorer la capacité des enseignants à enseigner et soutenir le développement professionnel des enseignants. | |
13 | +Dans le domaine de l'évaluation, l'IA peut fournir une notation automatique et prédire les performances des élèves. | |
14 | +Enfin, dans le domaine de l'administration, l'IA contribue à améliorer la performance des plateformes de gestion, à soutenir la prise de décision pédagogique et à fournir des services personnalisés. | |
15 | +Cet article met également en lumière les lacunes suivantes de l'IA : | |
16 | +\begin{itemize} | |
17 | + \item Les ressources recommandées par les plateformes d'apprentissage personnalisées sont trop homogènes, | |
18 | + \item les données nécessaires pour les modèles d'IA sont très spécifiques, | |
19 | + \item le lien entre les technologies et l'enseignement n'est pas bien clair. En effet, la plupart des travaux sont conçus pour un domaine ou un objectif très spécifique difficilement généralisable, | |
20 | + \item l'inégalité éducative, car les technologies ne suscitent pas la motivation chez tous les élèves. De plus, l'intelligence artificielle peut parfois engendrer des attitudes négatives et s'avérer difficile à maîtriser et à intégrer efficacement dans les cours. | |
21 | + %\textcolor{red}{revoir cette phrase}. | |
22 | +\end{itemize} | |
23 | + | |
24 | +Les techniques d'IA peuvent aussi aider à prendre des décisions stratégiques visant des objectifs à longue échéance comme le montre le travail de \cite{Robertson2014ARO}. Les jeux de stratégie présentent en effet plusieurs particularités singulières. Ils continent plusieurs règles et des environnements contraints. Ils nécessitent de mettre en œuvre des actions et réactions en temps réel. Ils intègrent des aléas et des informations cachées. Les techniques principales identifiées et implémentées dans ces jeux de stratégie sont l'apprentissage par renforcement, les modèles bayésiens, la recherche d'information dans une structure de type arbre, le raisonnement à partir de cas, les réseaux de neurones et les algorithmes évolutifs. Il est également important de noter que la combinaison de ces techniques permet dans certains cas d'améliorer le comportement global des algorithmes et d'obtenir de meilleures réponses. | |
25 | + | |
26 | +\section{Systèmes de recommandation dans les EIAH} | |
27 | + | |
28 | +Des systèmes de recommandation sont régulièrement intégrés aux EIAH. | |
29 | +Ils permettent en effet de tenir compte des exigences, des besoins, du profil, des compétences, des intérêts et de l'évolution de l'apprenant pour s'adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise de concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types \cite{MUANGPRATHUB2020e05227} : | |
30 | +\begin{itemize} | |
31 | + \item l'adaptation de la présentation qui montre aux apprenants les ressources en concordance avec leurs faiblesses et | |
32 | + \item l'adaptation du parcours qui change la structure du cours en fonction du niveau et style d'apprentissage de chaque apprenant. | |
33 | +\end{itemize} | |
34 | +Ces systèmes montrent des effets positifs pour les apprenants comme le révèle le travail de \cite{HUANG2023104684} qui utilise l'IA pour personnaliser des recommandations de ressources vidéo et ainsi aider et motiver les apprenants. L'évolution des résultats entre les tests préliminaires et ceux réalisés après la finalisation du cours des groupes ayant suivi les cours avec et sans système de recommandation démontre cet effet positif. La figure \ref{figArch} montre l'architecture du système qui utilise l'intelligence artificielle dans différentes étapes du processus avec les données de l'apprenant sous la supervision et contrôle de l'enseignant. | |
35 | + | |
36 | +\begin{figure} | |
37 | +\centering | |
38 | +\includegraphics[width=\textwidth]{./Figures/architecture.png} | |
39 | +\caption{Traduction de l'architecture du système de recommandation proposé dans \cite{HUANG2023104684}} | |
40 | +\label{figArch} | |
41 | +\end{figure} | |
42 | + | |
43 | +Le travail de \cite{pmlr-v108-seznec20a} propose un modèle générique de recommandation qui peut être utilisé dans les systèmes de recommandation de produits ou les systèmes d'apprentissage. Ce modèle est fondé sur l'algorithme par renforcement UCB (\textit{Upper Confidence Bound}) qui permet de trouver une solution approchée à une variante du problème \textit{Bandit manchot} non stationnaire (MAB, présenté dans le chapitre \ref{chap:contexte} de ce manuscrit), où les récompenses de chaque action diminuent progressivement après chaque utilisation. Pour valider le modèle, une comparaison avec trois autres algorithmes a été menée en considérant une base de données réelle. La performance du système a été démontrée en se fondant sur la moyenne accumulée du regret et la moyenne de la récompense accumulée. | |
44 | + | |
45 | +Aussi, \cite{INGKAVARA2022100086} met en évidence que les technologies et les systèmes de recommandation peuvent s'adapter à différents besoins et aspirations et qu'ils peuvent également favoriser l'apprentissage auto-régulé. Ce type d'apprentissage aide les apprenants à acquérir les compétences pour diminuer les délais de réponse et devenir plus performants. Ce type d'apprentissage permet de définir des objectifs variables dans un environnement structuré, et également d'adapter le temps nécessaire à l'acquisition et la maîtrise de connaissances et de compétences. De plus, avec les systèmes de recommandation, il est possible d'avoir accès à des ressources et ainsi de construire un excellent outil pour le renforcement des connaissances acquises. | |
46 | + | |
47 | +Dans le travail de \cite{LALITHA2020583}, l'IA est utilisée pour l'apprentissage adaptatif afin de suggérer des ressources d'étude. Le système proposé par ces auteurs intègre un module de personnalisation qui collecte l'information de l'apprenant et ses exigences, un module de classification qui compare l'information avec d'autres profils en utilisant l'algorithme KNN et un module de recommandation chargé d'identifier les ressources communes entre les profils afin d'en extraire des informations complémentaires provenant d'Internet. Ce système inclut également un algorithme \textit{Random Forest} pour améliorer le processus d'apprentissage du nouvel apprenant. Les techniques et les stratégies sont très variées mais l'objectif est de s'adapter aux apprenants et à leurs besoins. Dans \cite{ZHAO2023118535} les données des apprenants sont collectées et classées dans des groupes présentant des caractéristiques similaires. Ensuite, la méthode d'analyse par enveloppement des données (DEA) permet d'identifier les besoins spécifiques de chaque groupe et ainsi proposer un parcours d'apprentissage personnalisé. | |
48 | + | |
49 | +La représentation des données des enseignants, des apprenants et l'environnement sont des aspects particulièrement importants à considérer dans l'implémentation de ces systèmes de recommandation. Ces aspects influencent en effet les performances globales des EIAH dans lesquels ils sont intégrés. La proposition de \cite{SU2022109547} consiste à stocker les données des apprenants dans deux graphes évolutifs qui contiennent les relations entre les questions et les réponses correctes ainsi que les réponses données par les apprenants. Ces informations et relations permettent de construire un graphe global propre à chaque apprenant en donnant une information sur son état cognitif et ainsi de personnaliser son parcours. Dans \cite{MUANGPRATHUB2020e05227} les auteurs définissent dans leur EIAH trois ensembles de concepts : | |
50 | +\begin{itemize} | |
51 | + \item les objets (G), | |
52 | + \item les attributs (M) et | |
53 | + \item les relations entre G et M. | |
54 | +\end{itemize} | |
55 | + | |
56 | +L'originalité de ce travail consiste à analyser ces concepts en suivant l'approche du FCA (\textit{Formal Context Analysis}). Ce type de représentation permet de mettre en relation les ressources d'étude, les questions et les sujets. En conséquence, si un apprenant étudie un sujet $S_1$ et si une règle relie $S_1$ au sujet $S_4$ ou la question $Q_{3,4}$, alors le système peut suggérer l'étude des ressources d'étude associées au sujet $S_4$ ou aux questions associées par les règles. Par ailleurs, cet algorithme se fonde sur une structure du cours prédéfinie pour recommander un parcours exhaustif d'apprentissage. | |
57 | + | |
58 | +\cite{Zhou2021} propose un système de recommandation pour personnaliser des exercices pour l'apprentissage de l'anglais. Le système décrit contient un module principal qui représente les apprenants comme des vecteurs selon le modèle DINA où sont stockés les points des connaissances acquises. Le vecteur de connaissances $K$ est de dimension $n$ ($K=\{k_1, k_2, ..., k_n\}$) où chaque dimension correspond à un point de connaissance. Ainsi, $k_i=1$ signifie que l'apprenant maîtrise le point de connaissance $k_i$. A contrario, $k_i=0$ signifie que l'apprenant doit étudier le point de connaissance $k_i$ car car non acquise. La recommandation des questions proposées par le système se sert par ailleurs d'une librairie de ressources associées à chacune des questions possibles et permettant à l'apprenant de renforcer son apprentissage et d'avancer dans le programme du cours. | |
59 | + | |
60 | +Certains travaux de recommandation et de personnalisation considèrent des variables complémentaires aux notes. C'est le cas de l'EIAH proposé par \cite{EZALDEEN2022100700}, qui lie l'analyse du comportement de l'apprenant à une analyse sémantique de son propre profil. La première étape consiste à collecter les données nécessaires pour créer un profil de l'apprenant. Fort de ce profil complet, des associations sont faites entre l'apprenant et un groupe de catégories d'apprentissages prédéfinies. Les apprentissages sont regroupés selon ses préférences et les données historiques. Puis les concepts associés pour les catégories sont recherchés et permettent ainsi de générer un guide pour obtenir des ressources internet qu'il est possible de recommander. Le système est divisé en quatre niveaux représentés sur la figure \figref{figLevels} où chacun des niveaux est chargé d'une tâche spécifique. Les résultats d'un niveau sont envoyés au niveau suivant jusqu'à proposer des recommandations personnalisées pour l'apprenant. | |
61 | + | |
62 | +\mfigure[!ht]{width=\textwidth}{./Figures/ELearningLevels.png}{Traduction des niveaux du système de recommandation dans \cite{EZALDEEN2022100700}}{figLevels} | |
63 | + | |
64 | +%\begin{figure}[!ht] | |
65 | +%\centering | |
66 | +%\includegraphics[scale=0.5]{./Figures/ELearningLevels.png} | |
67 | +%\caption{Niveaux du système de recommandation dans le travail \cite{EZALDEEN2022100700}} | |
68 | +%\label{figLevels} | |
69 | +%\end{figure} | |
70 | + | |
71 | +Le tableau \ref{tabArts} présente un récapitulatif des articles analysés dans l'état de l'art des EIAH. Les articles apparaissent dans l'ordre de citation dans le chapitre. Les limites décrites correspondent au temps de calcul, quantité de données d'entraînement, complexité de définitions ou des règles et la quantité de variables subjectives. | |
72 | + | |
73 | +Une limitation générale que présentent les algorithmes d'IA dans les EIAH est que ce type d'algorithmes ne permet pas d'oublier l'information avec laquelle ils ont été entraînés. Cette propriété est parfois nécessaire pour les EIAH quand un dysfonctionnement du système se produit, pour la réévaluation d'un apprenant ou la restructuration d'un cours. Par ailleurs, les représentations et algorithmes peuvent changer et évoluer. Aujourd'hui il existe encore beaucoup de potentiel pour développer les capacités de calcul et d'adaptation. | |
74 | + | |
75 | +\begin{table} | |
76 | +\footnotesize | |
77 | +\begin{tabular}{p{4.2cm}p{10cm}} | |
78 | +Référence&Limites\\ | |
79 | +\hline | |
80 | +\cite{ZHANG2021100025}&Niveau global d'application de EIAH. Analyse des effets de l'IA\\ | |
81 | +\cite{CHIU2023100118}&Aspects non cognitifs en IA. Motivation des apprenants\\ | |
82 | +\cite{Robertson2014ARO}&Peu de test. Pas de standard d'évaluation\\ | |
83 | +\cite{HUANG2023104684}&Recommandation en fonction de la motivation seulement. N'est pas général pour tous les apprenants\\ | |
84 | +\cite{pmlr-v108-seznec20a}&Le modèle n'a pas été testé avec données d'étudiants. UCB prend beaucoup de temps pour explorer les alternatives\\ | |
85 | +\cite{INGKAVARA2022100086}&Modèle très complexe. Définition de constantes subjectif et beaucoup de variables.\\ | |
86 | +\cite{LALITHA2020583}&A besoin de beaucoup de données pour entraînement. Ne marche pas dans le cas '\textit{cold-start}', n'est pas totalement automatisé\\ | |
87 | +\cite{SU2022109547}&Estimation de la connaissance de façon subjective. Une étape d'entraînement est nécessaire\\ | |
88 | +\cite{MUANGPRATHUB2020e05227}&Structure des règles complexe. Définition de la connaissance de base complexe\\ | |
89 | +\cite{Zhou2021}&Utilisation d'un filtre collaboratif sans stratification. Utilisation d'une seule métrique de distance\\ | |
90 | +\cite{EZALDEEN2022100700}&Il n'y a pas de comparaison avec d'autres modèles différents de CNN. Beaucoup de variables à valeurs subjectives\\ | |
91 | + | |
92 | +\end{tabular} | |
93 | +\caption{Tableau de synthèse des articles analysés dans l'état de l'art des EIAH} | |
94 | +\label{tabArts} | |
95 | +\end{table} | |
96 | 96 | \ No newline at end of file |
chapters/ESCBR.aux
View file @
4b1afa3
... | ... | @@ -26,6 +26,7 @@ |
26 | 26 | \@writefile{lot}{\contentsline {table}{\numberline {6.1}{\ignorespaces Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)\relax }}{55}{table.caption.24}\protected@file@percent } |
27 | 27 | \newlabel{tabVarPar}{{6.1}{55}{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.24}{}} |
28 | 28 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}\protected@file@percent } |
29 | +\newlabel{Ssec:ReutiliserESCBR}{{6.2.1.2}{55}{Réutiliser}{subsubsection.6.2.1.2}{}} | |
29 | 30 | \@writefile{lof}{\contentsline {figure}{\numberline {6.3}{\ignorespaces \textit {Stacking} pour chercher les plus proches voisins\relax }}{56}{figure.caption.25}\protected@file@percent } |
30 | 31 | \newlabel{figSta1}{{6.3}{56}{\textit {Stacking} pour chercher les plus proches voisins\relax }{figure.caption.25}{}} |
31 | 32 | \@writefile{lof}{\contentsline {figure}{\numberline {6.4}{\ignorespaces Représentation des solutions connues et générées\relax }}{56}{figure.caption.26}\protected@file@percent } |
... | ... | @@ -70,7 +71,7 @@ |
70 | 71 | \newlabel{figNCBR}{{6.9}{64}{Deux cycles du système ESCBR-SMA proposé\relax }{figure.caption.35}{}} |
71 | 72 | \@writefile{lot}{\contentsline {table}{\numberline {6.6}{\ignorespaces Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)\relax }}{65}{table.caption.37}\protected@file@percent } |
72 | 73 | \newlabel{tabVarPar2}{{6.6}{65}{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.37}{}} |
73 | -\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{65}{subsubsection.6.3.1.1}\protected@file@percent } | |
74 | +\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes suivis par ESCBR-SMA}{65}{subsubsection.6.3.1.1}\protected@file@percent } | |
74 | 75 | \@writefile{lof}{\contentsline {figure}{\numberline {6.10}{\ignorespaces Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)\relax }}{66}{figure.caption.36}\protected@file@percent } |
75 | 76 | \newlabel{figFlowCBR}{{6.10}{66}{Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)\relax }{figure.caption.36}{}} |
76 | 77 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}\protected@file@percent } |
... | ... | @@ -92,10 +93,10 @@ |
92 | 93 | \newlabel{AlgsPar}{{6.8}{70}{Paramètres de tous les algorithmes comparés\relax }{table.caption.41}{}} |
93 | 94 | \@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }}{71}{table.caption.42}\protected@file@percent } |
94 | 95 | \newlabel{tabRes1}{{6.9}{71}{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }{table.caption.42}{}} |
95 | -\@writefile{lot}{\contentsline {table}{\numberline {6.10}{\ignorespaces Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression\relax }}{71}{table.caption.43}\protected@file@percent } | |
96 | -\newlabel{tabRes2}{{6.10}{71}{Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression\relax }{table.caption.43}{}} | |
97 | -\@writefile{lof}{\contentsline {figure}{\numberline {6.13}{\ignorespaces Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés\relax }}{71}{figure.caption.44}\protected@file@percent } | |
98 | -\newlabel{figBox}{{6.13}{71}{Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés\relax }{figure.caption.44}{}} | |
96 | +\@writefile{lot}{\contentsline {table}{\numberline {6.10}{\ignorespaces Comparaison des résultats MAE (Median Absolute Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }}{71}{table.caption.43}\protected@file@percent } | |
97 | +\newlabel{tabRes2}{{6.10}{71}{Comparaison des résultats MAE (Median Absolute Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }{table.caption.43}{}} | |
98 | +\@writefile{lof}{\contentsline {figure}{\numberline {6.13}{\ignorespaces Erreurs médianes absolues (MAE - Median Absolute Error) obtenues pour les dix algorithmes testés.\relax }}{71}{figure.caption.44}\protected@file@percent } | |
99 | +\newlabel{figBox}{{6.13}{71}{Erreurs médianes absolues (MAE - Median Absolute Error) obtenues pour les dix algorithmes testés.\relax }{figure.caption.44}{}} | |
99 | 100 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}\protected@file@percent } |
100 | 101 | \@setckpt{./chapters/ESCBR}{ |
101 | 102 | \setcounter{page}{73} |
chapters/ESCBR.tex
View file @
4b1afa3
Diff suppressed. Click to show
1 | -\chapter{Le raisonnement à partir de cas (RàPC) pour la régression} | |
2 | -\chaptermark{RàPC POUR RÉGRESSION} | |
3 | -\label{ChapESCBR} | |
4 | - | |
5 | -\section{Introduction} | |
6 | - | |
7 | -Ce chapitre est divisé en deux parties. La première partie présente un algorithme fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression. | |
8 | -L'algorithme présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{soto6}.\\ | |
9 | - | |
10 | -Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche. | |
11 | - | |
12 | -Le système de raisonnement à partir de cas ne nécessite pas d'entraînement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement satisfaisants. | |
13 | - | |
14 | -La technique d'ensemble permet de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs algorithmes exécutés indépendamment. Certaines de ces méthodes utilisent des algorithmes différents et des ensembles de données différents tandis que d'autres utilisent les mêmes algorithmes avec des paramètres différents. La combinaison des résultats provenant de multiples algorithmes peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette technique d'ensemble en la combinant à des outils d'apprentissage automatique. | |
15 | - | |
16 | -Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des algorithmes linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est une technique d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses algorithmes d'apprentissage automatique pour surmonter les limites des algorithmes individuels. Plusieurs études démontrent que l'association de ces algorithmes permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. | |
17 | - | |
18 | -La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. | |
19 | - | |
20 | -Le raisonnement bayésien clôt ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. | |
21 | - | |
22 | -\section{Apprentissage par empilement et raisonnement à partir de cas} | |
23 | -\sectionmark{Apprentissage par empilement et RàPC} | |
24 | - | |
25 | -Cette section présente la première version de l'algorithme que nous avons conçu pour résoudre des problèmes de régression. Celui-ci est fondé sur le raisonnement à partir de cas et l'empilement. | |
26 | - | |
27 | -\subsection{Algorithme Proposé} | |
28 | - | |
29 | -L'algorithme proposé, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondé sur le paradigme générique du RàPC combiné à plusieurs algorithmes de recherche de voisins et de génération de solutions. Ces algorithmes ont été intégrés selon une variation de l'empilement en deux étapes itératives. Cette intégration donne à l'algorithme la capacité de s'adapter à différents types de problèmes, d'éviter les biais et le surentraînement. Les résultats de l'exécution des niveaux d'empilement stockent dans la mémoire des conteneurs de connaissances du système de RàPC des informations qui aident non seulement à l'apprentissage de l'algorithme au fil des itérations, mais facilitent également la génération de solutions à divers problèmes sur différents ensembles de données sans nécessité d'entraînement préalable. La conception itérative en deux cycles améliore la capacité du système de RàPC à travailler et à s'adapter à des problèmes dynamiques en cours d'exécution, comme le montre la figure \ref{figNCBR1}. | |
30 | - | |
31 | -\begin{figure}[!ht] | |
32 | -\centering | |
33 | -\includegraphics[width=\textwidth]{./Figures/NCBR0.png} | |
34 | -\caption{Les deux cycles proposés pour le RàPC} | |
35 | -\label{figNCBR1} | |
36 | -\end{figure} | |
37 | - | |
38 | -L'étape de récupération utilise les algorithmes de recherche et le jeu de données de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problème cible. Puis l'étape de réutilisation utilise les algorithmes de génération de solutions (conteneur $C2$). L'étape de révision évalue ensuite les solutions générées et permet d'en générer de nouvelles itérativement en fonction des paramètres stockés dans le conteneur $C4$. Vient ensuite l'étape de révision prenant en considération la solution sélectionnée. Faisant suite à cette révision, l'étape de renouvellement met à jour les paramètres et les données du conteneur. Enfin, dans l'étape de capitalisation, la base de cas est mise à jour avec l'intégration du nouveau cas. Les flux d'information de l'algorithme proposé sont présentés sur la figure~\ref{figFlowCBR0}, tandis que le tableau~\ref{tabVarPar} présente l'ensemble des variables et paramètres de l'algorithme proposé. | |
39 | - | |
40 | -\begin{figure}[!ht] | |
41 | -\centering | |
42 | -\includegraphics[scale=0.6]{./Figures/FlowCBR0.png} | |
43 | -\caption{Flux du \textit{Stacking} RàPC} | |
44 | -\label{figFlowCBR0} | |
45 | -\end{figure} | |
46 | - | |
47 | -\begin{table}[!ht] | |
48 | -\centering | |
49 | -\begin{tabular}{cccc} | |
50 | -ID&Type&Description&Domain\\ | |
51 | -\hline | |
52 | -$it$&p&Nombre d'itérations&$\mathbb{N}, it>0$\\ | |
53 | -$np$&p&Nombre de processus&$\mathbb{N}, np>2$\\ | |
54 | -$nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\ | |
55 | -$ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\ | |
56 | -$n$&v&Dimension de l'espace du problème&$\mathbb{N}, n>0$\\ | |
57 | -$m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\ | |
58 | -$z$&v&Taille du jeu de données&$\mathbb{N}, z>0$\\ | |
59 | -$p$&v&Description du problème&$\mathbb{R} ^ n$\\ | |
60 | -$s$&v&Description de la solution&$\mathbb{R} ^ m$\\ | |
61 | -$r_a$&v&Nombre d'algorithmes pour l'étape retrouver&$\mathbb{N}, r_a>2$\\ | |
62 | -$r_b$&v&Nombre d'algorithmes pour l'étape de réutilisation&$\mathbb{N}, r_b>2$\\ | |
63 | -$at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\ | |
64 | -$nl_i$&v&Nombre de voisins locaux pour l'algorithme $i$&$\mathbb{N}, nl_i \le nl$\\ | |
65 | -$g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\ | |
66 | -$v$&v&Évaluation de la meilleure solution globale&$\mathbb{R}$\\ | |
67 | -$d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\ | |
68 | -$MP(x_1^z,x_2,a)$&f&Fonction pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\ | |
69 | -$MS(x_1^m)$&f&Fonction pour réutiliser avec $x_1$ &$\mathbb{R}^m$\\ | |
70 | -$f_s(p^n,s^m)$&f&Évaluation des solutions&$\mathbb{R}$\\ | |
71 | -\end{tabular} | |
72 | -\caption{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)} | |
73 | -\label{tabVarPar} | |
74 | -\end{table} | |
75 | - | |
76 | -\subsubsection{Rechercher} | |
77 | -La première étape de l'algorithme consiste à trouver les cas les plus similaires à un nouveau cas (appelé \textit{cas cible}). Pour ce faire, l'empilement de différents processus présenté sur la figure \ref{figSta1} est utilisé. Au niveau-0, chaque processus sélectionne et exécute un algorithme de recherche de voisins différents choisi parmi $r_a$ algorithmes dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi aléatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les résultats sont unifiés en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont été mis en œuvre pour l'étape de récupération : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation. | |
78 | - | |
79 | -\begin{figure} | |
80 | -\centering | |
81 | -\includegraphics[width=\textwidth]{./Figures/Stacking1.png} | |
82 | -\caption{\textit{Stacking} pour chercher les plus proches voisins} | |
83 | -\label{figSta1} | |
84 | -\end{figure} | |
85 | - | |
86 | -Formellement, le premier empilement proposé fonctionne avec deux paramètres : %\textcolor{red}{quels sont les 2 paramètres?} | |
87 | -un jeu de données de $z$ cas où un cas est composé de la description du problème et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de générer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exécuté, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est généré. Au niveau-1, un ensemble global est créé à l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le résultat du premier empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches. | |
88 | - | |
89 | -\subsubsection{Réutiliser} | |
90 | - | |
91 | -Une fois la liste globale des cas similaires établie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisées pour générer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations représentés sur la figure \ref{figAuto}. La génération est effectuée avec un deuxième empilement de différents processus. Cet empilement est représenté sur la figure \ref{figSta2}. Au niveau-0, chaque processus sélectionne et exécute un algorithme de génération différent à partir des algorithmes $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions générées sont stockées dans une mémoire globale. Toutes les solutions connues et générées sont représentées avec la même structure comme le montre la figure \ref{figSolRep}. | |
92 | - | |
93 | -\begin{figure}[!ht] | |
94 | - \centering | |
95 | - \includegraphics[scale=1]{./Figures/SolRep.png} | |
96 | - \caption{Représentation des solutions connues et générées} | |
97 | - \label{figSolRep} | |
98 | -\end{figure} | |
99 | - | |
100 | -Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération. | |
101 | - | |
102 | -\begin{figure}[!ht] | |
103 | -\centering | |
104 | -\includegraphics[width=\textwidth]{./Figures/AutomaticS.png} | |
105 | -\caption{Génération et vérification automatique des solutions} | |
106 | -\label{figAuto} | |
107 | -\end{figure} | |
108 | - | |
109 | -La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}. | |
110 | -Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. | |
111 | - | |
112 | -\begin{equation} | |
113 | - \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) | |
114 | - \label{gen00} | |
115 | -\end{equation} | |
116 | - | |
117 | -\begin{equation} | |
118 | - s^m_{j,w}=\sum_{i=0}^{nl-1} \alpha_j s_{i,j} | |
119 | - \label{gen01} | |
120 | -\end{equation} | |
121 | - | |
122 | -La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}. | |
123 | - | |
124 | -\begin{equation} | |
125 | - s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl-1} s_{i,j} | |
126 | - \label{gen2} | |
127 | -\end{equation} | |
128 | - | |
129 | -La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$. | |
130 | - | |
131 | -\begin{equation} | |
132 | - s_{j,w}^m= | |
133 | - \begin{cases} | |
134 | - x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\ | |
135 | - \frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\ | |
136 | - \end{cases} | |
137 | - \label{eqgen3} | |
138 | -\end{equation} | |
139 | - | |
140 | -La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité. | |
141 | - | |
142 | -\begin{equation} | |
143 | -s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right) | |
144 | -\label{eqgen4} | |
145 | -\end{equation} | |
146 | - | |
147 | -"Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}. | |
148 | - | |
149 | -\begin{equation} | |
150 | -s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) | |
151 | -\label{eqgen5} | |
152 | -\end{equation} | |
153 | - | |
154 | -Le vote permet de copier l'information la plus fréquente de toutes (équation \ref{eqgen6}). | |
155 | - | |
156 | -\begin{equation} | |
157 | -s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl | |
158 | -\label{eqgen6} | |
159 | -\end{equation} | |
160 | - | |
161 | -L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}. | |
162 | - | |
163 | -\begin{equation} | |
164 | - s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl | |
165 | - \label{eqgen7} | |
166 | -\end{equation} | |
167 | - | |
168 | -L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition. | |
169 | - | |
170 | -La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. | |
171 | - | |
172 | -L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. | |
173 | - | |
174 | -La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $k$ (équation \ref{eqma1}) et a sa valeur est ajouté à une valeur $X_1$. La valeur de $X_1$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$ (équation \ref{eqma2}). | |
175 | - | |
176 | -\begin{equation} | |
177 | -k \sim \left(\frac{1}{nl}\right) | |
178 | -\label{eqma1} | |
179 | -\end{equation} | |
180 | - | |
181 | -\begin{equation} | |
182 | - s_{w,j}^m=\begin{cases} | |
183 | - s_{j,k}^m+X_1& si \; (X_2)\%2=0\\ | |
184 | - s_{j,k}^m-X_1&sinon | |
185 | - \end{cases};X_1 \sim \mathcal{N}(0,1), X_2 \sim \mathcal{U}_{int}(0,10) | |
186 | - \label{eqma2} | |
187 | -\end{equation} | |
188 | - | |
189 | -\begin{figure} | |
190 | -\centering | |
191 | -\includegraphics[width=\textwidth]{./Figures/Stacking2.png} | |
192 | -\caption{\textit{Stacking} pour la génération de solutions} | |
193 | -\label{figSta2} | |
194 | -\end{figure} | |
195 | - | |
196 | -La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième empilement. Chaque algorithme décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution. | |
197 | - | |
198 | -\subsubsection{Révision} | |
199 | - | |
200 | -Dans cette phase, le problème de l'évaluation automatique d'une solution candidate est transformé en un problème d'optimisation, où la fonction objectif est \ref{eqOpt}. Ce problème revient à calculer la moyenne géométrique ou encore à résoudre le problème de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, résoudre ce problème revient à calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problème en deux dimensions. Sur cette figure, le point rouge représente une solution possible minimisant la somme des distances entre ce point et tous les autres points définis dans l'espace. | |
201 | - | |
202 | -La fonction objectif (équations \ref{eqOpt0} et \ref{eqOpt}) établit un rapport entre la distance de la solution générée $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur aléatoire de \textit{drift} d'une part, et la distance entre le problème cible $p^n_w$ et les $x$ problèmes connus $p^n_x$ d'autre part. Ici, la difficulté à trouver le point optimal réside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dépend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problème et solution) pour valider et générer l'ensemble de solutions proposées.\\ | |
203 | - | |
204 | -\begin{equation} | |
205 | -\lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+X)))}{d(p_w^n,p_x^n)^2} \right); \; X \sim \mathcal{N}(0,d(p_w^n, p_x^n) | |
206 | -\label{eqOpt0} | |
207 | -\end{equation} | |
208 | - | |
209 | -\begin{equation} | |
210 | -min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right) | |
211 | -\label{eqOpt} | |
212 | -\end{equation} | |
213 | - | |
214 | -\begin{figure}[!ht] | |
215 | - \centering | |
216 | - \includegraphics[width=\textwidth]{Figures/FW.png} | |
217 | - \caption{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda_1,..,\lambda_7$) et point rouge solution au problème)} | |
218 | - \label{fig:FW} | |
219 | -\end{figure} | |
220 | - | |
221 | -Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée. | |
222 | - | |
223 | -\subsubsection{Mémorisation} | |
224 | - | |
225 | -L'étape de mémorisation consiste simplement à prendre la meilleure solution proposée et à déterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrée dans la base de connaissances. | |
226 | - | |
227 | -\subsection{Résultats} | |
228 | - | |
229 | -Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | |
230 | - | |
231 | -\begin{table}[!ht] | |
232 | -\tiny | |
233 | -\centering | |
234 | -\begin{tabular}{llccccc} | |
235 | -ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\ | |
236 | -\hline | |
237 | -DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
238 | -DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
239 | -DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
240 | -DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
241 | -DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
242 | -DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
243 | -DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
244 | -DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
245 | -DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\ | |
246 | -DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\ | |
247 | -\end{tabular} | |
248 | -\caption{Description des jeux de données évalués} | |
249 | -\label{tabBases2} | |
250 | -\end{table} | |
251 | - | |
252 | -L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs. | |
253 | - | |
254 | -\begin{table}[!ht] | |
255 | -\centering | |
256 | -\footnotesize | |
257 | -\begin{tabular}{ll|ll} | |
258 | -ID&Algorithme&ID&Algorithme\\ | |
259 | -\hline | |
260 | -A1&Linear Regression&A6&Polinomial Regression\\ | |
261 | -A2&K-Nearest Neighbor&A7&Ridge Regression\\ | |
262 | -A3&Decision Tree&A8&Lasso Regression\\ | |
263 | -A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | |
264 | -A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\ | |
265 | -\end{tabular} | |
266 | -\caption{Liste des algorithmes évalués} | |
267 | -\label{tabAlgs2} | |
268 | -\end{table} | |
269 | - | |
270 | -Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données. | |
271 | - | |
272 | -\begin{table}[!ht] | |
273 | -\footnotesize | |
274 | -\centering | |
275 | -\begin{tabular}{c|ccccccccccc} | |
276 | -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
277 | -\hline | |
278 | -DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\ | |
279 | -DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\ | |
280 | -DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\ | |
281 | -DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\ | |
282 | -DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\ | |
283 | -DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\ | |
284 | -DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\ | |
285 | -DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\ | |
286 | -DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\ | |
287 | -DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\ | |
288 | -\hline | |
289 | -Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\ | |
290 | -\end{tabular} | |
291 | -\caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | |
292 | -\label{tabRes1_2} | |
293 | -\end{table} | |
294 | - | |
295 | -\begin{table}[!ht] | |
296 | -\footnotesize | |
297 | -\centering | |
298 | -\begin{tabular}{c|ccccccccccc} | |
299 | -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
300 | -\hline | |
301 | -DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\ | |
302 | -DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\ | |
303 | -DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\ | |
304 | -DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\ | |
305 | -DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\ | |
306 | -DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\ | |
307 | -DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\ | |
308 | -DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\ | |
309 | -DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\ | |
310 | -DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\ | |
311 | -\hline | |
312 | -Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\ | |
313 | -\end{tabular} | |
314 | -\caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | |
315 | -\label{tabRes2_2} | |
316 | -\end{table} | |
317 | - | |
318 | -La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés. | |
319 | - | |
320 | -\begin{figure} | |
321 | -\includegraphics[width=\textwidth]{./Figures/boxplot.png} | |
322 | -\caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives} | |
323 | -\label{figBox2} | |
324 | -\end{figure} | |
325 | - | |
326 | -\subsection{Discussion} | |
327 | - | |
328 | -De par ses performances, ESCBR se révèle compétitif par rapport à certains des neuf autres algorithmes testés pour la prédiction dans les problèmes de régression. En particulier, dans ce travail, nous avons effectué les tests sur dix jeux de données aux caractéristiques variées, telles que le nombre d'instances, le nombre de caractéristiques, le domaine des variables d'entrée, les dimensions de la variable de sortie et le domaine d'application. Cela démontre la polyvalence de l'algorithme proposé et son applicabilité à différentes configurations. Étant donné la nature exploratoire et stochastique d'ESCBR, il présente une grande diversité de solutions générant plusieurs valeurs aberrantes. Malgré cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois élevées, mais celles de la médiane restent faibles, la médiane atténuant les disparités. | |
329 | - | |
330 | -On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire). | |
331 | - | |
332 | -Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place. | |
333 | - | |
334 | -Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique. | |
335 | - | |
336 | -De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certains problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables. | |
337 | - | |
338 | -\subsection{Conclusion} | |
339 | - | |
340 | -Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et une technique d'empilement que nous avons baptisé ESCBR. Cet algorithme ne nécessite pas d'entraînement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\ | |
341 | - | |
342 | -\section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR} | |
343 | - | |
344 | -La méthode ESCBR que nous avons proposée dans la section précédente est fondée sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposées par des processus intelligents et concurrents pour en générer une, nous nous sommes tout naturellement tournés vers la possibilité d'inclure des agents dans le processus de décision. L'une des ambitions des systèmes multi-agents consiste en effet à faire émerger une intelligence collective capable de fournir une solution. Cette section présente donc l'évolution d'ESCBR en ESCBR-SMA. | |
345 | - | |
346 | -\subsection{Algorithme Proposé} | |
347 | - | |
348 | -L'algorithme ESCBR-SMA est fondé sur le paradigme du RàPC et incorpore divers algorithmes de recherche de voisins et de génération de solutions. Ceux-ci sont intégrés à l'aide d'une variante de la technique d'empilement en deux étapes itératives, exécutées par des agents qui exploitent indépendamment les algorithmes définis dans les conteneurs de connaissances de la révision et de la réutilisation du cycle classique du RàPC. Les agents possèdent une mémoire locale qui leur permet d'ajuster et de développer leur recherche de voisins, en générant des solutions à chaque itération. Chaque agent a un comportement individuel autorisant l'échange d'informations avec les autres agents. La figure \ref{figNCBR} décrit le processus de décision et les comportements des agents au sein du système élargi. | |
349 | - | |
350 | -\begin{figure}[!ht] | |
351 | -\centering | |
352 | -\includegraphics[width=\textwidth]{Figures/NCBR.png} | |
353 | -\caption{Deux cycles du système ESCBR-SMA proposé} | |
354 | -\label{figNCBR} | |
355 | -\end{figure} | |
356 | - | |
357 | -Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problème au cours de la première étape puis, au cours de la seconde, génère une solution en se référant à la liste des solutions obtenues au cours de la première étape. À chaque itération, les agents peuvent choisir parmi trois comportements programmés : la recherche de problèmes voisins, la génération de solutions ou l'échange d'informations avec un autre agent. L'exécution de ces trois comportements programmés est asynchrone. En revanche, la création et la sélection de la liste des voisins se font de manière synchronisée. | |
358 | - | |
359 | -Les étapes d'extraction, de réutilisation, de révision et de conservation restent conformes au RàPC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles étapes : | |
360 | -\begin{itemize} | |
361 | - \item durant la phase de reconfiguration, les agents mettent à jour les valeurs de leurs paramètres locaux afin d'améliorer la qualité de la solution proposée lors de l'itération suivante, | |
362 | - \item durant la phase d'échange, les agents échangent des informations pour améliorer leurs processus internes de recherche et de génération, | |
363 | - \item enfin, l'étape de révision met à jour les valeurs des paramètres globaux de l'algorithme. | |
364 | -\end{itemize} | |
365 | - | |
366 | -Le flux complet de l'algorithme proposé est décrit sur la figure \ref{figFlowCBR}. | |
367 | - | |
368 | -En premier lieu, ESCBR-SMA crée $n$ agents. Lors de l'initialisation, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, et initialisent également les vecteurs bayésiens correspondants. Tous les agents travaillent avec le même ensemble de données. | |
369 | - | |
370 | -Les agents exécutent en parallèle l'algorithme de récupération sélectionné, à partir des problèmes similaires trouvés ; chaque agent extrait les solutions et exécute l'algorithme spécifique de génération d'une nouvelle solution. | |
371 | -Toutes les solutions proposées par les agents sont évaluées à l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvée à ce stade. | |
372 | - | |
373 | -Au cours de l'étape suivante, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, puis ils mettent à jour les vecteurs bayésiens en fonction des résultats obtenus avec la fonction objectif. | |
374 | - | |
375 | -Lors de l'itération suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de récupération et de réutilisation, ne changer que l'algorithme de réutilisation ou échanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit aléatoirement une action pour tenter d'améliorer la solution candidate. | |
376 | - | |
377 | -ESCBR-SMA utilise l'ensemble des variables et paramètres du tableau \ref{tabVarPar} ainsi que ceux consignés dans le tableau \ref{tabVarPar2}. Le système multi-agents est composé d'un nombre variable d'agents, tous homogènes mais dotés de processus cognitifs internes indépendants et stochastiques. | |
378 | - | |
379 | -\begin{figure}[!ht] | |
380 | -\centering | |
381 | -\includegraphics[scale=0.6]{Figures/FlowCBR.png} | |
382 | -\caption{Flux du \textit{Stacking} du RàPC (* : tâche effectuée par chaque agent)} | |
383 | -\label{figFlowCBR} | |
384 | -\end{figure} | |
385 | - | |
386 | -\begin{table}[!ht] | |
387 | -\footnotesize | |
388 | -\centering | |
389 | -\begin{tabular}{cccc} | |
390 | -ID&Type&Description&Domain\\ | |
391 | -\hline | |
392 | -$p_w$&v&Description du nouveau problème&$\mathbb{R} ^ n$\\ | |
393 | -$s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\ | |
394 | -$n_{rt}$&v&Nombre d'algorithmes pour l'étape de retrouver&$\mathbb{Z}$\\ | |
395 | -$n_{rs}$&v&Nombre d'algorithmes de réutilisation&$\mathbb{Z}$\\ | |
396 | -$rn(x,y)$&f& | |
397 | - | |
398 | -\begin{tabular}{@{}c@{}}Valeur aléatoire avec distribution normale\\ $x$ moyenne, $y$ écart-type | |
399 | -\end{tabular} | |
400 | - | |
401 | -&$\mathbb{R}_+$\\ | |
402 | -$rnp(x,y)$&f& | |
403 | - | |
404 | -\begin{tabular}{@{}c@{}}Valeur aléatoire discrète, $x$ nombre d'options \\ $y$ vecteur discret de probabilités | |
405 | -\end{tabular} | |
406 | -&$\mathbb{Z}$\\ | |
407 | -\end{tabular} | |
408 | -\caption{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)} | |
409 | -\label{tabVarPar2} | |
410 | -\end{table} | |
411 | - | |
412 | -\subsubsection{Algorithmes} | |
413 | - | |
414 | -Cette section présente de manière plus détaillée les comportements des agents d'ESCBR-SMA. | |
415 | - | |
416 | -Lors de la première étape de l'empilement, chaque agent peut sélectionner l'un des algorithmes suivants pour rechercher des problèmes similaires au problème cible : KNN (\textit{K-Nearest Neighbor}), \textit{KMeans}, GMM (\textit{Gaussian Mixture Model}), \textit{FuzzyC} et KNN pondéré. | |
417 | - | |
418 | -Lors de la deuxième étape de l'empilement, les agents peuvent choisir un algorithme parmi les algorithmes explicités dans la section 6.2.1.2. | |
419 | - | |
420 | -\subsubsection{Structure des agents} | |
421 | - | |
422 | -Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'adopter un comportement indépendant et différent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nécessaires à l'exécution de l'ensemble du processus. | |
423 | - | |
424 | -Chaque agent peut exécuter trois actions différentes : | |
425 | -\begin{itemize} | |
426 | - \item « Récupérer et réutiliser », | |
427 | - \item « Réutiliser » et | |
428 | - \item « Échanger ». | |
429 | -\end{itemize} | |
430 | - | |
431 | -Chaque agent accède aux valeurs de huit variables qui lui sont propres : | |
432 | -\begin{itemize} | |
433 | - \item le nombre de voisins définissant le nombre de problèmes similaires au nouveau problème posé que l'agent doit rechercher dans la base de connaissances, | |
434 | - \item la liste des voisins les plus proches consigne les agents avec lesquels des informations peuvent être échangées, | |
435 | - \item l'identifiant de l'algorithme de récupération que l'agent exécutera pour trouver les problèmes similaires au problème cible, | |
436 | - \item l'identifiant de l'algorithme de réutilisation que l'agent exécutera pour générer une solution candidate au cas cible, | |
437 | - \item la description de la solution générée, | |
438 | - \item l'évaluation de la solution renseignant sur la qualité de la solution générée et calculée selon une fonction d'optimisation (équations \ref{eqOpt1} et \ref{eqOpt2}), | |
439 | - \item le vecteur bayésien nécessaire aux algorithmes de récupération contenant les valeurs de probabilité, et | |
440 | - \item le vecteur bayésien nécessaire aux algorithmes de réutilisation contenant les valeurs de probabilité. | |
441 | -\end{itemize} | |
442 | - | |
443 | -\begin{equation} | |
444 | -min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right) | |
445 | -\label{eqOpt1} | |
446 | -\end{equation} | |
447 | - | |
448 | -\begin{equation} | |
449 | -s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n)) | |
450 | -\label{eqOpt2} | |
451 | -\end{equation} | |
452 | - | |
453 | -\begin{figure}[!ht] | |
454 | -\centering | |
455 | -\includegraphics[scale=0.7]{Figures/agent.png} | |
456 | -\caption{Structure interne des agents} | |
457 | -\label{figAgent} | |
458 | -\end{figure} | |
459 | - | |
460 | -\subsubsection{Apprentissage des agents} | |
461 | - | |
462 | -Tous les agents considèrent un vecteur bayésien de probabilité pour la phase de récupération (conteneur $C3$ de la figure \ref{figNCBR}) et un vecteur bayésien de probabilité pour la phase de réutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurés avec une probabilité uniforme pour tous les algorithmes de récupération et de réutilisation (probabilité \textit{a priori}). À chaque itération, les vecteurs sont mis à jour selon l'équation bayésienne \ref{eqBay} en utilisant les meilleurs résultats du même agent comme paramètre de vraisemblance. L'agent apprend ainsi de son expérience et sélectionne les algorithmes les plus aptes à fournir les meilleures réponses au regard de l'objectif défini. | |
463 | - | |
464 | -Par conséquent, d'un point de vue plus global au niveau du SMA, l'apprentissage est fondé sur un raisonnement bayésien où les vecteurs de récupération et de réutilisation évoluent. Un exemple d'évolution est présenté sur la figure \ref{fig:bayev}. Au cours d'une itération, si un algorithme a contribué à la construction de la meilleure solution, il reçoit un point pour chaque agent qui l'a utilisé. Ces informations sont stockées dans un vecteur normalisé qui est ensuite utilisé comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilités dans l'équation bayésienne \ref{eqBay} (dans cette équation, $P(B)$ est le terme de normalisation global). | |
465 | - | |
466 | -\begin{figure} | |
467 | - \centering | |
468 | - \includegraphics[scale=0.5]{Figures/BayesianEvolution.png} | |
469 | - \caption{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser} | |
470 | - \label{fig:bayev} | |
471 | -\end{figure} | |
472 | - | |
473 | -\begin{equation} | |
474 | - P(A|B)=\frac{P(B|A)P(A)}{P(B)} | |
475 | - \label{eqBay} | |
476 | -\end{equation} | |
477 | - | |
478 | -La fonction $rnp$ de l'équation \ref{eqRta} choisit l'algorithme de recherche $a_{rt}$ de l'étape $rt$. | |
479 | -Cette fonction prend en paramètres l'ensemble des algorithmes possibles $n_{rt}$ et une probabilité associée $P(A|B)_{rt}$. $P(A|B)_{rt}$ représente la probabilité que l'algorithme de recherche associé fournisse la solution optimale à l'étape $rt$. | |
480 | - | |
481 | -\begin{equation} | |
482 | - a_{rt}=rnp(n_{rt},P(A|B)_{rt}) | |
483 | - \label{eqRta} | |
484 | -\end{equation} | |
485 | - | |
486 | -La fonction $rnp$ est de nouveau utilisée pour choisir l'algorithme de réutilisation $a_{rs}$ (équation \ref{eqRsa}). | |
487 | - | |
488 | -\begin{equation} | |
489 | - a_{rs}=rnp(n_{rs},P(A|B)_{rs}) | |
490 | - \label{eqRsa} | |
491 | -\end{equation} | |
492 | - | |
493 | -Le processus d'apprentissage est réalisé individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents échangent les informations qu'ils ont calculées, les optimisations locales qu'ils ont réalisées, ainsi que les algorithmes et les paramètres qu'ils ont utilisés. | |
494 | - | |
495 | -\subsubsection{Échanges entre les agents} | |
496 | - | |
497 | -Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itération en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramètres menant aux meilleurs résultats et d'effectuer des actions rétrospectivement. Les informations modifiables sont choisies aléatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de récupération, de l'algorithme de réutilisation ou même des vecteurs bayésiens. | |
498 | - | |
499 | -\subsection{Résultats} | |
500 | - | |
501 | -Des expérimentations sur onze jeux de données relatifs à des problèmes de régression et présentant des caractéristiques différentes ont été réalisées. Les jeux de données et leurs caractéristiques sont consignés dans le tableau \ref{tabBases}. Les valeurs des paramètres d'ESCBR-SMA sont les suivantes : $it=100$ itérations, $np=50$ agents, $nl=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-0} et $ng=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-1}. | |
502 | - | |
503 | -Le tableau \ref{AlgsPar} présente les valeurs des paramètres de tous les autres algorithmes. | |
504 | - | |
505 | -\begin{table}[!ht] | |
506 | -\scriptsize | |
507 | -\centering | |
508 | -\begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}} | |
509 | -ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\ | |
510 | -\hline | |
511 | -DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
512 | -DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
513 | -DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
514 | -DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
515 | -DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
516 | -DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
517 | -DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
518 | -DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
519 | -DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
520 | -DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
521 | -DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\ | |
522 | -\end{tabular} | |
523 | -\caption{Description des jeux de données évalués.} | |
524 | -\label{tabBases} | |
525 | -\end{table} | |
526 | - | |
527 | -\begin{table}[!ht] | |
528 | -\centering | |
529 | -\begin{tabular}{ccc|ccc} | |
530 | -ID&Parameter&Value&ID&Parameter&Value\\ | |
531 | -\hline | |
532 | -A1&Intercept&True&A6&Degree&4\\ | |
533 | -&Positive&True&&Bias&True\\ | |
534 | -\hline | |
535 | -A2&Neighbors&5&A7&Fit Intercept&True\\ | |
536 | -&Weights&Uniform&&alpha&0.2\\ | |
537 | -&Metric&Minkowsky&&tol&1e-4\\ | |
538 | -&Power Minkowsky&2\\ | |
539 | -\hline | |
540 | -A3&Error&Squared Error&A8&Fit Intercept&True\\ | |
541 | -&Min samples split&2&&alpha&[0.00001, 0.4]\\ | |
542 | -&&&&Max iter&1000\\ | |
543 | -&&&&tol&1e-4\\ | |
544 | -\hline | |
545 | -A4&Estimators&10&A9&Error&Squarred Error\\ | |
546 | -&Error&Squared Error&&Learning Rate&0.1\\ | |
547 | -&Min samples split&2&&Estimators&100\\ | |
548 | -&Bootstrap&True&&Min Split&2\\ | |
549 | -\hline | |
550 | -A5&Hidden Layers&100\\ | |
551 | -&Activation&Relu\\ | |
552 | -&Solver&Adam\\ | |
553 | -&alpha&0.0001\\ | |
554 | -&Learning Rate&0.001\\ | |
555 | -&Max Iter&200\\ | |
556 | -&beta1&0.9\\ | |
557 | -&beta2&0.999\\ | |
558 | -&epsilon&1e-8\\ | |
559 | -\end{tabular} | |
560 | -\caption{Paramètres de tous les algorithmes comparés} | |
561 | -\label{AlgsPar} | |
562 | -\end{table} | |
563 | - | |
564 | -\begin{table}[!ht] | |
565 | -\scriptsize | |
566 | -\centering | |
567 | -\begin{tabular}{c|ccccccccccc} | |
568 | -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\ | |
569 | -\hline | |
570 | -DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&5.871&4.777\\ | |
571 | -DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.015&0.015\\DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.491&7.991\\ | |
572 | -DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.762&0.607\\ | |
573 | -DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.748&0.662\\ | |
574 | -DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&8.766&9.070\\ | |
575 | -DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&1.973&2.424\\ | |
576 | -DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.157&2.553\\ | |
577 | -DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.802&2.468\\ | |
578 | -DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.874&3.621\\ | |
579 | -DS11&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681& | |
580 | -0.541&0.55&0.54\\ | |
581 | -\hline | |
582 | -Avg. Rank&6.32&6.73&8.09&2.73&7.27&6.45&6.32&9.36&1.82&6.14&4.77\\ | |
583 | -\end{tabular} | |
584 | -\caption{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.} | |
585 | -\label{tabRes1} | |
586 | -\end{table} | |
587 | - | |
588 | -\begin{table}[!ht] | |
589 | -\scriptsize | |
590 | -\centering | |
591 | -\begin{tabular}{c|ccccccccccc} | |
592 | -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\ | |
593 | -\hline | |
594 | -DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.1\\ | |
595 | -DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\ | |
596 | -DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.9&3.771\\ | |
597 | -DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\ | |
598 | -DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\ | |
599 | -DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\ | |
600 | -DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\ | |
601 | -DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\ | |
602 | -DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\ | |
603 | -DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\ | |
604 | -DS11&0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453& | |
605 | -0.327&0.35&0.347\\ | |
606 | -\hline | |
607 | -Avg. Rank&7.22&7.05&5.5&2.55&7.95&7.32&7.36&8.90&2.45 | |
608 | -&5.51&4.72\\ | |
609 | -\end{tabular} | |
610 | -\caption{Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression} | |
611 | -\label{tabRes2} | |
612 | -\end{table} | |
613 | - | |
614 | -Les tableaux \ref{tabRes1} et \ref{tabRes2} présentent respectivement les RMSE et les MAE obtenues pour chaque jeu de données et chaque algorithme testé. | |
615 | - | |
616 | -La figure \ref{figBox} représente graphiquement la dispersion globale, la médiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA génère parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est très faible. De plus, la convergence est proche de la valeur réelle et même meilleure que celle de la plupart des autres algorithmes testés. Il est également possible de remarquer que les valeurs aberrantes sont plus nombreuses que les valeurs réelles. | |
617 | - | |
618 | -\begin{figure}[!ht] | |
619 | -\includegraphics[width=\textwidth]{Figures/boxplot2.png} | |
620 | -\caption{Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés} | |
621 | -\label{figBox} | |
622 | -\end{figure} | |
623 | - | |
624 | -Les résultats montrent que l'algorithme ESCBR-SMA est compétitif pour la plupart des jeux de données considérés dans cette étude. Il obtient en effet les meilleurs résultats sur $DS2$, $DS4$, $DS5$ et $DS9$. Globalement, ESCBR-SMA est le troisième meilleur algorithme. Ses performances sont donc comparables à celles des autres algorithmes d'ensemble testés. Par rapport à ESCBR, une amélioration des résultats et une réduction de la variance ont été obtenues, démontrant ainsi que les systèmes multi-agents et le raisonnement stochastique bayésien contribuent à l'apprentissage et à la convergence vers des solutions plus proches de la solution réelle. | |
625 | - | |
626 | -\subsection{Conclusion} | |
627 | -Cette version d'ECBR intégrant un SMA propose d'utiliser les avantages des systèmes multi-agents pour améliorer la qualité des solutions proposées et également le processus d'apprentissage global en couvrant un plus large spectre de possibilités et en le couvrant de manière intelligente à l'aide d'un raisonnement bayésien. ESCBR-SMA permet ainsi d'obtenir de bonnes approximations avec peu de données. | |
628 | - | |
629 | -Ce travail a démontré la capacité d'ESCBR-SMA à trouver des solutions proches de l'optimum global pour la majorité des ensembles de données analysés. Ces jeux de données présentent une certaine diversité, ils peuvent être déséquilibrés et ils sont de tailles différentes. Grâce aux caractéristiques inhérentes aux systèmes multi-agents (possibilités de rétroactions, d'échanges d'informations, l'émergence d'une intelligence collective, l'utilisation de raisonnements cognitifs), les performances d'ESCBR-SMA sont meilleures que celles d'ESCBR. | |
630 | - | |
1 | +\chapter{Le raisonnement à partir de cas (RàPC) pour la régression} | |
2 | +\chaptermark{RàPC POUR RÉGRESSION} | |
3 | +\label{ChapESCBR} | |
4 | + | |
5 | +\section{Introduction} | |
6 | + | |
7 | +Ce chapitre est divisé en deux parties. La première partie présente un algorithme fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression. | |
8 | +L'algorithme présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{soto6}.\\ | |
9 | + | |
10 | +Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche. | |
11 | + | |
12 | +Le système de raisonnement à partir de cas ne nécessite pas d'entraînement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement satisfaisants. | |
13 | + | |
14 | +La technique d'ensemble permet de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs algorithmes exécutés indépendamment. Certaines de ces méthodes utilisent des algorithmes différents et des ensembles de données différents tandis que d'autres utilisent les mêmes algorithmes avec des paramètres différents. La combinaison des résultats provenant de multiples algorithmes peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette technique d'ensemble en la combinant à des outils d'apprentissage automatique. | |
15 | + | |
16 | +Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des algorithmes linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est une technique d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses algorithmes d'apprentissage automatique pour surmonter les limites des algorithmes individuels. Plusieurs études démontrent que l'association de ces algorithmes permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. | |
17 | + | |
18 | +La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. | |
19 | + | |
20 | +Le raisonnement bayésien clôt ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. | |
21 | + | |
22 | +\section{Apprentissage par empilement et raisonnement à partir de cas} | |
23 | +\sectionmark{Apprentissage par empilement et RàPC} | |
24 | + | |
25 | +Cette section présente la première version de l'algorithme que nous avons conçu pour résoudre des problèmes de régression. Celui-ci est fondé sur le raisonnement à partir de cas et l'empilement. | |
26 | + | |
27 | +\subsection{Algorithme Proposé} | |
28 | + | |
29 | +L'algorithme proposé, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondé sur le paradigme générique du RàPC combiné à plusieurs algorithmes de recherche de voisins et de génération de solutions. Ces algorithmes ont été intégrés selon une variation de l'empilement en deux étapes itératives. Cette intégration donne à l'algorithme la capacité de s'adapter à différents types de problèmes, d'éviter les biais et le surentraînement. Les résultats de l'exécution des niveaux d'empilement stockent dans la mémoire des conteneurs de connaissances du système de RàPC des informations qui aident non seulement à l'apprentissage de l'algorithme au fil des itérations, mais facilitent également la génération de solutions à divers problèmes sur différents ensembles de données sans nécessité d'entraînement préalable. La conception itérative en deux cycles améliore la capacité du système de RàPC à travailler et à s'adapter à des problèmes dynamiques en cours d'exécution, comme le montre la figure \ref{figNCBR1}. | |
30 | + | |
31 | +\begin{figure}[!ht] | |
32 | +\centering | |
33 | +\includegraphics[width=\textwidth]{./Figures/NCBR0.png} | |
34 | +\caption{Les deux cycles proposés pour le RàPC} | |
35 | +\label{figNCBR1} | |
36 | +\end{figure} | |
37 | + | |
38 | +L'étape de récupération utilise les algorithmes de recherche et le jeu de données de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problème cible. Puis l'étape de réutilisation utilise les algorithmes de génération de solutions (conteneur $C2$). L'étape de révision évalue ensuite les solutions générées et permet d'en générer de nouvelles itérativement en fonction des paramètres stockés dans le conteneur $C4$. Vient ensuite l'étape de révision prenant en considération la solution sélectionnée. Faisant suite à cette révision, l'étape de renouvellement met à jour les paramètres et les données du conteneur. Enfin, dans l'étape de capitalisation, la base de cas est mise à jour avec l'intégration du nouveau cas. Les flux d'information de l'algorithme proposé sont présentés sur la figure~\ref{figFlowCBR0}, tandis que le tableau~\ref{tabVarPar} présente l'ensemble des variables et paramètres de l'algorithme proposé. | |
39 | + | |
40 | +\begin{figure}[!ht] | |
41 | +\centering | |
42 | +\includegraphics[scale=0.6]{./Figures/FlowCBR0.png} | |
43 | +\caption{Flux du \textit{Stacking} RàPC} | |
44 | +\label{figFlowCBR0} | |
45 | +\end{figure} | |
46 | + | |
47 | +\begin{table}[!ht] | |
48 | +\centering | |
49 | +\begin{tabular}{cccc} | |
50 | +ID&Type&Description&Domain\\ | |
51 | +\hline | |
52 | +$it$&p&Nombre d'itérations&$\mathbb{N}, it>0$\\ | |
53 | +$np$&p&Nombre de processus&$\mathbb{N}, np>2$\\ | |
54 | +$nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\ | |
55 | +$ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\ | |
56 | +$n$&v&Dimension de l'espace du problème&$\mathbb{N}, n>0$\\ | |
57 | +$m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\ | |
58 | +$z$&v&Taille du jeu de données&$\mathbb{N}, z>0$\\ | |
59 | +$p$&v&Description du problème&$\mathbb{R} ^ n$\\ | |
60 | +$s$&v&Description de la solution&$\mathbb{R} ^ m$\\ | |
61 | +$r_a$&v&Nombre d'algorithmes pour l'étape retrouver&$\mathbb{N}, r_a>2$\\ | |
62 | +$r_b$&v&Nombre d'algorithmes pour l'étape de réutilisation&$\mathbb{N}, r_b>2$\\ | |
63 | +$at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\ | |
64 | +$nl_i$&v&Nombre de voisins locaux pour l'algorithme $i$&$\mathbb{N}, nl_i \le nl$\\ | |
65 | +$g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\ | |
66 | +$v$&v&Évaluation de la meilleure solution globale&$\mathbb{R}$\\ | |
67 | +$d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\ | |
68 | +$MP(x_1^z,x_2,a)$&f&Fonction pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\ | |
69 | +$MS(x_1^m)$&f&Fonction pour réutiliser avec $x_1$ &$\mathbb{R}^m$\\ | |
70 | +$f_s(p^n,s^m)$&f&Évaluation des solutions&$\mathbb{R}$\\ | |
71 | +\end{tabular} | |
72 | +\caption{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)} | |
73 | +\label{tabVarPar} | |
74 | +\end{table} | |
75 | + | |
76 | +\subsubsection{Rechercher} | |
77 | +La première étape de l'algorithme consiste à trouver les cas les plus similaires à un nouveau cas (appelé \textit{cas cible}). Pour ce faire, l'empilement de différents processus présenté sur la figure \ref{figSta1} est utilisé. Au niveau-0, chaque processus sélectionne et exécute un algorithme de recherche de voisins différents choisi parmi $r_a$ algorithmes dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi aléatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les résultats sont unifiés en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont été mis en œuvre pour l'étape de récupération : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation. | |
78 | + | |
79 | +\begin{figure} | |
80 | +\centering | |
81 | +\includegraphics[width=\textwidth]{./Figures/Stacking1.png} | |
82 | +\caption{\textit{Stacking} pour chercher les plus proches voisins} | |
83 | +\label{figSta1} | |
84 | +\end{figure} | |
85 | + | |
86 | +Formellement, le premier empilement proposé fonctionne avec deux paramètres : %\textcolor{red}{quels sont les 2 paramètres?} | |
87 | +un jeu de données de $z$ cas où un cas est composé de la description du problème et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de générer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exécuté, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est généré. Au niveau-1, un ensemble global est créé à l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le résultat du premier empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches. | |
88 | + | |
89 | +\subsubsection{Réutiliser}\label{Ssec:ReutiliserESCBR} | |
90 | + | |
91 | +Une fois la liste globale des cas similaires établie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisées pour générer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations représentés sur la figure \ref{figAuto}. La génération est effectuée avec un deuxième empilement de différents processus. Cet empilement est représenté sur la figure \ref{figSta2}. Au niveau-0, chaque processus sélectionne et exécute un algorithme de génération différent à partir des algorithmes $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions générées sont stockées dans une mémoire globale. Toutes les solutions connues et générées sont représentées avec la même structure comme le montre la figure \ref{figSolRep}. | |
92 | + | |
93 | +\begin{figure}[!ht] | |
94 | + \centering | |
95 | + \includegraphics[scale=1]{./Figures/SolRep.png} | |
96 | + \caption{Représentation des solutions connues et générées} | |
97 | + \label{figSolRep} | |
98 | +\end{figure} | |
99 | + | |
100 | +Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération. | |
101 | + | |
102 | +\begin{figure}[!ht] | |
103 | +\centering | |
104 | +\includegraphics[width=\textwidth]{./Figures/AutomaticS.png} | |
105 | +\caption{Génération et vérification automatique des solutions} | |
106 | +\label{figAuto} | |
107 | +\end{figure} | |
108 | + | |
109 | +La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}. | |
110 | +Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. | |
111 | + | |
112 | +\begin{equation} | |
113 | + \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) | |
114 | + \label{gen00} | |
115 | +\end{equation} | |
116 | + | |
117 | +\begin{equation} | |
118 | + s^m_{j,w}=\sum_{i=0}^{nl-1} \alpha_j s_{i,j} | |
119 | + \label{gen01} | |
120 | +\end{equation} | |
121 | + | |
122 | +La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}. | |
123 | + | |
124 | +\begin{equation} | |
125 | + s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl-1} s_{i,j} | |
126 | + \label{gen2} | |
127 | +\end{equation} | |
128 | + | |
129 | +La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$. | |
130 | + | |
131 | +\begin{equation} | |
132 | + s_{j,w}^m= | |
133 | + \begin{cases} | |
134 | + x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\ | |
135 | + \frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\ | |
136 | + \end{cases} | |
137 | + \label{eqgen3} | |
138 | +\end{equation} | |
139 | + | |
140 | +La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité. | |
141 | + | |
142 | +\begin{equation} | |
143 | +s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right) | |
144 | +\label{eqgen4} | |
145 | +\end{equation} | |
146 | + | |
147 | +"Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}. | |
148 | + | |
149 | +\begin{equation} | |
150 | +s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) | |
151 | +\label{eqgen5} | |
152 | +\end{equation} | |
153 | + | |
154 | +Le vote permet de copier l'information la plus fréquente de toutes (équation \ref{eqgen6}). | |
155 | + | |
156 | +\begin{equation} | |
157 | +s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl | |
158 | +\label{eqgen6} | |
159 | +\end{equation} | |
160 | + | |
161 | +L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}. | |
162 | + | |
163 | +\begin{equation} | |
164 | + s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl | |
165 | + \label{eqgen7} | |
166 | +\end{equation} | |
167 | + | |
168 | +L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition. | |
169 | + | |
170 | +La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. | |
171 | + | |
172 | +L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. | |
173 | + | |
174 | +La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $k$ (équation \ref{eqma1}) et a sa valeur est ajouté à une valeur $X_1$. La valeur de $X_1$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$ (équation \ref{eqma2}). | |
175 | + | |
176 | +\begin{equation} | |
177 | +k \sim \left(\frac{1}{nl}\right) | |
178 | +\label{eqma1} | |
179 | +\end{equation} | |
180 | + | |
181 | +\begin{equation} | |
182 | + s_{w,j}^m=\begin{cases} | |
183 | + s_{j,k}^m+X_1& si \; (X_2)\%2=0\\ | |
184 | + s_{j,k}^m-X_1&sinon | |
185 | + \end{cases};X_1 \sim \mathcal{N}(0,1), X_2 \sim \mathcal{U}_{int}(0,10) | |
186 | + \label{eqma2} | |
187 | +\end{equation} | |
188 | + | |
189 | +\begin{figure} | |
190 | +\centering | |
191 | +\includegraphics[width=\textwidth]{./Figures/Stacking2.png} | |
192 | +\caption{\textit{Stacking} pour la génération de solutions} | |
193 | +\label{figSta2} | |
194 | +\end{figure} | |
195 | + | |
196 | +La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième empilement. Chaque algorithme décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution. | |
197 | + | |
198 | +\subsubsection{Révision} | |
199 | + | |
200 | +Dans cette phase, le problème de l'évaluation automatique d'une solution candidate est transformé en un problème d'optimisation, où la fonction objectif est \ref{eqOpt}. Ce problème revient à calculer la moyenne géométrique ou encore à résoudre le problème de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, résoudre ce problème revient à calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problème en deux dimensions. Sur cette figure, le point rouge représente une solution possible minimisant la somme des distances entre ce point et tous les autres points définis dans l'espace. | |
201 | + | |
202 | +La fonction objectif (équations \ref{eqOpt0} et \ref{eqOpt}) établit un rapport entre la distance de la solution générée $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur aléatoire de \textit{drift} d'une part, et la distance entre le problème cible $p^n_w$ et les $x$ problèmes connus $p^n_x$ d'autre part. Ici, la difficulté à trouver le point optimal réside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dépend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problème et solution) pour valider et générer l'ensemble de solutions proposées.\\ | |
203 | + | |
204 | +\begin{equation} | |
205 | +\lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+X)))}{d(p_w^n,p_x^n)^2} \right); \; X \sim \mathcal{N}(0,d(p_w^n, p_x^n) | |
206 | +\label{eqOpt0} | |
207 | +\end{equation} | |
208 | + | |
209 | +\begin{equation} | |
210 | +min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right) | |
211 | +\label{eqOpt} | |
212 | +\end{equation} | |
213 | + | |
214 | +\begin{figure}[!ht] | |
215 | + \centering | |
216 | + \includegraphics[width=\textwidth]{Figures/FW.png} | |
217 | + \caption{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda_1,..,\lambda_7$) et point rouge solution au problème)} | |
218 | + \label{fig:FW} | |
219 | +\end{figure} | |
220 | + | |
221 | +Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée. | |
222 | + | |
223 | +\subsubsection{Mémorisation} | |
224 | + | |
225 | +L'étape de mémorisation consiste simplement à prendre la meilleure solution proposée et à déterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrée dans la base de connaissances. | |
226 | + | |
227 | +\subsection{Résultats} | |
228 | + | |
229 | +Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | |
230 | + | |
231 | +\begin{table}[!ht] | |
232 | +\tiny | |
233 | +\centering | |
234 | +\begin{tabular}{llccccc} | |
235 | +ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\ | |
236 | +\hline | |
237 | +DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
238 | +DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
239 | +DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
240 | +DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
241 | +DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
242 | +DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
243 | +DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
244 | +DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
245 | +DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\ | |
246 | +DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\ | |
247 | +\end{tabular} | |
248 | +\caption{Description des jeux de données évalués} | |
249 | +\label{tabBases2} | |
250 | +\end{table} | |
251 | + | |
252 | +L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs. | |
253 | + | |
254 | +\begin{table}[!ht] | |
255 | +\centering | |
256 | +\footnotesize | |
257 | +\begin{tabular}{ll|ll} | |
258 | +ID&Algorithme&ID&Algorithme\\ | |
259 | +\hline | |
260 | +A1&Linear Regression&A6&Polinomial Regression\\ | |
261 | +A2&K-Nearest Neighbor&A7&Ridge Regression\\ | |
262 | +A3&Decision Tree&A8&Lasso Regression\\ | |
263 | +A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | |
264 | +A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\ | |
265 | +\end{tabular} | |
266 | +\caption{Liste des algorithmes évalués} | |
267 | +\label{tabAlgs2} | |
268 | +\end{table} | |
269 | + | |
270 | +Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données. | |
271 | + | |
272 | +\begin{table}[!ht] | |
273 | +\footnotesize | |
274 | +\centering | |
275 | +\begin{tabular}{c|ccccccccccc} | |
276 | +Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
277 | +\hline | |
278 | +DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\ | |
279 | +DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\ | |
280 | +DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\ | |
281 | +DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\ | |
282 | +DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\ | |
283 | +DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\ | |
284 | +DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\ | |
285 | +DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\ | |
286 | +DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\ | |
287 | +DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\ | |
288 | +\hline | |
289 | +Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\ | |
290 | +\end{tabular} | |
291 | +\caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | |
292 | +\label{tabRes1_2} | |
293 | +\end{table} | |
294 | + | |
295 | +\begin{table}[!ht] | |
296 | +\footnotesize | |
297 | +\centering | |
298 | +\begin{tabular}{c|ccccccccccc} | |
299 | +Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
300 | +\hline | |
301 | +DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\ | |
302 | +DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\ | |
303 | +DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\ | |
304 | +DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\ | |
305 | +DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\ | |
306 | +DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\ | |
307 | +DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\ | |
308 | +DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\ | |
309 | +DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\ | |
310 | +DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\ | |
311 | +\hline | |
312 | +Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\ | |
313 | +\end{tabular} | |
314 | +\caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | |
315 | +\label{tabRes2_2} | |
316 | +\end{table} | |
317 | + | |
318 | +La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés. | |
319 | + | |
320 | +\begin{figure} | |
321 | +\includegraphics[width=\textwidth]{./Figures/boxplot.png} | |
322 | +\caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives} | |
323 | +\label{figBox2} | |
324 | +\end{figure} | |
325 | + | |
326 | +\subsection{Discussion} | |
327 | + | |
328 | +De par ses performances, ESCBR se révèle compétitif par rapport à certains des neuf autres algorithmes testés pour la prédiction dans les problèmes de régression. En particulier, dans ce travail, nous avons effectué les tests sur dix jeux de données aux caractéristiques variées, telles que le nombre d'instances, le nombre de caractéristiques, le domaine des variables d'entrée, les dimensions de la variable de sortie et le domaine d'application. Cela démontre la polyvalence de l'algorithme proposé et son applicabilité à différentes configurations. Étant donné la nature exploratoire et stochastique d'ESCBR, il présente une grande diversité de solutions générant plusieurs valeurs aberrantes. Malgré cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois élevées, mais celles de la médiane restent faibles, la médiane atténuant les disparités. | |
329 | + | |
330 | +On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire). | |
331 | + | |
332 | +Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place. | |
333 | + | |
334 | +Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique. | |
335 | + | |
336 | +De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certains problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables. | |
337 | + | |
338 | +\subsection{Conclusion} | |
339 | + | |
340 | +Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et une technique d'empilement que nous avons baptisée ESCBR. Cet algorithme ne nécessite pas d'entraînement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\ | |
341 | + | |
342 | +\section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR} | |
343 | + | |
344 | +La méthode ESCBR que nous avons proposée dans la section précédente est fondée sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposées par des processus intelligents et concurrents pour en générer une, nous nous sommes tout naturellement tournés vers la possibilité d'inclure des agents dans le processus de décision. L'une des ambitions des systèmes multi-agents consiste en effet à faire émerger une intelligence collective capable de fournir une solution. Cette section présente donc l'évolution d'ESCBR en ESCBR-SMA. | |
345 | + | |
346 | +\subsection{Algorithme Proposé} | |
347 | + | |
348 | +L'algorithme ESCBR-SMA est fondé sur le paradigme du RàPC et incorpore divers algorithmes de recherche de voisins et de génération de solutions. Ceux-ci sont intégrés à l'aide d'une variante de la technique d'empilement en deux étapes itératives, exécutées par des agents qui exploitent indépendamment les algorithmes définis dans les conteneurs de connaissances de la révision et de la réutilisation du cycle classique du RàPC. Les agents possèdent une mémoire locale qui leur permet d'ajuster et de développer leur recherche de voisins, en générant des solutions à chaque itération. Chaque agent a un comportement individuel autorisant l'échange d'informations avec les autres agents. La figure \ref{figNCBR} décrit le processus de décision et les comportements des agents au sein du système élargi. | |
349 | + | |
350 | +\begin{figure}[!ht] | |
351 | +\centering | |
352 | +\includegraphics[width=\textwidth]{Figures/NCBR.png} | |
353 | +\caption{Deux cycles du système ESCBR-SMA proposé} | |
354 | +\label{figNCBR} | |
355 | +\end{figure} | |
356 | + | |
357 | +Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problème au cours de la première étape puis, au cours de la seconde, génère une solution en se référant à la liste des solutions obtenues au cours de la première étape. À chaque itération, les agents peuvent choisir parmi trois comportements programmés : la recherche de problèmes voisins, la génération de solutions ou l'échange d'informations avec un autre agent. L'exécution de ces trois comportements programmés est asynchrone. En revanche, la création et la sélection de la liste des voisins se font de manière synchronisée. | |
358 | + | |
359 | +Les étapes d'extraction, de réutilisation, de révision et de conservation restent conformes au RàPC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles étapes : | |
360 | +\begin{itemize} | |
361 | + \item durant la phase de reconfiguration, les agents mettent à jour les valeurs de leurs paramètres locaux afin d'améliorer la qualité de la solution proposée lors de l'itération suivante, | |
362 | + \item durant la phase d'échange, les agents échangent des informations pour améliorer leurs processus internes de recherche et de génération, | |
363 | + \item enfin, l'étape de révision met à jour les valeurs des paramètres globaux de l'algorithme. | |
364 | +\end{itemize} | |
365 | + | |
366 | +Le flux complet de l'algorithme proposé est décrit sur la figure \ref{figFlowCBR}. | |
367 | + | |
368 | +En premier lieu, ESCBR-SMA crée $n$ agents. Lors de l'initialisation, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, et initialisent également les vecteurs bayésiens correspondants. Tous les agents travaillent avec le même ensemble de données. | |
369 | + | |
370 | +Les agents exécutent en parallèle l'algorithme de récupération sélectionné, à partir des problèmes similaires trouvés ; chaque agent extrait les solutions et exécute l'algorithme spécifique de génération d'une nouvelle solution. | |
371 | +Toutes les solutions proposées par les agents sont évaluées à l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvée à ce stade. | |
372 | + | |
373 | +Au cours de l'étape suivante, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, puis ils mettent à jour les vecteurs bayésiens en fonction des résultats obtenus avec la fonction objectif. | |
374 | + | |
375 | +Lors de l'itération suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de récupération et de réutilisation, ne changer que l'algorithme de réutilisation ou échanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit aléatoirement une action pour tenter d'améliorer la solution candidate. | |
376 | + | |
377 | +ESCBR-SMA utilise l'ensemble des variables et paramètres du tableau \ref{tabVarPar} ainsi que ceux consignés dans le tableau \ref{tabVarPar2}. Le système multi-agents est composé d'un nombre variable d'agents, tous homogènes mais dotés de processus cognitifs internes indépendants et stochastiques. | |
378 | + | |
379 | +\begin{figure}[!ht] | |
380 | +\centering | |
381 | +\includegraphics[scale=0.6]{Figures/FlowCBR.png} | |
382 | +\caption{Flux du \textit{Stacking} du RàPC (* : tâche effectuée par chaque agent)} | |
383 | +\label{figFlowCBR} | |
384 | +\end{figure} | |
385 | + | |
386 | +\begin{table}[!ht] | |
387 | +\footnotesize | |
388 | +\centering | |
389 | +\begin{tabular}{cccc} | |
390 | +ID&Type&Description&Domain\\ | |
391 | +\hline | |
392 | +$p_w$&v&Description du nouveau problème&$\mathbb{R} ^ n$\\ | |
393 | +$s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\ | |
394 | +$n_{rt}$&v&Nombre d'algorithmes pour l'étape de retrouver&$\mathbb{Z}$\\ | |
395 | +$n_{rs}$&v&Nombre d'algorithmes de réutilisation&$\mathbb{Z}$\\ | |
396 | +$rn(x,y)$&f& | |
397 | + | |
398 | +\begin{tabular}{@{}c@{}}Valeur aléatoire avec distribution normale\\ $x$ moyenne, $y$ écart-type | |
399 | +\end{tabular} | |
400 | + | |
401 | +&$\mathbb{R}_+$\\ | |
402 | +$rnp(x,y)$&f& | |
403 | + | |
404 | +\begin{tabular}{@{}c@{}}Valeur aléatoire discrète, $x$ nombre d'options \\ $y$ vecteur discret de probabilités | |
405 | +\end{tabular} | |
406 | +&$\mathbb{Z}$\\ | |
407 | +\end{tabular} | |
408 | +\caption{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)} | |
409 | +\label{tabVarPar2} | |
410 | +\end{table} | |
411 | + | |
412 | +\subsubsection{Algorithmes suivis par ESCBR-SMA} | |
413 | + | |
414 | +Cette section présente de manière plus détaillée les comportements des agents d'ESCBR-SMA. | |
415 | + | |
416 | +Lors de la première étape de l'empilement, chaque agent peut sélectionner l'un des algorithmes suivants pour rechercher des problèmes similaires au problème cible : KNN (\textit{K-Nearest Neighbor}), \textit{KMeans}, GMM (\textit{Gaussian Mixture Model}), \textit{FuzzyC} et KNN pondéré. | |
417 | + | |
418 | +Lors de la deuxième étape de l'empilement, les agents peuvent choisir un algorithme parmi les algorithmes explicités dans la section \ref{Ssec:ReutiliserESCBR}. | |
419 | + | |
420 | +\subsubsection{Structure des agents} | |
421 | + | |
422 | +Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'adopter un comportement indépendant et différent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nécessaires à l'exécution de l'ensemble du processus. | |
423 | + | |
424 | +Chaque agent peut exécuter trois actions différentes : | |
425 | +\begin{itemize} | |
426 | + \item « Récupérer et réutiliser », | |
427 | + \item « Réutiliser » et | |
428 | + \item « Échanger ». | |
429 | +\end{itemize} | |
430 | + | |
431 | +Chaque agent accède aux valeurs de huit variables qui lui sont propres : | |
432 | +\begin{itemize} | |
433 | + \item le nombre de voisins définissant le nombre de problèmes similaires au nouveau problème posé que l'agent doit rechercher dans la base de connaissances, | |
434 | + \item la liste des voisins les plus proches consigne les agents avec lesquels des informations peuvent être échangées, | |
435 | + \item l'identifiant de l'algorithme de récupération que l'agent exécutera pour trouver les problèmes similaires au problème cible, | |
436 | + \item l'identifiant de l'algorithme de réutilisation que l'agent exécutera pour générer une solution candidate au cas cible, | |
437 | + \item la description de la solution générée, | |
438 | + \item l'évaluation de la solution renseignant sur la qualité de la solution générée et calculée selon une fonction d'optimisation (équations \ref{eqOpt1} et \ref{eqOpt2}), | |
439 | + \item le vecteur bayésien nécessaire aux algorithmes de récupération contenant les valeurs de probabilité, et | |
440 | + \item le vecteur bayésien nécessaire aux algorithmes de réutilisation contenant les valeurs de probabilité. | |
441 | +\end{itemize} | |
442 | + | |
443 | +\begin{equation} | |
444 | +min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right) | |
445 | +\label{eqOpt1} | |
446 | +\end{equation} | |
447 | + | |
448 | +\begin{equation} | |
449 | +s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n)) | |
450 | +\label{eqOpt2} | |
451 | +\end{equation} | |
452 | + | |
453 | +\begin{figure}[!ht] | |
454 | +\centering | |
455 | +\includegraphics[scale=0.7]{Figures/agent.png} | |
456 | +\caption{Structure interne des agents} | |
457 | +\label{figAgent} | |
458 | +\end{figure} | |
459 | + | |
460 | +\subsubsection{Apprentissage des agents} | |
461 | + | |
462 | +Tous les agents considèrent un vecteur bayésien de probabilité pour la phase de récupération (conteneur $C3$ de la figure \ref{figNCBR}) et un vecteur bayésien de probabilité pour la phase de réutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurés avec une probabilité uniforme pour tous les algorithmes de récupération et de réutilisation (probabilité \textit{a priori}). À chaque itération, les vecteurs sont mis à jour selon l'équation bayésienne \ref{eqBay} en utilisant les meilleurs résultats du même agent comme paramètre de vraisemblance. L'agent apprend ainsi de son expérience et sélectionne les algorithmes les plus aptes à fournir les meilleures réponses au regard de l'objectif défini. | |
463 | + | |
464 | +Par conséquent, d'un point de vue plus global au niveau du SMA, l'apprentissage est fondé sur un raisonnement bayésien où les vecteurs de récupération et de réutilisation évoluent. Un exemple d'évolution est présenté sur la figure \ref{fig:bayev}. Au cours d'une itération, si un algorithme a contribué à la construction de la meilleure solution, il reçoit un point pour chaque agent qui l'a utilisé. Ces informations sont stockées dans un vecteur normalisé qui est ensuite utilisé comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilités dans l'équation bayésienne \ref{eqBay} (dans cette équation, $P(B)$ est le terme de normalisation global). | |
465 | + | |
466 | +\begin{figure} | |
467 | + \centering | |
468 | + \includegraphics[scale=0.5]{Figures/BayesianEvolution.png} | |
469 | + \caption{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser} | |
470 | + \label{fig:bayev} | |
471 | +\end{figure} | |
472 | + | |
473 | +\begin{equation} | |
474 | + P(A|B)=\frac{P(B|A)P(A)}{P(B)} | |
475 | + \label{eqBay} | |
476 | +\end{equation} | |
477 | + | |
478 | +La fonction $rnp$ de l'équation \ref{eqRta} choisit l'algorithme de recherche $a_{rt}$ de l'étape $rt$. | |
479 | +Cette fonction prend en paramètres l'ensemble des algorithmes possibles $n_{rt}$ et une probabilité associée $P(A|B)_{rt}$. $P(A|B)_{rt}$ représente la probabilité que l'algorithme de recherche associé fournisse la solution optimale à l'étape $rt$. | |
480 | + | |
481 | +\begin{equation} | |
482 | + a_{rt}=rnp(n_{rt},P(A|B)_{rt}) | |
483 | + \label{eqRta} | |
484 | +\end{equation} | |
485 | + | |
486 | +La fonction $rnp$ est de nouveau utilisée pour choisir l'algorithme de réutilisation $a_{rs}$ (équation \ref{eqRsa}). | |
487 | + | |
488 | +\begin{equation} | |
489 | + a_{rs}=rnp(n_{rs},P(A|B)_{rs}) | |
490 | + \label{eqRsa} | |
491 | +\end{equation} | |
492 | + | |
493 | +Le processus d'apprentissage est réalisé individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents échangent les informations qu'ils ont calculées, les optimisations locales qu'ils ont réalisées, ainsi que les algorithmes et les paramètres qu'ils ont utilisés. | |
494 | + | |
495 | +\subsubsection{Échanges entre les agents} | |
496 | + | |
497 | +Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itération en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramètres menant aux meilleurs résultats et d'effectuer des actions rétrospectivement. Les informations modifiables sont choisies aléatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de récupération, de l'algorithme de réutilisation ou même des vecteurs bayésiens. | |
498 | + | |
499 | +\subsection{Résultats} | |
500 | + | |
501 | +Des expérimentations sur onze jeux de données relatifs à des problèmes de régression et présentant des caractéristiques différentes ont été réalisées. Les jeux de données et leurs caractéristiques sont consignés dans le tableau \ref{tabBases}. Les valeurs des paramètres d'ESCBR-SMA sont les suivantes : $it=100$ itérations, $np=50$ agents, $nl=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-0} et $ng=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-1}. | |
502 | + | |
503 | +Le tableau \ref{AlgsPar} présente les valeurs des paramètres de tous les autres algorithmes. | |
504 | + | |
505 | +\begin{table}[!ht] | |
506 | +\scriptsize | |
507 | +\centering | |
508 | +\begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}} | |
509 | +ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\ | |
510 | +\hline | |
511 | +DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
512 | +DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
513 | +DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
514 | +DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
515 | +DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
516 | +DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
517 | +DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
518 | +DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
519 | +DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
520 | +DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
521 | +DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\ | |
522 | +\end{tabular} | |
523 | +\caption{Description des jeux de données évalués.} | |
524 | +\label{tabBases} | |
525 | +\end{table} | |
526 | + | |
527 | +\begin{table}[!ht] | |
528 | +\centering | |
529 | +\begin{tabular}{ccc|ccc} | |
530 | +ID&Parameter&Value&ID&Parameter&Value\\ | |
531 | +\hline | |
532 | +A1&Intercept&True&A6&Degree&4\\ | |
533 | +&Positive&True&&Bias&True\\ | |
534 | +\hline | |
535 | +A2&Neighbors&5&A7&Fit Intercept&True\\ | |
536 | +&Weights&Uniform&&alpha&0.2\\ | |
537 | +&Metric&Minkowsky&&tol&1e-4\\ | |
538 | +&Power Minkowsky&2\\ | |
539 | +\hline | |
540 | +A3&Error&Squared Error&A8&Fit Intercept&True\\ | |
541 | +&Min samples split&2&&alpha&[0.00001, 0.4]\\ | |
542 | +&&&&Max iter&1000\\ | |
543 | +&&&&tol&1e-4\\ | |
544 | +\hline | |
545 | +A4&Estimators&10&A9&Error&Squarred Error\\ | |
546 | +&Error&Squared Error&&Learning Rate&0.1\\ | |
547 | +&Min samples split&2&&Estimators&100\\ | |
548 | +&Bootstrap&True&&Min Split&2\\ | |
549 | +\hline | |
550 | +A5&Hidden Layers&100\\ | |
551 | +&Activation&Relu\\ | |
552 | +&Solver&Adam\\ | |
553 | +&alpha&0.0001\\ | |
554 | +&Learning Rate&0.001\\ | |
555 | +&Max Iter&200\\ | |
556 | +&beta1&0.9\\ | |
557 | +&beta2&0.999\\ | |
558 | +&epsilon&1e-8\\ | |
559 | +\end{tabular} | |
560 | +\caption{Paramètres de tous les algorithmes comparés} | |
561 | +\label{AlgsPar} | |
562 | +\end{table} | |
563 | + | |
564 | +\begin{table}[!ht] | |
565 | +\scriptsize | |
566 | +\centering | |
567 | +\begin{tabular}{c|ccccccccccc} | |
568 | +Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\ | |
569 | +\hline | |
570 | +DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&5.871&4.777\\ | |
571 | +DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.015&0.015\\DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.491&7.991\\ | |
572 | +DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.762&0.607\\ | |
573 | +DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.748&0.662\\ | |
574 | +DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&8.766&9.070\\ | |
575 | +DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&1.973&2.424\\ | |
576 | +DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.157&2.553\\ | |
577 | +DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.802&2.468\\ | |
578 | +DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.874&3.621\\ | |
579 | +DS11&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681& | |
580 | +0.541&0.55&0.54\\ | |
581 | +\hline | |
582 | +Avg. Rank&6.32&6.73&8.09&2.73&7.27&6.45&6.32&9.36&1.82&6.14&4.77\\ | |
583 | +\end{tabular} | |
584 | +\caption{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.} | |
585 | +\label{tabRes1} | |
586 | +\end{table} | |
587 | + | |
588 | +\begin{table}[!ht] | |
589 | +\scriptsize | |
590 | +\centering | |
591 | +\begin{tabular}{c|ccccccccccc} | |
592 | +Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\ | |
593 | +\hline | |
594 | +DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.1\\ | |
595 | +DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\ | |
596 | +DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.9&3.771\\ | |
597 | +DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\ | |
598 | +DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\ | |
599 | +DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\ | |
600 | +DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\ | |
601 | +DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\ | |
602 | +DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\ | |
603 | +DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\ | |
604 | +DS11&0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453& | |
605 | +0.327&0.35&0.347\\ | |
606 | +\hline | |
607 | +Avg. Rank&7.22&7.05&5.5&2.55&7.95&7.32&7.36&8.90&2.45 | |
608 | +&5.51&4.72\\ | |
609 | +\end{tabular} | |
610 | +\caption{Comparaison des résultats MAE (Median Absolute Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.} | |
611 | +\label{tabRes2} | |
612 | +\end{table} | |
613 | + | |
614 | +Les tableaux \ref{tabRes1} et \ref{tabRes2} présentent respectivement les RMSE et les MAE obtenues pour chaque jeu de données et chaque algorithme testé. | |
615 | + | |
616 | +La figure \ref{figBox} représente graphiquement la dispersion globale, la médiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA génère parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est très faible. De plus, la convergence est proche de la valeur réelle et même meilleure que celle de la plupart des autres algorithmes testés. Il est également possible de remarquer que les valeurs aberrantes sont plus nombreuses que les valeurs réelles. | |
617 | + | |
618 | +\begin{figure}[!ht] | |
619 | +\includegraphics[width=\textwidth]{Figures/boxplot2.png} | |
620 | +\caption{Erreurs médianes absolues (MAE - Median Absolute Error) obtenues pour les dix algorithmes testés.} | |
621 | +\label{figBox} | |
622 | +\end{figure} | |
623 | + | |
624 | +Les résultats montrent que l'algorithme ESCBR-SMA est compétitif pour la plupart des jeux de données considérés dans cette étude. Il obtient en effet les meilleurs résultats sur $DS2$, $DS4$, $DS5$ et $DS9$. Globalement, ESCBR-SMA est le troisième meilleur algorithme. Ses performances sont donc comparables à celles des autres algorithmes d'ensemble testés. Par rapport à ESCBR, une amélioration des résultats et une réduction de la variance ont été obtenues, démontrant ainsi que les systèmes multi-agents et le raisonnement stochastique bayésien contribuent à l'apprentissage et à la convergence vers des solutions plus proches de la solution réelle. | |
625 | + | |
626 | +\subsection{Conclusion} | |
627 | +Cette version d'ESCBR intégrant un SMA propose d'utiliser les avantages des systèmes multi-agents pour améliorer la qualité des solutions proposées et également le processus d'apprentissage global en couvrant un plus large spectre de possibilités et en le couvrant de manière intelligente à l'aide d'un raisonnement bayésien. ESCBR-SMA permet ainsi d'obtenir de bonnes approximations avec peu de données. | |
628 | + | |
629 | +Ce travail a démontré la capacité d'ESCBR-SMA à trouver des solutions proches de l'optimum global pour la majorité des ensembles de données analysés. Ces jeux de données présentent une certaine diversité, ils peuvent être déséquilibrés et ils sont de tailles différentes. Grâce aux caractéristiques inhérentes aux systèmes multi-agents (possibilités de rétroactions, d'échanges d'informations, l'émergence d'une intelligence collective, l'utilisation de raisonnements cognitifs), les performances d'ESCBR-SMA sont meilleures que celles d'ESCBR. | |
630 | + | |
631 | 631 | Dans le chapitre suivant, nous explorons la possibilité d'intégrer de nouveaux outils à ESCBR-SMA pour la recommandation d'exercices en cours de séance d'entraînement dans l'EIAH AI-VT. |
632 | 632 | \ No newline at end of file |
chapters/Publications.aux
View file @
4b1afa3
... | ... | @@ -40,7 +40,7 @@ |
40 | 40 | \setcounter{section@level}{1} |
41 | 41 | \setcounter{Item}{0} |
42 | 42 | \setcounter{Hfootnote}{0} |
43 | -\setcounter{bookmark@seq@number}{95} | |
43 | +\setcounter{bookmark@seq@number}{93} | |
44 | 44 | \setcounter{DefaultLines}{2} |
45 | 45 | \setcounter{DefaultDepth}{0} |
46 | 46 | \setcounter{L@lines}{3} |
chapters/Publications.tex
View file @
4b1afa3
... | ... | @@ -20,7 +20,7 @@ Daniel Soto Forero, Simha Ackermann, Marie-Laure Betbeder and Julien Henriet. Au |
20 | 20 | |
21 | 21 | \section{Autres publications} |
22 | 22 | |
23 | -Daniel Soto Forero and Yony Ceballos. Boundary and Geometric Effects in the Facility Exclusion Process (En évaluation).\ | |
23 | +Daniel Soto Forero and Yony Ceballos. Boundary and Geometric Effects in the Facilitated Exclusion Process (En évaluation).\ | |
24 | 24 | |
25 | 25 | Daniel Soto Forero and Yony Ceballos. Metaheuristics Hybridation and Parametrization using Machine Learning (En évaluation).\\ |
26 | 26 |
chapters/TS.aux
View file @
4b1afa3
... | ... | @@ -7,6 +7,7 @@ |
7 | 7 | \@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent } |
8 | 8 | \@writefile{lof}{\addvspace {10\p@ }} |
9 | 9 | \@writefile{lot}{\addvspace {10\p@ }} |
10 | +\newlabel{chap:RecommandationAIVT}{{7}{73}{Système de Recommandation dans AI-VT}{chapter.7}{}} | |
10 | 11 | \@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent } |
11 | 12 | \citation{soto4} |
12 | 13 | \citation{soto5} |
... | ... | @@ -108,9 +109,9 @@ |
108 | 109 | \newlabel{eqTEK}{{7.33}{90}{Progression des connaissances}{equation.7.3.33}{}} |
109 | 110 | \@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }}{91}{figure.caption.62}\protected@file@percent } |
110 | 111 | \newlabel{fig:evolution}{{7.8}{91}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }{figure.caption.62}{}} |
111 | -\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'étudiants réels}{91}{subsubsection.7.3.3.3}\protected@file@percent } | |
112 | +\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'apprenants réels}{91}{subsubsection.7.3.3.3}\protected@file@percent } | |
112 | 113 | \@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Nombre de recommandations par niveau de complexité\relax }}{92}{figure.caption.63}\protected@file@percent } |
113 | -\newlabel{fig:stabilityBP}{{7.9}{92}{Nombre de recommandations par niveau de complexité\relax }{figure.caption.63}{}} | |
114 | +\newlabel{fig:stabilityBP2}{{7.9}{92}{Nombre de recommandations par niveau de complexité\relax }{figure.caption.63}{}} | |
114 | 115 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}\protected@file@percent } |
115 | 116 | \@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Précision de la recommandation\relax }}{93}{figure.caption.64}\protected@file@percent } |
116 | 117 | \newlabel{fig:precision}{{7.10}{93}{Précision de la recommandation\relax }{figure.caption.64}{}} |
... | ... | @@ -129,7 +130,7 @@ |
129 | 130 | \@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}\protected@file@percent } |
130 | 131 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}\protected@file@percent } |
131 | 132 | \@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }}{97}{figure.caption.68}\protected@file@percent } |
132 | -\newlabel{fig:Amodel}{{7.14}{97}{Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }{figure.caption.68}{}} | |
133 | +\newlabel{fig:Amodel2}{{7.14}{97}{Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }{figure.caption.68}{}} | |
133 | 134 | \newlabel{hp1}{{7.36}{97}{Algorithme Proposé}{equation.7.4.36}{}} |
134 | 135 | \newlabel{hp21}{{7.37}{97}{Algorithme Proposé}{equation.7.4.37}{}} |
135 | 136 | \citation{Kuzilek2017} |
... | ... | @@ -141,18 +142,16 @@ |
141 | 142 | \newlabel{hpfb}{{7.42}{98}{Algorithme Proposé}{equation.7.4.42}{}} |
142 | 143 | \newlabel{eqBetaH}{{7.43}{98}{Algorithme Proposé}{equation.7.4.43}{}} |
143 | 144 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}\protected@file@percent } |
144 | -\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec un jeu de données d'étudiants réels (TS avec Hawkes)}{98}{subsubsection.7.4.2.1}\protected@file@percent } | |
145 | 145 | \@writefile{lof}{\contentsline {figure}{\numberline {7.15}{\ignorespaces Nombre de recommandations par niveau de complexité (processus d'apprentissage statique en haut, processus d'apprentissage dynamique avec processus de Hawkes en bas)\relax }}{99}{figure.caption.69}\protected@file@percent } |
146 | 146 | \newlabel{fig:stabilityBP}{{7.15}{99}{Nombre de recommandations par niveau de complexité (processus d'apprentissage statique en haut, processus d'apprentissage dynamique avec processus de Hawkes en bas)\relax }{figure.caption.69}{}} |
147 | -\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.2}Mesures de performances}{100}{subsubsection.7.4.2.2}\protected@file@percent } | |
148 | -\newlabel{metric1}{{7.44}{100}{Mesures de performances}{equation.7.4.44}{}} | |
147 | +\newlabel{metric1}{{7.44}{100}{Résultats et Discussion}{equation.7.4.44}{}} | |
149 | 148 | \@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Comparaison entre ESCBR-TS et ESCBR-TS-Hawkes lors d'un démarrage à froid.\relax }}{100}{table.caption.70}\protected@file@percent } |
150 | 149 | \newlabel{tab:my_label}{{7.11}{100}{Comparaison entre ESCBR-TS et ESCBR-TS-Hawkes lors d'un démarrage à froid.\relax }{table.caption.70}{}} |
151 | 150 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}\protected@file@percent } |
152 | 151 | \@writefile{lof}{\contentsline {figure}{\numberline {7.16}{\ignorespaces Variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{101}{figure.caption.71}\protected@file@percent } |
153 | 152 | \newlabel{fig:vars}{{7.16}{101}{Variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.71}{}} |
154 | 153 | \@setckpt{./chapters/TS}{ |
155 | -\setcounter{page}{103} | |
154 | +\setcounter{page}{102} | |
156 | 155 | \setcounter{equation}{44} |
157 | 156 | \setcounter{enumi}{0} |
158 | 157 | \setcounter{enumii}{0} |
... | ... | @@ -186,7 +185,7 @@ |
186 | 185 | \setcounter{section@level}{2} |
187 | 186 | \setcounter{Item}{0} |
188 | 187 | \setcounter{Hfootnote}{0} |
189 | -\setcounter{bookmark@seq@number}{89} | |
188 | +\setcounter{bookmark@seq@number}{87} | |
190 | 189 | \setcounter{DefaultLines}{2} |
191 | 190 | \setcounter{DefaultDepth}{0} |
192 | 191 | \setcounter{L@lines}{3} |
chapters/TS.tex
View file @
4b1afa3
1 | -\chapter{Système de Recommandation dans AI-VT} | |
1 | +\chapter{Système de Recommandation dans AI-VT}\label{chap:RecommandationAIVT} | |
2 | 2 | |
3 | 3 | \section{Introduction} |
4 | 4 | |
... | ... | @@ -10,7 +10,7 @@ Parmi les algorithmes les plus prometteurs pouvant aider à proposer des recomma |
10 | 10 | |
11 | 11 | Ce chapitre est divisé en trois parties, la première partie présente un algorithme délivrant des recommandations en fonction des résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans \cite{Soto2}. Cet algorithme permet l'adaptation automatique en temps réel d'une séance prédéterminée dans l'EIAH AI-VT. Nous considérons qu'elle intervient durant la phase de révision du cycle classique du raisonnement à partir de cas (RàPC). L'algorithme proposé est stochastique et il a été testé selon trois scénarios différents. Les résultats montrent de quelle manière AI-VT peut proposer des recommandations pertinentes selon les faiblesses identifiées de l'apprenant. |
12 | 12 | |
13 | -La deuxième partie de ce chapitre montre l'intégration de tous les algorithmes présentés dans les chapitres précédents à AI-VT, cette proposition est publié dans \cite{soto4}. L'algorithme intégré est appliqué au système AI-VT sur des données générées et des données réelles. Plusieurs types de test sont exécutés pour montrer que l'algorithme final permet en effet d'améliorer les capacités d'identification et d'adaptation. Les performances de ce nouveau algorithme sont comparées à celles d'autres algorithmes. Enfin, l'évolution de l'acquisition des connaissances induites par ces nouveaux algorithmes de recommandation stochastiques est analysée dans cette deuxième partie du présent chapitre. | |
13 | +La deuxième partie de ce chapitre montre l'intégration de tous les algorithmes présentés dans les chapitres précédents à AI-VT, cette proposition est publié dans \cite{soto4}. L'algorithme intégré est appliqué au système AI-VT sur des données générées et des données réelles. Plusieurs types de test sont exécutés pour montrer que l'algorithme final permet en effet d'améliorer les capacités d'identification et d'adaptation. Les performances de ce nouvel algorithme sont comparées à celles d'autres algorithmes. Enfin, l'évolution de l'acquisition des connaissances induites par ces nouveaux algorithmes de recommandation stochastiques est analysée dans cette deuxième partie du présent chapitre. | |
14 | 14 | |
15 | 15 | Pour terminer, dans la troisième partie de ce chapitre, nous présentons une évolution de ce système de recommandation intégrant le processus de Hawkes publié dans \cite{soto5}. L'intérêt de ce dernier réside dans le fait qu'il utilise une courbe d'oubli, nous permettant ainsi de tenir compte du fait que certaines connaissances et certains mécanismes doivent être rappelés aux apprenants. Cette troisième partie intègre une étude des performances du système de recommandation incluant ce processus stochastique de Hawkes. |
16 | 16 | |
... | ... | @@ -158,7 +158,7 @@ Ainsi, les systèmes de recommandation permettent de proposer une adaptation pro |
158 | 158 | |
159 | 159 | Après la génération de la première séance, le système peut continuer avec une deuxième liste d'exercices. Pour cette partie des tests, les trois algorithmes ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir que la première transition du système initial n'intervient qu'entre deux séances. Les transitions sont très lentes, et tous les apprenants doivent suivre un chemin identique même s'ils obtiennent des notes différentes au cours de celle-ci. |
160 | 160 | |
161 | -Pour leur part, les deux autres systèmes de recommandation testés proposent un fonctionnement différent. L'algorithme déterministe présente trois transitions aux questions 3, 5 et 12. Les tendances sont y relativement homogènes et progressives pour le niveau 3, très variables pour le niveau 2 et fortement décroissantes pour le niveau 0. L'algorithme stochastique quant à lui, propose des transitions douces mais il a tendance à toujours privilégier le niveau le plus faible. Nous pouvons observer une prépondérance du niveau 1 avec ce système. Ici, les niveaux 0 et 1 sont décroissants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. | |
161 | +Pour leur part, les deux autres systèmes de recommandation testés proposent un fonctionnement différent. L'algorithme déterministe présente trois transitions aux questions 3, 5 et 12. Les tendances y sont relativement homogènes et progressives pour le niveau 3, très variables pour le niveau 2 et fortement décroissantes pour le niveau 0. L'algorithme stochastique quant à lui, propose des transitions douces mais il a tendance à toujours privilégier le niveau le plus faible. Nous pouvons observer une prépondérance du niveau 1 avec ce système. Ici, les niveaux 0 et 1 sont décroissants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. | |
162 | 162 | |
163 | 163 | \begin{figure} |
164 | 164 | \includegraphics[width=\textwidth]{./Figures/comp3.png} |
... | ... | @@ -174,7 +174,7 @@ Les questions de la première et la deuxième séance étant de niveaux 0 et 1, |
174 | 174 | \label{figCmp4} |
175 | 175 | \end{figure} |
176 | 176 | |
177 | -Pour comparer numériquement le système initial, l'algorithme déterministe et l'algorithme de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}). Celles-ci permettent de décrire le système de recommandation idéal si l'objectif de l'apprenant est de suivre un apprentissage standard, c'est à dire le parcours où l'objectif est d'avancer dans l'acquisition de la connaissance et les niveaux de complexité. Une valeur est calculée pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette mesure est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, lui permettant ainsi de renforcer ses connaissances pour ce niveau de complexité. De la même manière, il est attendu que le système de recommandation propose moins d'exercices aux niveaux de complexité pour lesquels les notes moyennes sont élevées, l'étudiant ayant acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées. | |
177 | +Pour comparer numériquement le système initial, l'algorithme déterministe et l'algorithme de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}). Celles-ci permettent de décrire le système de recommandation idéal si l'objectif de l'apprenant est de suivre un apprentissage standard, c'est à dire le parcours où l'objectif est d'avancer dans l'acquisition de la connaissance et les niveaux de complexité. Une valeur est calculée pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette mesure est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, lui permettant ainsi de renforcer ses connaissances pour ce niveau de complexité. De la même manière, il est attendu que le système de recommandation propose moins d'exercices aux niveaux de complexité pour lesquels les notes moyennes sont élevées, l'apprenant ayant acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées. | |
178 | 178 | |
179 | 179 | \begin{equation} |
180 | 180 | %r_c=x+y-2xy |
... | ... | @@ -479,7 +479,7 @@ L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, o |
479 | 479 | \label{fig:Amodel} |
480 | 480 | \end{figure} |
481 | 481 | |
482 | -La première étape est l'adaptation avec l'échantillonnage de Thompson. Vient ensuite la prédiction via ECBR-SMA. Enfin, le processus se termine par la prise de décision concernant la suite de la séance à délivrer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé ainsi que les mesures employées. | |
482 | +La première étape est l'adaptation avec l'échantillonnage de Thompson. Vient ensuite la prédiction via ESCBR-SMA. Enfin, le processus se termine par la prise de décision concernant la suite de la séance à délivrer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé ainsi que les mesures employées. | |
483 | 483 | |
484 | 484 | \begin{table}[!ht] |
485 | 485 | \centering |
... | ... | @@ -654,15 +654,15 @@ La progression du nombre total de connaissances en $t$ est la somme des différe |
654 | 654 | |
655 | 655 | La figure \ref{fig:evolution} montre la progression cumulée des connaissances sur les quinze questions d'une même séance d'entraînement. L'augmentation de la moyenne du niveau de connaissance entre la première et la dernière question de la même séance montre que tous les apprenants ont statistiquement augmenté leur niveau de connaissance. La variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants. À ce stade, la variabilité diminue et la moyenne augmente. |
656 | 656 | |
657 | -\subsubsection{Système de recommandation avec un jeu de données d'étudiants réels} | |
657 | +\subsubsection{Système de recommandation avec un jeu de données d'apprenants réels} | |
658 | 658 | |
659 | -Le système de recommandation TS a été testé avec un ensemble de données adaptées extraites de données réelles d'interactions d'étudiants avec un environnement d'apprentissage virtuel pour différents cours \cite{Kuzilek2017}. Cet ensemble contient les notes de $23366$ apprenants dans différents cours. Les apprenants ont été évalués selon différentes modalités (partiels, projets, QCM) \cite{Data}. Cet ensemble de données a pu être intégré au jeu de données d'AI-VT (notes, temps de réponse et 5 niveaux de complexité). Le test a consisté à générer une recommandation pour l'avant dernière question en fonction des notes précédentes. Ce test a été exécuté 100 fois pour chaque apprenant. Les nombres de questions recommandées sont reportés sur la figure \ref{fig:stabilityBP} pour chaque niveau de complexité. Celle-ci montre que malgré la stochasticité, la variance globale dans tous les niveaux de complexité est faible en fonction du nombre total d'apprenants et du nombre total de recommandations, et démontre ainsi la stabilité de l'algorithme.\ | |
659 | +Le système de recommandation TS a été testé avec un ensemble de données adaptées extraites de données réelles d'interactions d'apprenants avec un environnement d'apprentissage virtuel pour différents cours \cite{Kuzilek2017}. Cet ensemble contient les notes de $23366$ apprenants dans différents cours. Les apprenants ont été évalués selon différentes modalités (partiels, projets, QCM) \cite{Data}. Cet ensemble de données a pu être intégré au jeu de données d'AI-VT (notes, temps de réponse et 5 niveaux de complexité). Le test a consisté à générer une recommandation pour l'avant dernière question en fonction des notes précédentes. Ce test a été exécuté 100 fois pour chaque apprenant. Les nombres de questions recommandées sont reportés sur la figure \ref{fig:stabilityBP2} pour chaque niveau de complexité. Celle-ci montre que malgré la stochasticité, la variance globale dans tous les niveaux de complexité est faible en fonction du nombre total d'apprenants et du nombre total de recommandations, et démontre ainsi la stabilité de l'algorithme.\ | |
660 | 660 | |
661 | 661 | \begin{figure}[!ht] |
662 | 662 | \centering |
663 | 663 | \includegraphics[width=1\linewidth]{Figures/stabilityBoxplot.png} |
664 | 664 | \caption{Nombre de recommandations par niveau de complexité} |
665 | - \label{fig:stabilityBP} | |
665 | + \label{fig:stabilityBP2} | |
666 | 666 | \end{figure} |
667 | 667 | |
668 | 668 | La précision de la recommandation pour tous les apprenants est évaluée en considérant comme comportement correct deux états : i) l'algorithme recommande un niveau où l'apprenant a une note supérieure ou égal à 6 et ii) l'algorithme recommande un niveau inférieur au niveau réel évalué par l'apprenant. Le premier cas montre que l'algorithme a identifié le moment précis où l'apprenant doit augmenter le niveau de complexité, le second cas permet d'établir que l'algorithme propose de renforcer un niveau de complexité plus faible. Puis la précision est calculée comme le rapport entre le nombre d'états correspondant aux comportements corrects définis et le nombre total de recommandations. La figure \ref{fig:precision} montre les résultats de cette métrique après 100 exécutions.\\ |
... | ... | @@ -751,16 +751,16 @@ L'algorithme proposé est une intégration de la recommandation stochastique (fo |
751 | 751 | |
752 | 752 | L'idée de cette unification est d'obtenir des informations d'un point de vue local où une recommandation est obtenue en se fondant sur les informations des apprenants individuels (rôle de l'échantillonnage de Thompson), la prédiction globale fondée sur les expériences acquises précédemment par le système (le système de RàPC fournit des exercices ayant permis par le passé à d'autres apprenants aux profils similaires d'acquérir les connaissances visées), et le processus d'apprentissage dynamique avec le processus de Hawkes. |
753 | 753 | |
754 | -La figure \ref{fig:Amodel} montre de quelle manière sont organisés ces différents modules les uns par rapport aux autres. TS et ESCBR-SMA sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de connaissances. Une fois que les résultats de chaque module sont obtenus, ils sont unifiés par une fonction de pondération et une distribution de probabilité mise à jour dynamiquement selon les événements passés et le niveau de complexité sélectionné. Une dernière étape permet de consolider et d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. | |
754 | +La figure \ref{fig:Amodel2} montre de quelle manière sont organisés ces différents modules les uns par rapport aux autres. TS et ESCBR-SMA sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de connaissances. Une fois que les résultats de chaque module sont obtenus, ils sont unifiés par une fonction de pondération et une distribution de probabilité mise à jour dynamiquement selon les événements passés et le niveau de complexité sélectionné. Une dernière étape permet de consolider et d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. | |
755 | 755 | |
756 | 756 | \begin{figure}[!ht] |
757 | 757 | \centering |
758 | 758 | \includegraphics[width=0.6\linewidth]{Figures/ModelHawkes.png} |
759 | 759 | \caption{Organisation des modules TS, ESCBR-SMA et processus de Hawkes.} |
760 | - \label{fig:Amodel} | |
760 | + \label{fig:Amodel2} | |
761 | 761 | \end{figure} |
762 | 762 | |
763 | -La première étape est l'adaptation avec l'échantillonnage de Thompson et la prédiction de l'ECBR-SMA. Celle-ci est suivie par la prise de décision pour l'envoi à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité pour l'apprenant et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé et les mesures employées. | |
763 | +La première étape est l'adaptation avec l'échantillonnage de Thompson et la prédiction de l'ESCBR-SMA. Celle-ci est suivie par la prise de décision pour l'envoi à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité pour l'apprenant et l'ESCBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé et les mesures employées. | |
764 | 764 | |
765 | 765 | Après la sélection du niveau de complexité, toutes les distributions de probabilité sont mises à jour selon le processus de Hawkes (équation \ref{hp1}) pour chaque paramètre $\alpha$ et $\beta$ en utilisant la fonction d'intensité définie constante (équations \ref{hp21} et \ref{hp22}) et la fonction d'excitation (équation \ref{hp30} avec des valeurs $\alpha=10$ et $\beta=0.02$ équation \ref{hp31}), afin de simuler la courbe d'oubli dans l'évolution de la distribution de probabilité \textit{Beta}. |
766 | 766 | |
... | ... | @@ -819,9 +819,7 @@ Et pour chaque niveau de complexité $c$, l'équation \ref{eqBetaH} décrit la d |
819 | 819 | |
820 | 820 | \subsection{Résultats et Discussion} |
821 | 821 | |
822 | -\subsubsection{Système de recommandation avec un jeu de données d'étudiants réels (TS avec Hawkes)} | |
823 | - | |
824 | -Le système de recommandation TS a été testé avec un ensemble de données adaptées extraites des données réelles des interactions des étudiants avec un environnement d'apprentissage virtuel pour différents cours \cite{Kuzilek2017}. Cet ensemble de données compte 23366 apprenants répartis dans différents cours et évalués de différentes manières \cite{Data}. | |
822 | +Le système de recommandation TS a été testé avec un ensemble de données adaptées extraites des données réelles des interactions des apprenants avec un environnement d'apprentissage virtuel pour différents cours \cite{Kuzilek2017}. Cet ensemble de données compte 23366 apprenants répartis dans différents cours et évalués de différentes manières \cite{Data}. | |
825 | 823 | |
826 | 824 | Le format de cet ensemble de données est adapté à la structure de la connaissance dans AI-VT (notes, temps de réponse et niveau de complexité), et les exercices y sont répartis en cinq niveaux de complexité. La figure \ref{fig:stabilityBP} montre le nombre de recommandations générées par un processus d'apprentissage statique et par le module dynamique associant TS au processus de Hawkes, sur les différents niveaux de complexité. Cette figure montre les moyennes obtenues avec 100 exécutions des algorithmes. La faible variance globale obtenue dans tous les niveaux de complexité montre la stabilité des recommandations. |
827 | 825 | |
... | ... | @@ -835,8 +833,6 @@ Le format de cet ensemble de données est adapté à la structure de la connaiss |
835 | 833 | |
836 | 834 | Le module incluant le processus de Hawkes recommande plus de niveaux de faible complexité car la connaissance tend à diminuer avec le temps, avant de tendre à renforcer la connaissance dans tous les niveaux de complexité. La configuration initiale privilégiant les niveaux inférieurs (grâce à une plus grande probabilité), le module tend à répéter les niveaux plus accessibles nécessaires pour atteindre les niveaux supérieurs. |
837 | 835 | |
838 | -\subsubsection{Mesures de performances} | |
839 | - | |
840 | 836 | Pour mesurer les performances des différents modules, nous avons utilisé le même jeu de données simulées que dans la section précédente. |
841 | 837 | La comparaison est faite avec la métrique décrite dans l'équation \ref{metric1}, où $x_c$ est la moyenne des notes, $y_c$ est le nombre de questions pour chaque niveau de complexité $c$. |
842 | 838 |
chapters/contexte2.aux
View file @
4b1afa3
... | ... | @@ -6,6 +6,7 @@ |
6 | 6 | \@writefile{toc}{\contentsline {chapter}{\numberline {2}Contexte}{9}{chapter.2}\protected@file@percent } |
7 | 7 | \@writefile{lof}{\addvspace {10\p@ }} |
8 | 8 | \@writefile{lot}{\addvspace {10\p@ }} |
9 | +\newlabel{chap:contexte}{{2}{9}{Contexte}{chapter.2}{}} | |
9 | 10 | \@writefile{toc}{\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{9}{section.2.1}\protected@file@percent } |
10 | 11 | \@writefile{toc}{\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{9}{subsection.2.1.1}\protected@file@percent } |
11 | 12 | \citation{Nkambou} |
... | ... | @@ -64,9 +65,9 @@ |
64 | 65 | \newlabel{eqCentres}{{2.11}{19}{K-Moyennes}{equation.2.2.11}{}} |
65 | 66 | \newlabel{eqApp}{{2.12}{19}{K-Moyennes}{equation.2.2.12}{}} |
66 | 67 | \citation{9627973} |
67 | -\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}\protected@file@percent } | |
68 | -\newlabel{eqGMM}{{2.13}{20}{Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.13}{}} | |
69 | -\newlabel{eqdProb}{{2.14}{20}{Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.14}{}} | |
68 | +\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}\protected@file@percent } | |
69 | +\newlabel{eqGMM}{{2.13}{20}{Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.13}{}} | |
70 | +\newlabel{eqdProb}{{2.14}{20}{Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.14}{}} | |
70 | 71 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{20}{subsubsection.2.2.3.5}\protected@file@percent } |
71 | 72 | \newlabel{eqFuzzy}{{2.15}{20}{Fuzzy-C}{equation.2.2.15}{}} |
72 | 73 | \newlabel{eqFCond}{{2.16}{20}{Fuzzy-C}{equation.2.2.16}{}} |
chapters/contexte2.tex
View file @
4b1afa3
1 | -\chapter{Contexte} | |
1 | +\chapter{Contexte}\label{chap:contexte} | |
2 | 2 | |
3 | 3 | Dans ce chapitre sont décrits plus en détails le contexte applicatif et le contexte technique de ces travaux de recherche. Il présente les concepts et algorithmes utilisés dans le développement des modules. Ces modules font partie des contributions de cette thèse à l'environnement informatique pour l'apprentissage humain (EIAH) appelé AI-VT (\textit{Artificial Intelligence - Artificial Trainer}). |
4 | 4 | |
... | ... | @@ -33,7 +33,7 @@ Il existe également des stratégies hybrides combinant des caractéristiques de |
33 | 33 | |
34 | 34 | Les EIAH sont des outils pour aider les apprenants dans le processus d'apprentissage et l'acquisition de la connaissance. Ces outils sont conçus pour fonctionner avec des stratégies d'apprentissage en ligne et mixtes. Généralement, l'architecture de ces systèmes est divisée en quatre composants comme le montre la figure \figref{figEIAH}. Ces composants sont : |
35 | 35 | \begin{itemize} |
36 | -\item Le \textit{domaine} (\textit{ Modèle du domain} sur la figure \figref{figEIAH}), qui contient les concepts, les règles et les stratégies pour résoudre des problèmes dans un domaine spécifique. Ce composant peut détecter et corriger les erreurs des apprenants. En général, l'information est divisée en séquences pédagogiques. | |
36 | +\item Le \textit{domaine} (\textit{Modèle du domaine} sur la figure \figref{figEIAH}), qui contient les concepts, les règles et les stratégies pour résoudre des problèmes dans un domaine spécifique. Ce composant peut détecter et corriger les erreurs des apprenants. En général, l'information est divisée en séquences pédagogiques. | |
37 | 37 | \item Le composant \textit{apprenant} (\textit{Modèle de l'apprenant} sur la figure \figref{figEIAH}), qui est le noyau du système car il contient toute l'information utile à l'EIAH concernant l'apprenant (\textit{Utilisateur-Apprenant} sur la figure \figref{figEIAH}). Ce composant contient également les informations sur l'évolution de l'acquisition des compétences de l'apprenant. Ce module doit avoir les informations implicites et explicites pour pouvoir créer une représentation des connaissances acquises, non et partiellement acquises et l'évolution de l'apprentissage de l'apprenant. Ces informations doivent permettre de générer un diagnostic de l'état de la connaissance de l'apprenant, à partir duquel le système peut prédire les résultats dans certains domaines et choisir la stratégie optimale pour présenter les nouveaux contenus. |
38 | 38 | \item L'\textit{enseignant} (\textit{Modèle du Tutorat} sur la figure \figref{figEIAH}) est également modélisé sous la forme d'un composant. Il reçoit l'information des modules précédents, information grâce à laquelle il peut prendre des décisions sur le changement de parcours ou sur la stratégie d'apprentissage. Il peut également interagir avec l'apprenant. |
39 | 39 | \item L'\textit{interface} (\textit{Interface} sur la figure \figref{figEIAH}) est le module chargé de la gestion des configurations de l'EIAH et des interactions entre ses composants. |
... | ... | @@ -66,9 +66,9 @@ Le développement et la configuration de ce type de systèmes relèvent de multi |
66 | 66 | |
67 | 67 | Le DISC travaille depuis plusieurs années sur l'utilisation potentielle de l'intelligence artificielle dans le cadre d'un exerciseur couvrant plusieurs domaines d'apprentissage. Cet exerciseur, appelé AI-VT(Artificial Intelligence Virtual Trainer) est fondé sur différents concepts d'intelligence artificielle et ses domaines d'application sont l'apprentissage de l'aïkido, des bases de l'algorithmique et de l'anglais. Un premier réseau de convolution détermine les lacunes de l'apprenant en analysant les résultats de quelques exercices préliminaires. Puis un système de raisonnement à partir de cas distribué prend le relais et détermine une liste d'exercices à proposer en regard de ses lacunes et en tenant compte des séances qui ont déjà été proposées par le système à cet apprenant. |
68 | 68 | |
69 | -Dans le système AI-VT, une séance d'entraînement est proposée dans le cadre d'un cycle d'entraînement. Ainsi, un exercice proposé en première séance du cycle peut être reproposé ensuite dans une autre séance, afin de consolider les acquis et de remettre en mémoire certaines connaissances à l'apprenant. Une séance est entièrement consacrée à une seule et même compétence, déclinée en plusieurs sous-compétences. Des exercices dans différentes sous-compétences sont proposées à chaque séance. Les exercices d'une même sous-compétence sont regroupés. Un même exercice pouvant permettre de travailler deux sous-compétences différentes, un mécanisme de règlement des conflits a été implémenté dans AI-VT afin qu'un même exercice ne puisse être proposé plus d'une seule fois dans une même séance d'entraînement. Dans AI-VT, l'énoncé d'un exercice est constitué de deux parties : le contexte et la question. Cette structure modulaire permet d'associer plusieurs questions à un même contexte et inversement. Les réponses apportées par les apprenants à chaque exercice sont notées sur 10 points et le temps mis pour répondre à chaque question est comptabilisée. L'étudiant dispose d'une interface présentant un tableau de bord des exercices, sous-compétences et compétences qu'il ou elle a travaillé. | |
69 | +Dans le système AI-VT, une séance d'entraînement est proposée dans le cadre d'un cycle d'entraînement. Ainsi, un exercice proposé en première séance du cycle peut être reproposé ensuite dans une autre séance, afin de consolider les acquis et de remettre en mémoire certaines connaissances à l'apprenant. Une séance est entièrement consacrée à une seule et même compétence, déclinée en plusieurs sous-compétences. Des exercices dans différentes sous-compétences sont proposées à chaque séance. Les exercices d'une même sous-compétence sont regroupés. Un même exercice pouvant permettre de travailler deux sous-compétences différentes, un mécanisme de règlement des conflits a été implémenté dans AI-VT afin qu'un même exercice ne puisse être proposé plus d'une seule fois dans une même séance d'entraînement. Dans AI-VT, l'énoncé d'un exercice est constitué de deux parties : le contexte et la question. Cette structure modulaire permet d'associer plusieurs questions à un même contexte et inversement. Les réponses apportées par les apprenants à chaque exercice sont notées sur 10 points et le temps mis pour répondre à chaque question est comptabilisé. L'apprenant dispose d'une interface présentant un tableau de bord des exercices, sous-compétences et compétences qu'il ou elle a travaillé. | |
70 | 70 | |
71 | -Pour l'apprentissage de l'Anglais, un robot est chargé d'énoncer les exercices de la séance. Au démarrage de cette thèse, les apprenants ont une liste personnalisée d'exercices proposée par le système AI-VT, mais c'est à l'enseignant de vérifier la validité des algorithmes/solutions proposés par les étudiants et d'identifier leurs difficultés. L'amélioration du système et de la personnalisation du parcours de l'apprenant implique une correction automatique des exercices et cela sans utiliser un entraînement spécifique à chaque exercice, mais cet objectif ne fait pas partie de cette thèse. La définition de profils d'apprenants par le recueil de traces reste également à travailler pour optimiser les aides et séances d'exercices. | |
71 | +Pour l'apprentissage de l'anglais, un robot est chargé d'énoncer les exercices de la séance. Au démarrage de cette thèse, les apprenants ont une liste personnalisée d'exercices proposée par le système AI-VT, mais c'est à l'enseignant de vérifier la validité des algorithmes/solutions proposés par les apprenants et d'identifier leurs difficultés. L'amélioration du système et de la personnalisation du parcours de l'apprenant implique une correction automatique des exercices et cela sans utiliser un entraînement spécifique à chaque exercice, mais cet objectif ne fait pas partie de cette thèse. La définition de profils d'apprenants par le recueil de traces reste également à travailler pour optimiser les aides et séances d'exercices. | |
72 | 72 | |
73 | 73 | Le système AI-VT a été implémenté en se fondant sur deux paradigmes de l'IA : la séance d'entraînement est construite par différents modules suivant la philosophie du raisonnement à partir de cas, et l'architecture logicielle a été modélisée selon un système multi-agents. Une présentation sommaire de ces deux paradigmes de l'IA sont présentés dans cette section, et celles-ci sont suivies de la présentation de différents algorithmes et fonctions implémentés dans l'EIAH AI-VT. Des états de l'art plus complets sur les EIAH et le RàPC sont présentés dans le chapitre suivant. Le système AI-VT, son architecture et les évolutions qui ont été réalisées sur celle-ci sont détaillés dans le chapitre 4. |
74 | 74 | |
... | ... | @@ -78,7 +78,7 @@ Le système AI-VT a été implémenté en se fondant sur deux paradigmes de l'IA |
78 | 78 | |
79 | 79 | Le raisonnement à partir de cas est un modèle de raisonnement fondé sur l'hypothèse que les problèmes similaires ont des solutions similaires. Ainsi, les systèmes de RàPC infèrent une solution à un problème posé à partir des solutions mises en œuvre auparavant pour résoudre d'autres problèmes similaires \cite{ROLDANREYES20151}. |
80 | 80 | |
81 | -Un cas est défini comme étant la représentation d'un problème et la description de sa solution. Les cas résolus sont stockés et permettent au système de RàPC de construire de nouveaux cas à partir de ceux-ci. Formellement, si $P$ est l'espace des problèmes et $S$ l'espace des solutions, alors un problème $x$ et sa solution $y$ appartiennent à ces espaces : $x \in P$ et $y \in S$. Si $y$ est solution de $x$ alors, un cas est représenté par le couple $(x,y) \in P \times S$. Le RàPC a besoin d'une base de $N$ problèmes et de leurs solutions associées. Cette base est appelée base de cas. Ainsi tout cas d'indice $n \in [1,N]$ de cette base de cas est formalisé de la manière suivante : $(x^n, y^n)$. L'objectif du RàPC est, étant donné un nouveau problème $x^z$ de trouver sa solution $y^z$ en utilisant les cas stockés dans la base de cas \cite{10.1007/978-3-030-58342-2_20}. | |
81 | +Un cas est défini comme étant la représentation d'un problème et la description de sa solution. Les cas résolus sont stockés et permettent au système de RàPC de construire de nouveaux cas à partir de ceux-ci. Formellement, si $P$ est l'espace des problèmes et $S$ l'espace des solutions, alors un problème $x$ et sa solution $y$ appartiennent à ces espaces : $x \in P$ et $y \in S$. Si $y$ est solution de $x$ alors, un cas est représenté par le couple $(x,y) \in P \times S$. Le RàPC a besoin d'une base de $N$ problèmes et de leurs solutions associées. Cette base est appelée base de cas. Ainsi tout cas d'indice $n \in [1,N]$ de cette base de cas est formalisé de la manière suivante : $(x^n, y^n)$. L'objectif du RàPC est, étant donné un nouveau problème $x^z$, de trouver sa solution $y^z$ en utilisant les cas stockés dans la base de cas \cite{10.1007/978-3-030-58342-2_20}. | |
82 | 82 | |
83 | 83 | \mfigure[!ht]{width=\textwidth}{./Figures/cycle.png}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite{min8100434})}{figCycle} |
84 | 84 | |
... | ... | @@ -187,7 +187,7 @@ Il existe quatre types d'agent en fonction des capacités et des approches: |
187 | 187 | |
188 | 188 | \subsubsection{Pensée Bayesienne} |
189 | 189 | |
190 | -D'après les travaux de certains mathématiciens et neuroscientifiques, toute forme de cognition peut être modélisée dans le cadre de la formule de Bayes (équation \ref{eqBayes}), car elle permet de tester différentes hypothèses et donner plus de crédibilité à celle qui est confirmée par les observations. Étant donné que ce type de modèle cognitif permet l'apprentissage optimal, la prédiction sur les événements passés, l'échantillonnage représentatif et l'inférence d'information manquante; il est appliqué dans quelques algorithmes de machine learning et d'intelligence artificielle \cite{Hoang}. | |
190 | +D'après les travaux de certains mathématiciens et neuroscientifiques, toute forme de cognition peut être modélisée dans le cadre de la formule de Bayes (équation \ref{eqBayes}), car elle permet de tester différentes hypothèses et donner plus de crédibilité à celle qui est confirmée par les observations. Étant donné que ce type de modèle cognitif permet l'apprentissage optimal, la prédiction sur les événements passés, l'échantillonnage représentatif et l'inférence d'information manquante; il est appliqué dans quelques algorithmes d'apprentissage machine (\textit{machine learning}) et d'intelligence artificielle \cite{Hoang}. | |
191 | 191 | |
192 | 192 | \begin{equation} |
193 | 193 | P(A|B)=\frac{P(B|A)P(A)}{P(B)} |
... | ... | @@ -200,7 +200,7 @@ Par la suite, nous explicitons quelques algorithmes, intégrés généralement d |
200 | 200 | |
201 | 201 | \subsubsection{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)} |
202 | 202 | |
203 | -Comme est défini dans \cite{10.1145/3459665}, la méthode des 'k' plus proches voisins est une méthode pour classifier des données dans des classes spécifiques. Pour faire cela, il est nécessaire de disposer d'une base de données avec des exemples déjà identifiés. Pour classer de nouveaux exemples, la méthode attribue la même classe que celle de leurs voisins les plus proches. Généralement, l'algorithme compare les caractéristiques d'une entité avec plusieurs possibles voisins pour essayer d'obtenir des résultats plus précis. 'k' représente le nombre de voisins, sachant que l'algorithme peut être exécuté à chaque fois avec un nombre différent de voisins. | |
203 | +Comme est défini dans \cite{10.1145/3459665}, la méthode des 'k' plus proches voisins est une méthode pour classifier des données. Pour faire cela, il est nécessaire de disposer d'une base de données avec des exemples déjà identifiés. Pour classer de nouveaux exemples, la méthode attribue la même classe que celle de leurs voisins les plus proches. Généralement, l'algorithme compare les caractéristiques d'une entité avec plusieurs possibles voisins pour essayer d'obtenir des résultats plus précis. 'k' représente le nombre de voisins, sachant que l'algorithme peut être exécuté à chaque fois avec un nombre différent de voisins. | |
204 | 204 | |
205 | 205 | Étant donné un jeu de données $D$ constitué de $(x_i)_{i \in [1,n]}$ données (où $n = |D|$). Chacune des données est décrite par $F$ caractéristiques qui sont des valeurs numériques normalisées $[0,1]$, et par une classe de labellisation $y_j \in Y$. Le but est de classifier une donnée inconnue $q$. Pour chaque $x_i \in D$, il est possible de calculer la distance entre $q$ et $x_i$ selon l'équation \ref{eqDist}. |
206 | 206 | |
... | ... | @@ -281,7 +281,7 @@ z_{ik}=\begin{cases}1 & si \; \parallel x_i - a_k \parallel ^2=min_{1 \le k \le |
281 | 281 | \label{eqApp} |
282 | 282 | \end{equation} |
283 | 283 | |
284 | -\subsubsection{Modèle de Mélange Gaussien GMM (\textit{Gaussian Mixture Model})} | |
284 | +\subsubsection{Modèle de mélange Gaussien GMM (\textit{Gaussian Mixture Model})} | |
285 | 285 | |
286 | 286 | Le modèle de mélange gaussien (GMM) est un modèle probabiliste composé de plusieurs modèles gaussiens simples. Ce modèle est décrit dans \cite{WANG2021331}. En considérant une variable d'entrée multidimensionnelle $x=\{x_1, x_2, ..., x_d\}$, GMM multivarié est défini selon dans l'équation \ref{eqGMM}. |
287 | 287 | |
... | ... | @@ -299,10 +299,10 @@ g(x; \mu, \Sigma)=\frac{1}{(2\pi)^{n/2} \lvert \Sigma \rvert ^{1/2}} exp \left( |
299 | 299 | \label{eqdProb} |
300 | 300 | \end{equation} |
301 | 301 | |
302 | -La tâche principale est d'obtenir les paramètres $\alpha_k, \theta_k$ pour tout $k$ défini dans GMM en utilisant un ensemble de données avec $N$ échantillons d'entraînement. Une solution classique pour l'estimation des paramètres requis utilise l'algorithme de maximisation des attentes (Expectation-Maximization EM), qui vise à maximiser la vraisemblance de l'ensemble de données. Il s'agit d'un algorithme itératif durant lequel les paramètres sont continuellement mis à jour jusqu'à ce que la valeur delta log-vraisemblance entre deux itérations soit inférieure à un seuil donné. | |
302 | +La tâche principale est d'obtenir les paramètres $\alpha_k, \theta_k$ pour tout $k$ défini dans GMM en utilisant un ensemble de données avec $N$ échantillons d'entraînement. Une solution classique pour l'estimation des paramètres requis utilise l'algorithme de maximisation des attentes (\textit{Expectation-Maximization} - EM), qui vise à maximiser la vraisemblance de l'ensemble de données. Il s'agit d'un algorithme itératif durant lequel les paramètres sont continuellement mis à jour jusqu'à ce que la valeur delta log-vraisemblance entre deux itérations soit inférieure à un seuil donné. | |
303 | 303 | |
304 | 304 | \subsubsection{Fuzzy-C} |
305 | -Fuzzy C-Means Clustering (FCM) est un algorithme de clustering flou non supervisé largement utilisé \cite{9627973}. Le FCM utilise comme mesure de distance la mesure euclidienne. Supposons d'abord que l'ensemble d'échantillons à regrouper est $X=\{x_1,x_2,...,x_n\}$, où $x_j \in R^d(1 \le j \le n)$ dans un espace Euclidien à $d$ dimensions, et $c$ le nombre de clusters. L'équation \ref{eqFuzzy} montre la fonction objectif de FCM. | |
305 | +Fuzzy C-Means Clustering (FCM) est un algorithme de clustering flou non supervisé largement utilisé \cite{9627973}. Le FCM utilise comme mesure de distance la mesure euclidienne. Supposons d'abord que l'ensemble d'échantillons à regrouper est $X=\{x_1,x_2,...,x_n\}$, où $x_j \in R^d(1 \le j \le n)$ dans un espace euclidien à $d$ dimensions, et $c$ le nombre de clusters. L'équation \ref{eqFuzzy} montre la fonction objectif de FCM. | |
306 | 306 | |
307 | 307 | \begin{equation} |
308 | 308 | J(U,V)=\sum_{i=1}^c \sum_{j=1}^n u_{ij}^m (x_j - v_i)^T A(x_j-v_i) |
... | ... | @@ -338,7 +338,7 @@ Dans \cite{9434422} MAB est décrit comme un problème qui appartient au domaine |
338 | 338 | |
339 | 339 | Comme indiqué dans \cite{9870279}, l'algorithme d'échantillonnage de Thompson est un algorithme de type probabiliste utilisé généralement pour résoudre le problème MAB. Il s'appuie sur un modèle bayésien dans lequel une distribution de probabilités \textit{Beta} est initialisée. Cette distribution de probabilités est ensuite affinée de manière à optimiser la valeur résultat à estimer. Les valeurs initiales des probabilités de Beta sont définies sur l'intervalle $[0, 1]$. Elle est définie à l'aide de deux paramètres $\alpha$ et $\beta$. |
340 | 340 | |
341 | -L'échantillonnage de Thompson peut être appliqué à la résolution du problème du Bandit Manchot(MAB). Dans ce cas, les actions définies dans le MAB ont chacune une incidence sur la distribution de probabilités Beta de l'échantillonnage de Thompson. Pour chaque action de MAB, les paramètres de Beta sont initialisés à 1. Ces valeurs changent et sont calculées à partir de récompenses obtenues : si au moment d'exécuter une action spécifique le résultat est un succès, alors la valeur du paramètre $\alpha$ de sa distribution Beta augmente mais si le résultat est un échec alors c'est la valeur du paramètre $\beta$ de sa distribution Beta qui augmente. De cette façon, la distribution pour chacune des actions possibles est ajustée en privilégiant les actions qui génèrent le plus de récompenses. | |
341 | +L'échantillonnage de Thompson peut être appliqué à la résolution du problème du Bandit Manchot (MAB). Dans ce cas, les actions définies dans le MAB ont chacune une incidence sur la distribution de probabilités Beta de l'échantillonnage de Thompson. Pour chaque action de MAB, les paramètres de Beta sont initialisés à 1. Ces valeurs changent et sont calculées à partir de récompenses obtenues : si au moment d'exécuter une action spécifique le résultat est un succès, alors la valeur du paramètre $\alpha$ de sa distribution Beta augmente mais si le résultat est un échec alors c'est la valeur du paramètre $\beta$ de sa distribution Beta qui augmente. De cette façon, la distribution pour chacune des actions possibles est ajustée en privilégiant les actions qui génèrent le plus de récompenses. | |
342 | 342 | |
343 | 343 | L'échantillonnage de Thompson est un cas particulier de la loi de Dirichlet comme le montre la figure \figref{figBeta}. L'équation \ref{eqBeta} décrit formellement la famille des courbes générées par la distribution Beta. |
344 | 344 | |
... | ... | @@ -360,4 +360,4 @@ B(x, \alpha, \beta) = |
360 | 360 | \label{eqBeta} |
361 | 361 | \end{equation} |
362 | 362 | |
363 | 363 | -La section suivante présente un état de l'art plus détaillé des EIAH et des systèmes de RàPC dédiés aux EIAH. |
364 | +La section suivante présente un état de l'art plus détaillé des EIAH et des systèmes de RàPC dédiés aux EIAH. | |
364 | 365 | \ No newline at end of file |
main.log
View file @
4b1afa3
1 | -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 18 JUL 2025 13:42 | |
1 | +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 21 JUL 2025 16:18 | |
2 | 2 | entering extended mode |
3 | 3 | restricted \write18 enabled. |
4 | 4 | %&-line parsing enabled. |
... | ... | @@ -986,12 +986,6 @@ Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead. |
986 | 986 | |
987 | 987 | LaTeX Warning: Label `eqBeta' multiply defined. |
988 | 988 | |
989 | - | |
990 | -LaTeX Warning: Label `fig:Amodel' multiply defined. | |
991 | - | |
992 | - | |
993 | -LaTeX Warning: Label `fig:stabilityBP' multiply defined. | |
994 | - | |
995 | 989 | ) (./chapters/Conclusions.aux) (./chapters/Publications.aux)) |
996 | 990 | \openout1 = `main.aux'. |
997 | 991 | |
... | ... | @@ -1139,13 +1133,13 @@ Package hyperref Info: Link coloring OFF on input line 231. |
1139 | 1133 | * \@reversemarginfalse |
1140 | 1134 | * (1in=72.27pt=25.4mm, 1cm=28.453pt) |
1141 | 1135 | |
1142 | -<images_logos/image1_logoUBFC_grand.png, id=385, 610.4406pt x 217.0509pt> | |
1136 | +<images_logos/image1_logoUBFC_grand.png, id=377, 610.4406pt x 217.0509pt> | |
1143 | 1137 | File: images_logos/image1_logoUBFC_grand.png Graphic file (type png) |
1144 | 1138 | <use images_logos/image1_logoUBFC_grand.png> |
1145 | 1139 | Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input |
1146 | 1140 | line 237. |
1147 | 1141 | (pdftex.def) Requested size: 142.25905pt x 50.57973pt. |
1148 | -<images_logos/logo_UFC_2018_transparence.png, id=387, 104.5506pt x 34.6896pt> | |
1142 | +<images_logos/logo_UFC_2018_transparence.png, id=379, 104.5506pt x 34.6896pt> | |
1149 | 1143 | File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png) |
1150 | 1144 | <use images_logos/logo_UFC_2018_transparence.png> |
1151 | 1145 | Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i |
... | ... | @@ -1200,32 +1194,27 @@ Underfull \vbox (badness 1043) has occurred while \output is active [] |
1200 | 1194 | |
1201 | 1195 | ] |
1202 | 1196 | [6] [7] |
1203 | -Overfull \hbox (1.29184pt too wide) detected at line 89 | |
1197 | +Overfull \hbox (1.29184pt too wide) detected at line 88 | |
1204 | 1198 | [][]\T1/phv/m/n/10.95 100[] |
1205 | 1199 | [] |
1206 | 1200 | |
1207 | 1201 | |
1208 | 1202 | Overfull \hbox (1.29184pt too wide) detected at line 90 |
1209 | - [][]\T1/phv/m/n/10.95 100[] | |
1210 | - [] | |
1211 | - | |
1212 | - | |
1213 | -Overfull \hbox (1.29184pt too wide) detected at line 92 | |
1214 | 1203 | [][]\T1/phv/m/n/10.95 103[] |
1215 | 1204 | [] |
1216 | 1205 | |
1217 | 1206 | |
1218 | -Overfull \hbox (1.29184pt too wide) detected at line 93 | |
1207 | +Overfull \hbox (1.29184pt too wide) detected at line 91 | |
1219 | 1208 | [][]\T1/phv/m/n/10.95 105[] |
1220 | 1209 | [] |
1221 | 1210 | |
1222 | 1211 | |
1223 | -Overfull \hbox (1.29184pt too wide) detected at line 95 | |
1212 | +Overfull \hbox (1.29184pt too wide) detected at line 93 | |
1224 | 1213 | [][]\T1/phv/m/n/10.95 107[] |
1225 | 1214 | [] |
1226 | 1215 | |
1227 | 1216 | |
1228 | -Overfull \hbox (1.29184pt too wide) detected at line 96 | |
1217 | +Overfull \hbox (1.29184pt too wide) detected at line 94 | |
1229 | 1218 | [][]\T1/phv/m/n/10.95 108[] |
1230 | 1219 | [] |
1231 | 1220 | |
... | ... | @@ -1241,9 +1230,9 @@ Chapitre 1. |
1241 | 1230 | Package lettrine.sty Info: Targeted height = 19.96736pt |
1242 | 1231 | (lettrine.sty) (for loversize=0, accent excluded), |
1243 | 1232 | (lettrine.sty) Lettrine height = 20.612pt (\uppercase {C}); |
1244 | -(lettrine.sty) reported on input line 340. | |
1233 | +(lettrine.sty) reported on input line 342. | |
1245 | 1234 | |
1246 | -Overfull \hbox (6.79999pt too wide) in paragraph at lines 340--340 | |
1235 | +Overfull \hbox (6.79999pt too wide) in paragraph at lines 342--342 | |
1247 | 1236 | [][][][] |
1248 | 1237 | [] |
1249 | 1238 | |
... | ... | @@ -1260,7 +1249,7 @@ Underfull \vbox (badness 10000) has occurred while \output is active [] |
1260 | 1249 | |
1261 | 1250 | (./chapters/contexte2.tex |
1262 | 1251 | Chapitre 2. |
1263 | -<./Figures/TLearning.png, id=566, 603.25375pt x 331.2375pt> | |
1252 | +<./Figures/TLearning.png, id=556, 603.25375pt x 331.2375pt> | |
1264 | 1253 | File: ./Figures/TLearning.png Graphic file (type png) |
1265 | 1254 | <use ./Figures/TLearning.png> |
1266 | 1255 | Package pdftex.def Info: ./Figures/TLearning.png used on input line 15. |
... | ... | @@ -1269,7 +1258,7 @@ Package pdftex.def Info: ./Figures/TLearning.png used on input line 15. |
1269 | 1258 | |
1270 | 1259 | |
1271 | 1260 | ] |
1272 | -<./Figures/EIAH.png, id=575, 643.40375pt x 362.35374pt> | |
1261 | +<./Figures/EIAH.png, id=565, 643.40375pt x 362.35374pt> | |
1273 | 1262 | File: ./Figures/EIAH.png Graphic file (type png) |
1274 | 1263 | <use ./Figures/EIAH.png> |
1275 | 1264 | Package pdftex.def Info: ./Figures/EIAH.png used on input line 32. |
... | ... | @@ -1279,13 +1268,13 @@ Package pdftex.def Info: ./Figures/EIAH.png used on input line 32. |
1279 | 1268 | LaTeX Warning: `!h' float specifier changed to `!ht'. |
1280 | 1269 | |
1281 | 1270 | [10 <./Figures/TLearning.png>] [11 <./Figures/EIAH.png>] [12] |
1282 | -<./Figures/cycle.png, id=603, 668.4975pt x 665.48625pt> | |
1271 | +<./Figures/cycle.png, id=593, 668.4975pt x 665.48625pt> | |
1283 | 1272 | File: ./Figures/cycle.png Graphic file (type png) |
1284 | 1273 | <use ./Figures/cycle.png> |
1285 | 1274 | Package pdftex.def Info: ./Figures/cycle.png used on input line 83. |
1286 | 1275 | (pdftex.def) Requested size: 427.43153pt x 425.51372pt. |
1287 | 1276 | [13 <./Figures/cycle.png>] |
1288 | -<./Figures/Reuse.png, id=625, 383.4325pt x 182.6825pt> | |
1277 | +<./Figures/Reuse.png, id=615, 383.4325pt x 182.6825pt> | |
1289 | 1278 | File: ./Figures/Reuse.png Graphic file (type png) |
1290 | 1279 | <use ./Figures/Reuse.png> |
1291 | 1280 | Package pdftex.def Info: ./Figures/Reuse.png used on input line 112. |
... | ... | @@ -1300,7 +1289,7 @@ Underfull \hbox (badness 10000) in paragraph at lines 112--112 |
1300 | 1289 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1301 | 1290 | |
1302 | 1291 | [15 <./Figures/Reuse.png>] |
1303 | -<./Figures/CycleCBR.png, id=646, 147.1899pt x 83.8332pt> | |
1292 | +<./Figures/CycleCBR.png, id=635, 147.1899pt x 83.8332pt> | |
1304 | 1293 | File: ./Figures/CycleCBR.png Graphic file (type png) |
1305 | 1294 | <use ./Figures/CycleCBR.png> |
1306 | 1295 | Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156. |
... | ... | @@ -1358,7 +1347,7 @@ LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined |
1358 | 1347 | LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined |
1359 | 1348 | (Font) using `T1/phv/m/it' instead on input line 337. |
1360 | 1349 | |
1361 | -<./Figures/beta-distribution.png, id=722, 621.11293pt x 480.07928pt> | |
1350 | +<./Figures/beta-distribution.png, id=712, 621.11293pt x 480.07928pt> | |
1362 | 1351 | File: ./Figures/beta-distribution.png Graphic file (type png) |
1363 | 1352 | <use ./Figures/beta-distribution.png> |
1364 | 1353 | Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34 |
... | ... | @@ -1386,7 +1375,7 @@ Underfull \hbox (badness 1874) in paragraph at lines 24--25 |
1386 | 1375 | tre le tra-vail de |
1387 | 1376 | [] |
1388 | 1377 | |
1389 | -<./Figures/architecture.png, id=752, 776.9025pt x 454.69875pt> | |
1378 | +<./Figures/architecture.png, id=742, 776.9025pt x 454.69875pt> | |
1390 | 1379 | File: ./Figures/architecture.png Graphic file (type png) |
1391 | 1380 | <use ./Figures/architecture.png> |
1392 | 1381 | Package pdftex.def Info: ./Figures/architecture.png used on input line 38. |
... | ... | @@ -1395,7 +1384,7 @@ Package pdftex.def Info: ./Figures/architecture.png used on input line 38. |
1395 | 1384 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1396 | 1385 | |
1397 | 1386 | [25 <./Figures/architecture.png>] |
1398 | -<./Figures/ELearningLevels.png, id=781, 602.25pt x 612.78937pt> | |
1387 | +<./Figures/ELearningLevels.png, id=772, 602.25pt x 612.78937pt> | |
1399 | 1388 | File: ./Figures/ELearningLevels.png Graphic file (type png) |
1400 | 1389 | <use ./Figures/ELearningLevels.png> |
1401 | 1390 | Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 62. |
... | ... | @@ -1414,6 +1403,8 @@ Overfull \hbox (2.56369pt too wide) in paragraph at lines 82--82 |
1414 | 1403 | []|\T1/phv/m/n/9 [[]]| |
1415 | 1404 | [] |
1416 | 1405 | |
1406 | +LaTeX Font Info: Font shape `T1/phv/m/it' in size <9> not available | |
1407 | +(Font) Font shape `T1/phv/m/sl' tried instead on input line 86. | |
1417 | 1408 | |
1418 | 1409 | Overfull \hbox (0.5975pt too wide) in paragraph at lines 77--93 |
1419 | 1410 | [][] |
... | ... | @@ -1430,11 +1421,16 @@ Chapitre 4. |
1430 | 1421 | |
1431 | 1422 | |
1432 | 1423 | ] [30] |
1433 | -Underfull \hbox (badness 1048) in paragraph at lines 26--27 | |
1424 | +Underfull \hbox (badness 1048) in paragraph at lines 25--26 | |
1434 | 1425 | []\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la |
1435 | 1426 | |
1436 | 1427 | [] |
1437 | 1428 | |
1429 | +<./Figures/ModCBR2.png, id=838, 1145.27875pt x 545.03625pt> | |
1430 | +File: ./Figures/ModCBR2.png Graphic file (type png) | |
1431 | +<use ./Figures/ModCBR2.png> | |
1432 | +Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 39. | |
1433 | +(pdftex.def) Requested size: 427.43153pt x 203.41505pt. | |
1438 | 1434 | |
1439 | 1435 | Overfull \hbox (24.44536pt too wide) has occurred while \output is active |
1440 | 1436 | \T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY |
... | ... | @@ -1442,47 +1438,39 @@ CLE DU R |
1442 | 1438 | [] |
1443 | 1439 | |
1444 | 1440 | [31] |
1445 | -<./Figures/ModCBR2.png, id=854, 1145.27875pt x 545.03625pt> | |
1446 | -File: ./Figures/ModCBR2.png Graphic file (type png) | |
1447 | -<use ./Figures/ModCBR2.png> | |
1448 | -Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 40. | |
1449 | -(pdftex.def) Requested size: 427.43153pt x 203.41505pt. | |
1450 | -<./Figures/ModCBR1.png, id=859, 942.52126pt x 624.83438pt> | |
1441 | +<./Figures/ModCBR1.png, id=852, 942.52126pt x 624.83438pt> | |
1451 | 1442 | File: ./Figures/ModCBR1.png Graphic file (type png) |
1452 | 1443 | <use ./Figures/ModCBR1.png> |
1453 | -Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 46. | |
1444 | +Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 45. | |
1454 | 1445 | (pdftex.def) Requested size: 427.43153pt x 283.36574pt. |
1455 | 1446 | [32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34] |
1456 | -<./Figures/taxonomieEIAH.png, id=899, 984.67876pt x 614.295pt> | |
1447 | +<./Figures/taxonomieEIAH.png, id=893, 984.67876pt x 614.295pt> | |
1457 | 1448 | File: ./Figures/taxonomieEIAH.png Graphic file (type png) |
1458 | 1449 | <use ./Figures/taxonomieEIAH.png> |
1459 | -Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 82. | |
1450 | +Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 81. | |
1460 | 1451 | (pdftex.def) Requested size: 427.43153pt x 266.65376pt. |
1461 | 1452 | |
1462 | -Underfull \hbox (badness 1895) in paragraph at lines 91--91 | |
1453 | +Underfull \hbox (badness 1895) in paragraph at lines 90--90 | |
1463 | 1454 | [][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés |
1464 | 1455 | [] |
1465 | 1456 | |
1466 | - | |
1467 | -Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1468 | - | |
1469 | - [35] | |
1470 | -Overfull \hbox (2.19226pt too wide) in paragraph at lines 109--109 | |
1457 | +[35] | |
1458 | +Overfull \hbox (2.19226pt too wide) in paragraph at lines 108--108 | |
1471 | 1459 | []|\T1/phv/m/n/9 [[]]| |
1472 | 1460 | [] |
1473 | 1461 | |
1474 | 1462 | |
1475 | -Overfull \hbox (8.65419pt too wide) in paragraph at lines 115--115 | |
1463 | +Overfull \hbox (8.65419pt too wide) in paragraph at lines 114--114 | |
1476 | 1464 | []|\T1/phv/m/n/9 [[]]| |
1477 | 1465 | [] |
1478 | 1466 | |
1479 | 1467 | |
1480 | -Overfull \hbox (1.23834pt too wide) in paragraph at lines 135--135 | |
1468 | +Overfull \hbox (1.23834pt too wide) in paragraph at lines 134--134 | |
1481 | 1469 | []|\T1/phv/m/n/9 [[]]| |
1482 | 1470 | [] |
1483 | 1471 | |
1484 | 1472 | |
1485 | -Overfull \hbox (7.38495pt too wide) in paragraph at lines 143--143 | |
1473 | +Overfull \hbox (7.38495pt too wide) in paragraph at lines 142--142 | |
1486 | 1474 | []|\T1/phv/m/n/9 [[]]| |
1487 | 1475 | [] |
1488 | 1476 | |
... | ... | @@ -1508,7 +1496,7 @@ Underfull \vbox (badness 10000) has occurred while \output is active [] |
1508 | 1496 | |
1509 | 1497 | |
1510 | 1498 | ] |
1511 | -<./Figures/AIVT.png, id=977, 1116.17pt x 512.91624pt> | |
1499 | +<./Figures/AIVT.png, id=969, 1116.17pt x 512.91624pt> | |
1512 | 1500 | File: ./Figures/AIVT.png Graphic file (type png) |
1513 | 1501 | <use ./Figures/AIVT.png> |
1514 | 1502 | Package pdftex.def Info: ./Figures/AIVT.png used on input line 23. |
... | ... | @@ -1573,7 +1561,7 @@ Underfull \hbox (badness 2343) in paragraph at lines 63--64 |
1573 | 1561 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1574 | 1562 | |
1575 | 1563 | [43] |
1576 | -<./Figures/Architecture AI-VT2.png, id=993, 1029.8475pt x 948.54375pt> | |
1564 | +<./Figures/Architecture AI-VT2.png, id=986, 1029.8475pt x 948.54375pt> | |
1577 | 1565 | File: ./Figures/Architecture AI-VT2.png Graphic file (type png) |
1578 | 1566 | <use ./Figures/Architecture AI-VT2.png> |
1579 | 1567 | Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line |
... | ... | @@ -1590,12 +1578,12 @@ Underfull \vbox (badness 10000) has occurred while \output is active [] |
1590 | 1578 | |
1591 | 1579 | [46] |
1592 | 1580 | [47] [48] |
1593 | -<./Figures/Layers.png, id=1020, 392.46625pt x 216.81pt> | |
1581 | +<./Figures/Layers.png, id=1016, 392.46625pt x 216.81pt> | |
1594 | 1582 | File: ./Figures/Layers.png Graphic file (type png) |
1595 | 1583 | <use ./Figures/Layers.png> |
1596 | 1584 | Package pdftex.def Info: ./Figures/Layers.png used on input line 153. |
1597 | 1585 | (pdftex.def) Requested size: 313.9734pt x 173.44823pt. |
1598 | -<./Figures/flow.png, id=1022, 721.69624pt x 593.21625pt> | |
1586 | +<./Figures/flow.png, id=1018, 721.69624pt x 593.21625pt> | |
1599 | 1587 | File: ./Figures/flow.png Graphic file (type png) |
1600 | 1588 | <use ./Figures/flow.png> |
1601 | 1589 | Package pdftex.def Info: ./Figures/flow.png used on input line 164. |
... | ... | @@ -1626,31 +1614,31 @@ Underfull \hbox (badness 10000) in paragraph at lines 7--9 |
1626 | 1614 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1627 | 1615 | |
1628 | 1616 | [52] |
1629 | -<./Figures/NCBR0.png, id=1066, 623.32875pt x 459.7175pt> | |
1617 | +<./Figures/NCBR0.png, id=1062, 623.32875pt x 459.7175pt> | |
1630 | 1618 | File: ./Figures/NCBR0.png Graphic file (type png) |
1631 | 1619 | <use ./Figures/NCBR0.png> |
1632 | 1620 | Package pdftex.def Info: ./Figures/NCBR0.png used on input line 33. |
1633 | 1621 | (pdftex.def) Requested size: 427.43153pt x 315.24129pt. |
1634 | 1622 | |
1635 | 1623 | [53 <./Figures/NCBR0.png>] |
1636 | -<./Figures/FlowCBR0.png, id=1077, 370.38374pt x 661.47125pt> | |
1624 | +<./Figures/FlowCBR0.png, id=1073, 370.38374pt x 661.47125pt> | |
1637 | 1625 | File: ./Figures/FlowCBR0.png Graphic file (type png) |
1638 | 1626 | <use ./Figures/FlowCBR0.png> |
1639 | 1627 | Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 42. |
1640 | 1628 | (pdftex.def) Requested size: 222.23195pt x 396.8858pt. |
1641 | 1629 | [54 <./Figures/FlowCBR0.png>] |
1642 | -<./Figures/Stacking1.png, id=1086, 743.77875pt x 414.54875pt> | |
1630 | +<./Figures/Stacking1.png, id=1082, 743.77875pt x 414.54875pt> | |
1643 | 1631 | File: ./Figures/Stacking1.png Graphic file (type png) |
1644 | 1632 | <use ./Figures/Stacking1.png> |
1645 | 1633 | Package pdftex.def Info: ./Figures/Stacking1.png used on input line 81. |
1646 | 1634 | (pdftex.def) Requested size: 427.43153pt x 238.23717pt. |
1647 | 1635 | [55] |
1648 | -<./Figures/SolRep.png, id=1097, 277.035pt x 84.315pt> | |
1636 | +<./Figures/SolRep.png, id=1093, 277.035pt x 84.315pt> | |
1649 | 1637 | File: ./Figures/SolRep.png Graphic file (type png) |
1650 | 1638 | <use ./Figures/SolRep.png> |
1651 | 1639 | Package pdftex.def Info: ./Figures/SolRep.png used on input line 95. |
1652 | 1640 | (pdftex.def) Requested size: 277.03432pt x 84.31477pt. |
1653 | -<./Figures/AutomaticS.png, id=1098, 688.5725pt x 548.0475pt> | |
1641 | +<./Figures/AutomaticS.png, id=1094, 688.5725pt x 548.0475pt> | |
1654 | 1642 | File: ./Figures/AutomaticS.png Graphic file (type png) |
1655 | 1643 | <use ./Figures/AutomaticS.png> |
1656 | 1644 | Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 104. |
... | ... | @@ -1661,7 +1649,7 @@ Underfull \vbox (badness 10000) has occurred while \output is active [] |
1661 | 1649 | [56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic |
1662 | 1650 | S.png>] |
1663 | 1651 | [58] |
1664 | -<./Figures/Stacking2.png, id=1135, 743.77875pt x 414.54875pt> | |
1652 | +<./Figures/Stacking2.png, id=1131, 743.77875pt x 414.54875pt> | |
1665 | 1653 | File: ./Figures/Stacking2.png Graphic file (type png) |
1666 | 1654 | <use ./Figures/Stacking2.png> |
1667 | 1655 | Package pdftex.def Info: ./Figures/Stacking2.png used on input line 191. |
... | ... | @@ -1672,13 +1660,13 @@ Underfull \hbox (badness 10000) in paragraph at lines 202--203 |
1672 | 1660 | [] |
1673 | 1661 | |
1674 | 1662 | [59 <./Figures/Stacking2.png>] |
1675 | -<Figures/FW.png, id=1151, 456.70625pt x 342.27875pt> | |
1663 | +<Figures/FW.png, id=1147, 456.70625pt x 342.27875pt> | |
1676 | 1664 | File: Figures/FW.png Graphic file (type png) |
1677 | 1665 | <use Figures/FW.png> |
1678 | 1666 | Package pdftex.def Info: Figures/FW.png used on input line 216. |
1679 | 1667 | (pdftex.def) Requested size: 427.43153pt x 320.34758pt. |
1680 | 1668 | [60 <./Figures/FW.png>] [61] |
1681 | -<./Figures/boxplot.png, id=1172, 1994.45125pt x 959.585pt> | |
1669 | +<./Figures/boxplot.png, id=1168, 1994.45125pt x 959.585pt> | |
1682 | 1670 | File: ./Figures/boxplot.png Graphic file (type png) |
1683 | 1671 | <use ./Figures/boxplot.png> |
1684 | 1672 | Package pdftex.def Info: ./Figures/boxplot.png used on input line 321. |
... | ... | @@ -1700,13 +1688,13 @@ S ESCBR \T1/phv/m/n/10.95 63 |
1700 | 1688 | [] |
1701 | 1689 | |
1702 | 1690 | [63 <./Figures/boxplot.png>] |
1703 | -<Figures/NCBR.png, id=1183, 653.44125pt x 445.665pt> | |
1691 | +<Figures/NCBR.png, id=1179, 653.44125pt x 445.665pt> | |
1704 | 1692 | File: Figures/NCBR.png Graphic file (type png) |
1705 | 1693 | <use Figures/NCBR.png> |
1706 | 1694 | Package pdftex.def Info: Figures/NCBR.png used on input line 352. |
1707 | 1695 | (pdftex.def) Requested size: 427.43153pt x 291.5149pt. |
1708 | 1696 | [64 <./Figures/NCBR.png>] |
1709 | -<Figures/FlowCBR.png, id=1193, 450.68375pt x 822.07124pt> | |
1697 | +<Figures/FlowCBR.png, id=1189, 450.68375pt x 822.07124pt> | |
1710 | 1698 | File: Figures/FlowCBR.png Graphic file (type png) |
1711 | 1699 | <use Figures/FlowCBR.png> |
1712 | 1700 | Package pdftex.def Info: Figures/FlowCBR.png used on input line 381. |
... | ... | @@ -1727,7 +1715,7 @@ S ESCBR \T1/phv/m/n/10.95 65 |
1727 | 1715 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1728 | 1716 | |
1729 | 1717 | [66 <./Figures/FlowCBR.png>] |
1730 | -<Figures/agent.png, id=1209, 352.31625pt x 402.50375pt> | |
1718 | +<Figures/agent.png, id=1206, 352.31625pt x 402.50375pt> | |
1731 | 1719 | File: Figures/agent.png Graphic file (type png) |
1732 | 1720 | <use Figures/agent.png> |
1733 | 1721 | Package pdftex.def Info: Figures/agent.png used on input line 455. |
... | ... | @@ -1739,7 +1727,7 @@ S ESCBR \T1/phv/m/n/10.95 67 |
1739 | 1727 | [] |
1740 | 1728 | |
1741 | 1729 | [67] |
1742 | -<Figures/BayesianEvolution.png, id=1223, 626.34pt x 402.50375pt> | |
1730 | +<Figures/BayesianEvolution.png, id=1220, 626.34pt x 402.50375pt> | |
1743 | 1731 | File: Figures/BayesianEvolution.png Graphic file (type png) |
1744 | 1732 | <use Figures/BayesianEvolution.png> |
1745 | 1733 | Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 468. |
... | ... | @@ -1755,7 +1743,7 @@ Underfull \hbox (badness 10000) in paragraph at lines 509--510 |
1755 | 1743 | []|\T1/phv/m/n/8 Output |
1756 | 1744 | [] |
1757 | 1745 | |
1758 | -<Figures/boxplot2.png, id=1238, 1615.03375pt x 835.12pt> | |
1746 | +<Figures/boxplot2.png, id=1235, 1615.03375pt x 835.12pt> | |
1759 | 1747 | File: Figures/boxplot2.png Graphic file (type png) |
1760 | 1748 | <use Figures/boxplot2.png> |
1761 | 1749 | Package pdftex.def Info: Figures/boxplot2.png used on input line 619. |
... | ... | @@ -1806,18 +1794,18 @@ Overfull \hbox (19.02232pt too wide) in paragraph at lines 33--59 |
1806 | 1794 | Package hyperref Info: bookmark level for unknown algorithm defaults to 0 on in |
1807 | 1795 | put line 97. |
1808 | 1796 | [75] |
1809 | -<./Figures/dataset.png, id=1302, 15.13687pt x 8.08058pt> | |
1797 | +<./Figures/dataset.png, id=1299, 15.13687pt x 8.08058pt> | |
1810 | 1798 | File: ./Figures/dataset.png Graphic file (type png) |
1811 | 1799 | <use ./Figures/dataset.png> |
1812 | 1800 | Package pdftex.def Info: ./Figures/dataset.png used on input line 118. |
1813 | 1801 | (pdftex.def) Requested size: 427.43153pt x 228.35583pt. |
1814 | 1802 | [76] |
1815 | -<./Figures/comp2.png, id=1314, 14.98512pt x 7.33133pt> | |
1803 | +<./Figures/comp2.png, id=1311, 14.98512pt x 7.33133pt> | |
1816 | 1804 | File: ./Figures/comp2.png Graphic file (type png) |
1817 | 1805 | <use ./Figures/comp2.png> |
1818 | 1806 | Package pdftex.def Info: ./Figures/comp2.png used on input line 154. |
1819 | 1807 | (pdftex.def) Requested size: 427.43153pt x 209.34462pt. |
1820 | -<./Figures/comp3.png, id=1316, 14.98512pt x 7.33133pt> | |
1808 | +<./Figures/comp3.png, id=1313, 14.98512pt x 7.33133pt> | |
1821 | 1809 | File: ./Figures/comp3.png Graphic file (type png) |
1822 | 1810 | <use ./Figures/comp3.png> |
1823 | 1811 | Package pdftex.def Info: ./Figures/comp3.png used on input line 164. |
... | ... | @@ -1826,7 +1814,7 @@ Package pdftex.def Info: ./Figures/comp3.png used on input line 164. |
1826 | 1814 | Underfull \vbox (badness 1132) has occurred while \output is active [] |
1827 | 1815 | |
1828 | 1816 | [77 <./Figures/dataset.png>] |
1829 | -<./Figures/comp4.png, id=1326, 14.9377pt x 7.31236pt> | |
1817 | +<./Figures/comp4.png, id=1323, 14.9377pt x 7.31236pt> | |
1830 | 1818 | File: ./Figures/comp4.png Graphic file (type png) |
1831 | 1819 | <use ./Figures/comp4.png> |
1832 | 1820 | Package pdftex.def Info: ./Figures/comp4.png used on input line 172. |
... | ... | @@ -1839,7 +1827,7 @@ Underfull \hbox (badness 10000) in paragraph at lines 195--196 |
1839 | 1827 | |
1840 | 1828 | [] |
1841 | 1829 | |
1842 | -<./Figures/metric.png, id=1341, 16.95784pt x 7.68225pt> | |
1830 | +<./Figures/metric.png, id=1338, 16.95784pt x 7.68225pt> | |
1843 | 1831 | File: ./Figures/metric.png Graphic file (type png) |
1844 | 1832 | <use ./Figures/metric.png> |
1845 | 1833 | Package pdftex.def Info: ./Figures/metric.png used on input line 213. |
... | ... | @@ -1852,27 +1840,25 @@ Underfull \hbox (badness 10000) in paragraph at lines 263--264 |
1852 | 1840 | |
1853 | 1841 | [] |
1854 | 1842 | |
1855 | -<./Figures/metric2.png, id=1363, 16.48363pt x 7.66327pt> | |
1843 | +<./Figures/metric2.png, id=1360, 16.48363pt x 7.66327pt> | |
1856 | 1844 | File: ./Figures/metric2.png Graphic file (type png) |
1857 | 1845 | <use ./Figures/metric2.png> |
1858 | 1846 | Package pdftex.def Info: ./Figures/metric2.png used on input line 272. |
1859 | 1847 | (pdftex.def) Requested size: 427.43153pt x 198.89235pt. |
1860 | 1848 | [81 <./Figures/metric.png>] [82 <./Figures/metric2.png>] [83] [84] [85] |
1861 | 1849 | [86] |
1862 | -<Figures/Model.png, id=1452, 3.47124pt x 2.85477pt> | |
1850 | +<Figures/Model.png, id=1449, 3.47124pt x 2.85477pt> | |
1863 | 1851 | File: Figures/Model.png Graphic file (type png) |
1864 | 1852 | <use Figures/Model.png> |
1865 | 1853 | Package pdftex.def Info: Figures/Model.png used on input line 477. |
1866 | 1854 | (pdftex.def) Requested size: 299.20076pt x 246.23834pt. |
1867 | -LaTeX Font Info: Font shape `T1/phv/m/it' in size <9> not available | |
1868 | -(Font) Font shape `T1/phv/m/sl' tried instead on input line 490. | |
1869 | 1855 | [87 <./Figures/Model.png>] [88] |
1870 | 1856 | Overfull \hbox (14.1589pt too wide) in paragraph at lines 581--603 |
1871 | 1857 | [][] |
1872 | 1858 | [] |
1873 | 1859 | |
1874 | 1860 | [89] |
1875 | -<Figures/kEvol_TS.jpg, id=1495, 742.775pt x 557.08125pt> | |
1861 | +<Figures/kEvol_TS.jpg, id=1491, 742.775pt x 557.08125pt> | |
1876 | 1862 | File: Figures/kEvol_TS.jpg Graphic file (type jpg) |
1877 | 1863 | <use Figures/kEvol_TS.jpg> |
1878 | 1864 | Package pdftex.def Info: Figures/kEvol_TS.jpg used on input line 650. |
... | ... | @@ -1883,7 +1869,7 @@ Underfull \hbox (badness 10000) in paragraph at lines 659--660 |
1883 | 1869 | [] |
1884 | 1870 | |
1885 | 1871 | [90] |
1886 | -<Figures/stabilityBoxplot.png, id=1507, 742.775pt x 520.94624pt> | |
1872 | +<Figures/stabilityBoxplot.png, id=1503, 742.775pt x 520.94624pt> | |
1887 | 1873 | File: Figures/stabilityBoxplot.png Graphic file (type png) |
1888 | 1874 | <use Figures/stabilityBoxplot.png> |
1889 | 1875 | Package pdftex.def Info: Figures/stabilityBoxplot.png used on input line 663. |
... | ... | @@ -1894,17 +1880,17 @@ Underfull \hbox (badness 10000) in paragraph at lines 668--669 |
1894 | 1880 | [] |
1895 | 1881 | |
1896 | 1882 | [91 <./Figures/kEvol_TS.jpg>] |
1897 | -<Figures/precision.png, id=1515, 742.775pt x 520.94624pt> | |
1883 | +<Figures/precision.png, id=1511, 742.775pt x 520.94624pt> | |
1898 | 1884 | File: Figures/precision.png Graphic file (type png) |
1899 | 1885 | <use Figures/precision.png> |
1900 | 1886 | Package pdftex.def Info: Figures/precision.png used on input line 672. |
1901 | 1887 | (pdftex.def) Requested size: 427.43153pt x 299.78818pt. |
1902 | -<Figures/GradesEv.jpg, id=1517, 740.7675pt x 557.08125pt> | |
1888 | +<Figures/GradesEv.jpg, id=1513, 740.7675pt x 557.08125pt> | |
1903 | 1889 | File: Figures/GradesEv.jpg Graphic file (type jpg) |
1904 | 1890 | <use Figures/GradesEv.jpg> |
1905 | 1891 | Package pdftex.def Info: Figures/GradesEv.jpg used on input line 683. |
1906 | 1892 | (pdftex.def) Requested size: 427.43153pt x 321.44128pt. |
1907 | -<Figures/LevelsEv.jpg, id=1521, 742.775pt x 557.08125pt> | |
1893 | +<Figures/LevelsEv.jpg, id=1517, 742.775pt x 557.08125pt> | |
1908 | 1894 | File: Figures/LevelsEv.jpg Graphic file (type jpg) |
1909 | 1895 | <use Figures/LevelsEv.jpg> |
1910 | 1896 | Package pdftex.def Info: Figures/LevelsEv.jpg used on input line 692. |
... | ... | @@ -1916,7 +1902,7 @@ Underfull \vbox (badness 3219) has occurred while \output is active [] |
1916 | 1902 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1917 | 1903 | |
1918 | 1904 | [93 <./Figures/precision.png>] |
1919 | -<Figures/Metric4.jpg, id=1542, 1429.34pt x 786.94pt> | |
1905 | +<Figures/Metric4.jpg, id=1537, 1429.34pt x 786.94pt> | |
1920 | 1906 | File: Figures/Metric4.jpg Graphic file (type jpg) |
1921 | 1907 | <use Figures/Metric4.jpg> |
1922 | 1908 | Package pdftex.def Info: Figures/Metric4.jpg used on input line 729. |
... | ... | @@ -1929,7 +1915,7 @@ LaTeX Warning: `!h' float specifier changed to `!ht'. |
1929 | 1915 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1930 | 1916 | |
1931 | 1917 | [95 <./Figures/LevelsEv.jpg>] [96 <./Figures/Metric4.jpg>] |
1932 | -<Figures/ModelHawkes.png, id=1559, 397.485pt x 382.42876pt> | |
1918 | +<Figures/ModelHawkes.png, id=1554, 397.485pt x 382.42876pt> | |
1933 | 1919 | File: Figures/ModelHawkes.png Graphic file (type png) |
1934 | 1920 | <use Figures/ModelHawkes.png> |
1935 | 1921 | Package pdftex.def Info: Figures/ModelHawkes.png used on input line 758. |
... | ... | @@ -1938,17 +1924,17 @@ Package pdftex.def Info: Figures/ModelHawkes.png used on input line 758. |
1938 | 1924 | Underfull \vbox (badness 2744) has occurred while \output is active [] |
1939 | 1925 | |
1940 | 1926 | [97 <./Figures/ModelHawkes.png>] |
1941 | -<./Figures/stabilityBoxplot1.png, id=1582, 742.775pt x 520.94624pt> | |
1927 | +<./Figures/stabilityBoxplot1.png, id=1578, 742.775pt x 520.94624pt> | |
1942 | 1928 | File: ./Figures/stabilityBoxplot1.png Graphic file (type png) |
1943 | 1929 | <use ./Figures/stabilityBoxplot1.png> |
1944 | -Package pdftex.def Info: ./Figures/stabilityBoxplot1.png used on input line 83 | |
1945 | -0. | |
1930 | +Package pdftex.def Info: ./Figures/stabilityBoxplot1.png used on input line 82 | |
1931 | +8. | |
1946 | 1932 | (pdftex.def) Requested size: 427.43153pt x 299.78818pt. |
1947 | -<./Figures/stabilityBoxplot2.png, id=1583, 742.775pt x 520.94624pt> | |
1933 | +<./Figures/stabilityBoxplot2.png, id=1579, 742.775pt x 520.94624pt> | |
1948 | 1934 | File: ./Figures/stabilityBoxplot2.png Graphic file (type png) |
1949 | 1935 | <use ./Figures/stabilityBoxplot2.png> |
1950 | -Package pdftex.def Info: ./Figures/stabilityBoxplot2.png used on input line 83 | |
1951 | -1. | |
1936 | +Package pdftex.def Info: ./Figures/stabilityBoxplot2.png used on input line 82 | |
1937 | +9. | |
1952 | 1938 | (pdftex.def) Requested size: 427.43153pt x 299.78818pt. |
1953 | 1939 | [98] |
1954 | 1940 | |
... | ... | @@ -1959,34 +1945,32 @@ Overfull \vbox (6.6566pt too high) has occurred while \output is active [] |
1959 | 1945 | |
1960 | 1946 | |
1961 | 1947 | [99 <./Figures/stabilityBoxplot1.png> <./Figures/stabilityBoxplot2.png>] |
1962 | -<Figures/Var.png, id=1600, 1408.26125pt x 749.80125pt> | |
1948 | +<Figures/Var.png, id=1597, 1408.26125pt x 749.80125pt> | |
1963 | 1949 | File: Figures/Var.png Graphic file (type png) |
1964 | 1950 | <use Figures/Var.png> |
1965 | -Package pdftex.def Info: Figures/Var.png used on input line 866. | |
1951 | +Package pdftex.def Info: Figures/Var.png used on input line 862. | |
1966 | 1952 | (pdftex.def) Requested size: 427.43153pt x 227.57355pt. |
1967 | -<Figures/VarH.png, id=1601, 1408.26125pt x 749.80125pt> | |
1953 | +<Figures/VarH.png, id=1598, 1408.26125pt x 749.80125pt> | |
1968 | 1954 | File: Figures/VarH.png Graphic file (type png) |
1969 | 1955 | <use Figures/VarH.png> |
1970 | -Package pdftex.def Info: Figures/VarH.png used on input line 872. | |
1956 | +Package pdftex.def Info: Figures/VarH.png used on input line 868. | |
1971 | 1957 | (pdftex.def) Requested size: 427.43153pt x 227.57355pt. |
1972 | - | |
1973 | -[100]) | |
1974 | -Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1975 | - | |
1976 | - [101 <./Figures/Var.png> <./Figures/VarH.png>] [102] | |
1958 | +) | |
1959 | +[100] [101 <./Figures/Var.png> <./Figures/VarH.png>] | |
1977 | 1960 | \openout2 = `./chapters/Conclusions.aux'. |
1978 | 1961 | |
1979 | - (./chapters/Conclusions.tex | |
1980 | -Chapitre 8. | |
1981 | - | |
1982 | -Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1983 | 1962 | |
1984 | - [103 | |
1963 | +(./chapters/Conclusions.tex [102 | |
1985 | 1964 | |
1986 | 1965 | |
1987 | 1966 | |
1988 | 1967 | |
1989 | 1968 | ] |
1969 | +Chapitre 8. | |
1970 | + | |
1971 | +Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1972 | + | |
1973 | + [103] | |
1990 | 1974 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1991 | 1975 | |
1992 | 1976 | [104]) |
... | ... | @@ -2069,7 +2053,7 @@ Underfull \hbox (badness 10000) in paragraph at lines 31--32 |
2069 | 2053 | [] |
2070 | 2054 | |
2071 | 2055 | ) |
2072 | -Underfull \hbox (badness 10000) in paragraph at lines 33--381 | |
2056 | +Underfull \hbox (badness 10000) in paragraph at lines 33--383 | |
2073 | 2057 | |
2074 | 2058 | [] |
2075 | 2059 | |
... | ... | @@ -2097,8 +2081,8 @@ Underfull \hbox (badness 2452) in paragraph at lines 358--362 |
2097 | 2081 | [112] [113] [114]) [115] [116 |
2098 | 2082 | |
2099 | 2083 | ] |
2100 | -LaTeX Font Info: Trying to load font information for T1+pcr on input line 38 | |
2101 | -9. | |
2084 | +LaTeX Font Info: Trying to load font information for T1+pcr on input line 39 | |
2085 | +1. | |
2102 | 2086 | |
2103 | 2087 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1pcr.fd |
2104 | 2088 | File: t1pcr.fd 2001/06/04 font definitions for T1/pcr. |
... | ... | @@ -2107,14 +2091,14 @@ File: t1pcr.fd 2001/06/04 font definitions for T1/pcr. |
2107 | 2091 | pdfTeX warning: /Library/TeX/texbin/pdflatex (file ./spimufcphdthesis-backpage. |
2108 | 2092 | pdf): PDF inclusion: found PDF version <1.7>, but at most version <1.5> allowed |
2109 | 2093 | |
2110 | -<spimufcphdthesis-backpage.pdf, id=1699, 597.6729pt x 845.07718pt> | |
2094 | +<spimufcphdthesis-backpage.pdf, id=1696, 597.6729pt x 845.07718pt> | |
2111 | 2095 | File: spimufcphdthesis-backpage.pdf Graphic file (type pdf) |
2112 | 2096 | <use spimufcphdthesis-backpage.pdf> |
2113 | -Package pdftex.def Info: spimufcphdthesis-backpage.pdf used on input line 389. | |
2097 | +Package pdftex.def Info: spimufcphdthesis-backpage.pdf used on input line 391. | |
2114 | 2098 | |
2115 | 2099 | (pdftex.def) Requested size: 600.04256pt x 900.00706pt. |
2116 | 2100 | |
2117 | -Underfull \hbox (badness 1215) in paragraph at lines 389--389 | |
2101 | +Underfull \hbox (badness 1215) in paragraph at lines 391--391 | |
2118 | 2102 | \T1/phv/m/n/10.95 initiales (démarrage à froid). Dans certains cas, le système |
2119 | 2103 | tolère des modifications après |
2120 | 2104 | [] |
... | ... | @@ -2129,13 +2113,13 @@ tol |
2129 | 2113 | LaTeX Warning: There were multiply-defined labels. |
2130 | 2114 | |
2131 | 2115 | Package rerunfilecheck Info: File `main.out' has not changed. |
2132 | -(rerunfilecheck) Checksum: A06CA241E4961E00F708D1DB761D768D;24244. | |
2116 | +(rerunfilecheck) Checksum: D1C527AEB3ED13023169379420145399;23542. | |
2133 | 2117 | ) |
2134 | 2118 | Here is how much of TeX's memory you used: |
2135 | - 21570 strings out of 476038 | |
2136 | - 370141 string characters out of 5790170 | |
2119 | + 21572 strings out of 476038 | |
2120 | + 370160 string characters out of 5790170 | |
2137 | 2121 | 1904785 words of memory out of 5000000 |
2138 | - 40981 multiletter control sequences out of 15000+600000 | |
2122 | + 40985 multiletter control sequences out of 15000+600000 | |
2139 | 2123 | 622048 words of font info for 153 fonts, out of 8000000 for 9000 |
2140 | 2124 | 1141 hyphenation exceptions out of 8191 |
2141 | 2125 | 126i,17n,133p,1979b,732s stack positions out of 10000i,1000n,20000p,200000b,200000s |
... | ... | @@ -2166,10 +2150,10 @@ ts/type1/urw/courier/ucrr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1 |
2166 | 2150 | lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/ |
2167 | 2151 | uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf |
2168 | 2152 | b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb> |
2169 | -Output written on main.pdf (126 pages, 5446138 bytes). | |
2153 | +Output written on main.pdf (126 pages, 5447666 bytes). | |
2170 | 2154 | PDF statistics: |
2171 | - 1868 PDF objects out of 2073 (max. 8388607) | |
2172 | - 1597 compressed objects within 16 object streams | |
2173 | - 469 named destinations out of 1000 (max. 500000) | |
2174 | - 1006 words of extra memory for PDF output out of 10000 (max. 10000000) | |
2155 | + 1863 PDF objects out of 2073 (max. 8388607) | |
2156 | + 1592 compressed objects within 16 object streams | |
2157 | + 467 named destinations out of 1000 (max. 500000) | |
2158 | + 990 words of extra memory for PDF output out of 10000 (max. 10000000) | |
2175 | 2159 |
main.out
View file @
4b1afa3
... | ... | @@ -20,7 +20,7 @@ |
20 | 20 | \BOOKMARK [3][]{subsubsection.2.2.3.1}{\376\377\0002\000.\0002\000.\0003\000.\0001\000\040\000P\000e\000n\000s\000\351\000e\000\040\000B\000a\000y\000e\000s\000i\000e\000n\000n\000e}{subsection.2.2.3}% 20 |
21 | 21 | \BOOKMARK [3][]{subsubsection.2.2.3.2}{\376\377\0002\000.\0002\000.\0003\000.\0002\000\040\000M\000\351\000t\000h\000o\000d\000e\000\040\000d\000e\000s\000\040\000k\000\040\000p\000l\000u\000s\000\040\000p\000r\000o\000c\000h\000e\000s\000\040\000v\000o\000i\000s\000i\000n\000s\000\040\000\050\000K\000-\000N\000e\000a\000r\000e\000s\000t\000\040\000N\000e\000i\000g\000h\000b\000o\000r\000h\000o\000o\000d\000\040\000-\000\040\000K\000N\000N\000\051}{subsection.2.2.3}% 21 |
22 | 22 | \BOOKMARK [3][]{subsubsection.2.2.3.3}{\376\377\0002\000.\0002\000.\0003\000.\0003\000\040\000K\000-\000M\000o\000y\000e\000n\000n\000e\000s}{subsection.2.2.3}% 22 |
23 | -\BOOKMARK [3][]{subsubsection.2.2.3.4}{\376\377\0002\000.\0002\000.\0003\000.\0004\000\040\000M\000o\000d\000\350\000l\000e\000\040\000d\000e\000\040\000M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 230051\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300l\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300a\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300n\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300g\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300e\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2340\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300G\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300a\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300u\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300s\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300s\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300i\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300e\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300n\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2340\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300G\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2340\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2350\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300G\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300a\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300u\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300s\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300s\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300i\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300a\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300n\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2340\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300i\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300x\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300t\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300u\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300r\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300e\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2340\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300o\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300d\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300e\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300l\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2351}{subsection.2.2.3}% 23 | |
23 | +\BOOKMARK [3][]{subsubsection.2.2.3.4}{\376\377\0002\000.\0002\000.\0003\000.\0004\000\040\000M\000o\000d\000\350\000l\000e\000\040\000d\000e\000\040\000m\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 230051\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300l\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300a\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300n\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300g\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300e\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2340\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300G\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300a\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300u\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300s\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300s\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300i\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300e\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300n\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2340\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300G\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2340\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2350\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300G\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300a\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300u\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300s\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300s\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300i\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300a\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300n\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2340\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300i\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300x\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300t\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300u\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300r\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300e\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2340\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300o\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300d\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300e\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300l\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2300\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 2351}{subsection.2.2.3}% 23 | |
24 | 24 | \BOOKMARK [3][]{subsubsection.2.2.3.5}{\376\377\0002\000.\0002\000.\0003\000.\0005\000\040\000F\000u\000z\000z\000y\000-\000C}{subsection.2.2.3}% 24 |
25 | 25 | \BOOKMARK [3][]{subsubsection.2.2.3.6}{\376\377\0002\000.\0002\000.\0003\000.\0006\000\040\000B\000a\000n\000d\000i\000t\000\040\000M\000a\000n\000c\000h\000o\000t\000\040\000M\000A\000B\000\040\000\050\000M\000u\000l\000t\000i\000-\000A\000r\000m\000e\000d\000\040\000B\000a\000n\000d\000i\000t\000s\000\051}{subsection.2.2.3}% 25 |
26 | 26 | \BOOKMARK [3][]{subsubsection.2.2.3.7}{\376\377\0002\000.\0002\000.\0003\000.\0007\000\040\000\311\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000T\000S\000\040\000\050\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000S\000a\000m\000p\000l\000i\000n\000g\000\051}{subsection.2.2.3}% 26 |
... | ... | @@ -58,7 +58,7 @@ |
58 | 58 | \BOOKMARK [2][]{subsection.6.2.4}{\376\377\0006\000.\0002\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.6.2}% 58 |
59 | 59 | \BOOKMARK [1][]{section.6.3}{\376\377\0006\000.\0003\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000:\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000y\000s\000t\000\350\000m\000e\000s\000\040\000m\000u\000l\000t\000i\000-\000a\000g\000e\000n\000t\000s\000\040\000d\000a\000n\000s\000\040\000E\000S\000C\000B\000R}{chapter.6}% 59 |
60 | 60 | \BOOKMARK [2][]{subsection.6.3.1}{\376\377\0006\000.\0003\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.6.3}% 60 |
61 | -\BOOKMARK [3][]{subsubsection.6.3.1.1}{\376\377\0006\000.\0003\000.\0001\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s}{subsection.6.3.1}% 61 | |
61 | +\BOOKMARK [3][]{subsubsection.6.3.1.1}{\376\377\0006\000.\0003\000.\0001\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000s\000u\000i\000v\000i\000s\000\040\000p\000a\000r\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.6.3.1}% 61 | |
62 | 62 | \BOOKMARK [3][]{subsubsection.6.3.1.2}{\376\377\0006\000.\0003\000.\0001\000.\0002\000\040\000S\000t\000r\000u\000c\000t\000u\000r\000e\000\040\000d\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 62 |
63 | 63 | \BOOKMARK [3][]{subsubsection.6.3.1.3}{\376\377\0006\000.\0003\000.\0001\000.\0003\000\040\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000d\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 63 |
64 | 64 | \BOOKMARK [3][]{subsubsection.6.3.1.4}{\376\377\0006\000.\0003\000.\0001\000.\0004\000\040\000\311\000c\000h\000a\000n\000g\000e\000s\000\040\000e\000n\000t\000r\000e\000\040\000l\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 64 |
... | ... | @@ -76,7 +76,7 @@ |
76 | 76 | \BOOKMARK [2][]{subsection.7.3.3}{\376\377\0007\000.\0003\000.\0003\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000e\000t\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.7.3}% 76 |
77 | 77 | \BOOKMARK [3][]{subsubsection.7.3.3.1}{\376\377\0007\000.\0003\000.\0003\000.\0001\000\040\000R\000\351\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000p\000o\000u\000r\000\040\000l\000'\000a\000i\000d\000e\000\040\000\340\000\040\000l\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n}{subsection.7.3.3}% 77 |
78 | 78 | \BOOKMARK [3][]{subsubsection.7.3.3.2}{\376\377\0007\000.\0003\000.\0003\000.\0002\000\040\000P\000r\000o\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e\000s}{subsection.7.3.3}% 78 |
79 | -\BOOKMARK [3][]{subsubsection.7.3.3.3}{\376\377\0007\000.\0003\000.\0003\000.\0003\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000u\000n\000\040\000j\000e\000u\000\040\000d\000e\000\040\000d\000o\000n\000n\000\351\000e\000s\000\040\000d\000'\000\351\000t\000u\000d\000i\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900a\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900n\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900t\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900s\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7940\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900r\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 790051\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900e\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900l\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900s}{subsection.7.3.3}% 79 | |
79 | +\BOOKMARK [3][]{subsubsection.7.3.3.3}{\376\377\0007\000.\0003\000.\0003\000.\0003\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000u\000n\000\040\000j\000e\000u\000\040\000d\000e\000\040\000d\000o\000n\000n\000\351\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900a\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900n\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900t\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900s\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7940\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900r\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 790051\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900e\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900l\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 7900s}{subsection.7.3.3}% 79 | |
80 | 80 | \BOOKMARK [3][]{subsubsection.7.3.3.4}{\376\377\0007\000.\0003\000.\0003\000.\0004\000\040\000C\000o\000m\000p\000a\000r\000a\000i\000s\000o\000n\000\040\000e\000n\000t\000r\000e\000\040\000T\000S\000\040\000e\000t\000\040\000B\000K\000T}{subsection.7.3.3}% 80 |
81 | 81 | \BOOKMARK [3][]{subsubsection.7.3.3.5}{\376\377\0007\000.\0003\000.\0003\000.\0005\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.7.3.3}% 81 |
82 | 82 | \BOOKMARK [3][]{subsubsection.7.3.3.6}{\376\377\0007\000.\0003\000.\0003\000.\0006\000\040\000P\000r\000o\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e\000s\000\040\000T\000S\000\040\000v\000s\000\040\000T\000S\000\040\000e\000t\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.7.3.3}% 82 |
... | ... | @@ -84,12 +84,10 @@ |
84 | 84 | \BOOKMARK [1][]{section.7.4}{\376\377\0007\000.\0004\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000,\000\040\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000e\000t\000\040\000p\000r\000o\000c\000e\000s\000s\000u\000s\000\040\000d\000e\000\040\000H\000a\000w\000k\000e\000s}{chapter.7}% 84 |
85 | 85 | \BOOKMARK [2][]{subsection.7.4.1}{\376\377\0007\000.\0004\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.4}% 85 |
86 | 86 | \BOOKMARK [2][]{subsection.7.4.2}{\376\377\0007\000.\0004\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000e\000t\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.7.4}% 86 |
87 | -\BOOKMARK [3][]{subsubsection.7.4.2.1}{\376\377\0007\000.\0004\000.\0002\000.\0001\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000u\000n\000\040\000j\000e\000u\000\040\000d\000e\000\040\000d\000o\000n\000n\000\351\000e\000s\000\040\000d\000'\000\351\000t\000u\000d\000i\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s\000\040\000\050\000T\000S\000\040\000a\000v\000e\000c\000\040\000H\000a\000w\000k\000e\000s\000\051}{subsection.7.4.2}% 87 | |
88 | -\BOOKMARK [3][]{subsubsection.7.4.2.2}{\376\377\0007\000.\0004\000.\0002\000.\0002\000\040\000M\000e\000s\000u\000r\000e\000s\000\040\000d\000e\000\040\000p\000e\000r\000f\000o\000r\000m\000a\000n\000c\000e\000s}{subsection.7.4.2}% 88 | |
89 | -\BOOKMARK [2][]{subsection.7.4.3}{\376\377\0007\000.\0004\000.\0003\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.4}% 89 | |
90 | -\BOOKMARK [0][]{chapter.8}{\376\377\0008\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000s\000\040\000e\000t\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{part.3}% 90 | |
91 | -\BOOKMARK [1][]{section.8.1}{\376\377\0008\000.\0001\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000\040\000g\000\351\000n\000\351\000r\000a\000l\000e}{chapter.8}% 91 | |
92 | -\BOOKMARK [1][]{section.8.2}{\376\377\0008\000.\0002\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{chapter.8}% 92 | |
93 | -\BOOKMARK [0][]{chapter.9}{\376\377\0009\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{part.3}% 93 | |
94 | -\BOOKMARK [1][]{section.9.1}{\376\377\0009\000.\0001\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s\000\040\000l\000i\000\351\000e\000s\000\040\000a\000u\000\040\000s\000u\000j\000e\000t\000\040\000d\000e\000\040\000t\000h\000\350\000s\000e}{chapter.9}% 94 | |
95 | -\BOOKMARK [1][]{section.9.2}{\376\377\0009\000.\0002\000\040\000A\000u\000t\000r\000e\000s\000\040\000p\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{chapter.9}% 95 | |
87 | +\BOOKMARK [2][]{subsection.7.4.3}{\376\377\0007\000.\0004\000.\0003\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.4}% 87 | |
88 | +\BOOKMARK [0][]{chapter.8}{\376\377\0008\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000s\000\040\000e\000t\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{part.3}% 88 | |
89 | +\BOOKMARK [1][]{section.8.1}{\376\377\0008\000.\0001\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000\040\000g\000\351\000n\000\351\000r\000a\000l\000e}{chapter.8}% 89 | |
90 | +\BOOKMARK [1][]{section.8.2}{\376\377\0008\000.\0002\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{chapter.8}% 90 | |
91 | +\BOOKMARK [0][]{chapter.9}{\376\377\0009\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{part.3}% 91 | |
92 | +\BOOKMARK [1][]{section.9.1}{\376\377\0009\000.\0001\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s\000\040\000l\000i\000\351\000e\000s\000\040\000a\000u\000\040\000s\000u\000j\000e\000t\000\040\000d\000e\000\040\000t\000h\000\350\000s\000e}{chapter.9}% 92 | |
93 | +\BOOKMARK [1][]{section.9.2}{\376\377\0009\000.\0002\000\040\000A\000u\000t\000r\000e\000s\000\040\000p\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{chapter.9}% 93 |
main.pdf
View file @
4b1afa3
main.synctex.gz
View file @
4b1afa3
main.tex
View file @
4b1afa3
... | ... | @@ -255,8 +255,10 @@ Doctorat d'Informatique |
255 | 255 | Par\\~\\M. SOTO FORERO Daniel |
256 | 256 | |
257 | 257 | \vspace{1.5cm} |
258 | +\huge | |
258 | 259 | Adaptation en temps réel d'une séance d'entraînement par intelligence artificielle |
259 | 260 | |
261 | +\normalsize | |
260 | 262 | %\vspace{0.12cm} |
261 | 263 | %<Sous-titre ou deuxième ligne du titre de la thèse> |
262 | 264 |
main.toc
View file @
4b1afa3
... | ... | @@ -21,7 +21,7 @@ |
21 | 21 | \contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}% |
22 | 22 | \contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{18}{subsubsection.2.2.3.2}% |
23 | 23 | \contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{19}{subsubsection.2.2.3.3}% |
24 | -\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}% | |
24 | +\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}% | |
25 | 25 | \contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{20}{subsubsection.2.2.3.5}% |
26 | 26 | \contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{21}{subsubsection.2.2.3.6}% |
27 | 27 | \contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{21}{subsubsection.2.2.3.7}% |
... | ... | @@ -35,7 +35,7 @@ |
35 | 35 | \contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}% |
36 | 36 | \contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}% |
37 | 37 | \contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}% |
38 | -\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{36}{section.4.7}% | |
38 | +\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}% | |
39 | 39 | \contentsline {part}{III\hspace {1em}Contributions}{39}{part.3}% |
40 | 40 | \contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}% |
41 | 41 | \contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}% |
... | ... | @@ -59,7 +59,7 @@ |
59 | 59 | \contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}% |
60 | 60 | \contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}% |
61 | 61 | \contentsline {subsection}{\numberline {6.3.1}Algorithme Proposé}{64}{subsection.6.3.1}% |
62 | -\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{65}{subsubsection.6.3.1.1}% | |
62 | +\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes suivis par ESCBR-SMA}{65}{subsubsection.6.3.1.1}% | |
63 | 63 | \contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}% |
64 | 64 | \contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}% |
65 | 65 | \contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}% |
... | ... | @@ -77,7 +77,7 @@ |
77 | 77 | \contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}% |
78 | 78 | \contentsline {subsubsection}{\numberline {7.3.3.1}Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}{88}{subsubsection.7.3.3.1}% |
79 | 79 | \contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{89}{subsubsection.7.3.3.2}% |
80 | -\contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'étudiants réels}{91}{subsubsection.7.3.3.3}% | |
80 | +\contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'apprenants réels}{91}{subsubsection.7.3.3.3}% | |
81 | 81 | \contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}% |
82 | 82 | \contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}% |
83 | 83 | \contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}% |
... | ... | @@ -85,8 +85,6 @@ |
85 | 85 | \contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}% |
86 | 86 | \contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}% |
87 | 87 | \contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}% |
88 | -\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec un jeu de données d'étudiants réels (TS avec Hawkes)}{98}{subsubsection.7.4.2.1}% | |
89 | -\contentsline {subsubsection}{\numberline {7.4.2.2}Mesures de performances}{100}{subsubsection.7.4.2.2}% | |
90 | 88 | \contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}% |
91 | 89 | \contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{103}{chapter.8}% |
92 | 90 | \contentsline {section}{\numberline {8.1}Conclusion générale}{103}{section.8.1}% |
manuscrit.pdf
View file @
4b1afa3