Commit 24977821a3a938f3eba7beeec1b0a7da05e8cb25
1 parent
6e07ddd91f
Exists in
main
version all ok...
Showing 10 changed files with 99 additions and 796 deletions Side-by-side Diff
.DS_Store
View file @
2497782
Figures/FlowCBR.png
View file @
2497782
Figures/NCBR0.png
View file @
2497782
Figures/Stacking2.png
View file @
2497782
chapters/ESCBR.aux
View file @
2497782
... | ... | @@ -40,9 +40,11 @@ |
40 | 40 | \newlabel{eqgen5}{{6.6}{58}{Rรฉutiliser}{equation.6.2.6}{}} |
41 | 41 | \newlabel{eqgen6}{{6.7}{58}{Rรฉutiliser}{equation.6.2.7}{}} |
42 | 42 | \newlabel{eqgen7}{{6.8}{58}{Rรฉutiliser}{equation.6.2.8}{}} |
43 | +\newlabel{eqma1}{{6.9}{58}{Rรฉutiliser}{equation.6.2.9}{}} | |
43 | 44 | \citation{doi:10.1137/23M1592420} |
44 | 45 | \@writefile{lof}{\contentsline {figure}{\numberline {6.6}{\ignorespaces \textit {Stacking} pour la gรฉnรฉration de solutions\relax }}{59}{figure.caption.28}\protected@file@percent } |
45 | 46 | \newlabel{figSta2}{{6.6}{59}{\textit {Stacking} pour la gรฉnรฉration de solutions\relax }{figure.caption.28}{}} |
47 | +\newlabel{eqma2}{{6.10}{59}{Rรฉutiliser}{equation.6.2.10}{}} | |
46 | 48 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.3}Rรฉvision}{59}{subsubsection.6.2.1.3}\protected@file@percent } |
47 | 49 | \newlabel{eqOpt0}{{6.11}{60}{Rรฉvision}{equation.6.2.11}{}} |
48 | 50 | \newlabel{eqOpt}{{6.12}{60}{Rรฉvision}{equation.6.2.12}{}} |
... | ... | @@ -50,8 +52,8 @@ |
50 | 52 | \newlabel{fig:FW}{{6.7}{60}{Reprรฉsentation graphique en deux dimensions du problรจme de moyenne gรฉomรฉtrique. (Points associรฉs au problรจme ($\lambda _1,..,\lambda _7$) et point rouge solution au problรจme)\relax }{figure.caption.29}{}} |
51 | 53 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.4}Mรฉmorisation}{60}{subsubsection.6.2.1.4}\protected@file@percent } |
52 | 54 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Rรฉsultats}{61}{subsection.6.2.2}\protected@file@percent } |
53 | -\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de donnรฉes รฉvaluรฉes.\relax }}{61}{table.caption.30}\protected@file@percent } | |
54 | -\newlabel{tabBases2}{{6.2}{61}{Description des jeux de donnรฉes รฉvaluรฉes.\relax }{table.caption.30}{}} | |
55 | +\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de donnรฉes รฉvaluรฉs\relax }}{61}{table.caption.30}\protected@file@percent } | |
56 | +\newlabel{tabBases2}{{6.2}{61}{Description des jeux de donnรฉes รฉvaluรฉs\relax }{table.caption.30}{}} | |
55 | 57 | \@writefile{lot}{\contentsline {table}{\numberline {6.3}{\ignorespaces Liste des algorithmes รฉvaluรฉs\relax }}{61}{table.caption.31}\protected@file@percent } |
56 | 58 | \newlabel{tabAlgs2}{{6.3}{61}{Liste des algorithmes รฉvaluรฉs\relax }{table.caption.31}{}} |
57 | 59 | \@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculรฉe sur les dix jeux de donnรฉes sรฉlectionnรฉs obtenue aprรจs exรฉcution des dix algorithmes de rรฉgression considรฉrรฉs\relax }}{61}{table.caption.32}\protected@file@percent } |
58 | 60 | |
... | ... | @@ -80,16 +82,16 @@ |
80 | 82 | \newlabel{eqBay}{{6.15}{68}{Apprentissage des agents}{equation.6.3.15}{}} |
81 | 83 | \newlabel{eqRta}{{6.16}{68}{Apprentissage des agents}{equation.6.3.16}{}} |
82 | 84 | \newlabel{eqRsa}{{6.17}{68}{Apprentissage des agents}{equation.6.3.17}{}} |
83 | -\@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour Retrieve et Reuse\relax }}{69}{figure.caption.39}\protected@file@percent } | |
84 | -\newlabel{fig:bayev}{{6.12}{69}{Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour Retrieve et Reuse\relax }{figure.caption.39}{}} | |
85 | +\@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour rechercher et rรฉutiliser, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour rechercher et rรฉutiliser\relax }}{69}{figure.caption.39}\protected@file@percent } | |
86 | +\newlabel{fig:bayev}{{6.12}{69}{Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour rechercher et rรฉutiliser, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour rechercher et rรฉutiliser\relax }{figure.caption.39}{}} | |
85 | 87 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.4}รchanges entre les agents}{69}{subsubsection.6.3.1.4}\protected@file@percent } |
86 | 88 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.2}Rรฉsultats}{69}{subsection.6.3.2}\protected@file@percent } |
87 | 89 | \@writefile{lot}{\contentsline {table}{\numberline {6.7}{\ignorespaces Description des jeux de donnรฉes รฉvaluรฉs.\relax }}{70}{table.caption.40}\protected@file@percent } |
88 | 90 | \newlabel{tabBases}{{6.7}{70}{Description des jeux de donnรฉes รฉvaluรฉs.\relax }{table.caption.40}{}} |
89 | 91 | \@writefile{lot}{\contentsline {table}{\numberline {6.8}{\ignorespaces Paramรจtres de tous les algorithmes comparรฉs\relax }}{70}{table.caption.41}\protected@file@percent } |
90 | 92 | \newlabel{AlgsPar}{{6.8}{70}{Paramรจtres de tous les algorithmes comparรฉs\relax }{table.caption.41}{}} |
91 | -\@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Rรฉsultat selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.\relax }}{71}{table.caption.42}\protected@file@percent } | |
92 | -\newlabel{tabRes1}{{6.9}{71}{Rรฉsultat selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.\relax }{table.caption.42}{}} | |
93 | +\@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Rรฉsultats selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.\relax }}{71}{table.caption.42}\protected@file@percent } | |
94 | +\newlabel{tabRes1}{{6.9}{71}{Rรฉsultats selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.\relax }{table.caption.42}{}} | |
93 | 95 | \@writefile{lot}{\contentsline {table}{\numberline {6.10}{\ignorespaces Comparaison des rรฉsultats MAE (Median Absolute Error) pour les bases de donnรฉes รฉvaluรฉes avec des algorithmes de rรฉgression\relax }}{71}{table.caption.43}\protected@file@percent } |
94 | 96 | \newlabel{tabRes2}{{6.10}{71}{Comparaison des rรฉsultats MAE (Median Absolute Error) pour les bases de donnรฉes รฉvaluรฉes avec des algorithmes de rรฉgression\relax }{table.caption.43}{}} |
95 | 97 | \@writefile{lof}{\contentsline {figure}{\numberline {6.13}{\ignorespaces Rรฉsultats selon la mรฉtrique MAE (Median Absolute Error) pour les dix algorithmes testรฉs\relax }}{71}{figure.caption.44}\protected@file@percent } |
chapters/ESCBR.tex
View file @
2497782
... | ... | @@ -17,7 +17,7 @@ |
17 | 17 | |
18 | 18 | La modรฉlisation de systรจmes implรฉmentant diffรฉrentes techniques d'apprentissage nous amรจne tout naturellement ร considรฉrer les avantages et inconvรฉnients proposรฉs par un systรจme multi-agents. Un SMA est un systรจme dรฉcentralisรฉ composรฉ de plusieurs entitรฉs appelรฉes agents qui ont la capacitรฉ d'effectuer des actions spรฉcifiques et de rรฉagir ร l'environnement en fonction des informations partielles ร leur disposition. Ils peuvent รฉgalement collaborer les uns avec les autres et coopรฉrer pour atteindre un objectif spรฉcifique. ร partir des informations qu'ils perรงoivent et รฉchangent, les agents peuvent apprendre de maniรจre autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un systรจme multi-agents peuvent รชtre exรฉcutรฉes en parallรจle grรขce ร l'indรฉpendance des agents. Ils sont รฉgalement robustes aux problรจmes prรฉsentant une incertitude \cite{DIDDEN2023338}. |
19 | 19 | |
20 | -Le raisonnement bayรฉsien clos ce premier tour d'horizon des techniques implรฉmentรฉes dans l'approche prรฉsentรฉe dans ce chapitre. Celui-ci est fondรฉ sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expรฉriences passรฉes permettent de dรฉduire les รฉtats futurs, guidant ainsi ses actions et ses dรฉcisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayรฉsien certaines informations peuvent รฉgalement รชtre dรฉduites ร partir d'informations incomplรจtes \cite{ZHANG2023110564}. | |
20 | +Le raisonnement bayรฉsien clรดt ce premier tour d'horizon des techniques implรฉmentรฉes dans l'approche prรฉsentรฉe dans ce chapitre. Celui-ci est fondรฉ sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expรฉriences passรฉes permettent de dรฉduire les รฉtats futurs, guidant ainsi ses actions et ses dรฉcisions \cite{HIPOLITO2023103510}. Avec le raisonnement bayรฉsien certaines informations peuvent รฉgalement รชtre dรฉduites ร partir d'informations incomplรจtes \cite{ZHANG2023110564}. | |
21 | 21 | |
22 | 22 | \section{Apprentissage par empilement et raisonnement ร partir de cas} |
23 | 23 | |
24 | 24 | |
... | ... | @@ -143,14 +143,14 @@ |
143 | 143 | \label{eqgen4} |
144 | 144 | \end{equation} |
145 | 145 | |
146 | -"Copie/changement" copie les informations d'une solution alรฉatoire et en remplace une partie par celles d'une autre solution sรฉlectionnรฉe alรฉatoirement selon l'รฉquation \ref{eqgen5}. | |
146 | +"Copie/changement" copie les informations d'une solution alรฉatoire et en remplace une partie par celles d'une autre solution sรฉlectionnรฉe alรฉatoirement selon l'รฉquation \ref{eqgen5}. | |
147 | 147 | |
148 | 148 | \begin{equation} |
149 | 149 | s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) |
150 | 150 | \label{eqgen5} |
151 | 151 | \end{equation} |
152 | 152 | |
153 | -Le vote permet de copier l'information la plus frรฉquente de toutes \ref{eqgen6}. | |
153 | +Le vote permet de copier l'information la plus frรฉquente de toutes (รฉquation \ref{eqgen6}). | |
154 | 154 | |
155 | 155 | \begin{equation} |
156 | 156 | s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl |
157 | 157 | |
... | ... | @@ -170,10 +170,11 @@ |
170 | 170 | |
171 | 171 | L'application de $\mathcal{M}$ au vecteur problรจme du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. |
172 | 172 | |
173 | -La marche alรฉatoire consiste ร choisir une solution et ร changer la valeur de l'une de ses composantes. Cette composante est tirรฉe au sort et un pas $\Delta$ est ajoutรฉ ร sa valeur. La valeur de $\Delta$ est gรฉnรฉrรฉe en suivant une distribution de probabilitรฉ normale de moyenne $0$ et de variance $1$. | |
173 | +La marche alรฉatoire consiste ร choisir une solution et ร changer la valeur de l'une de ses composantes. Cette composante est tirรฉe au sort et un pas $k$ (รฉquation \ref{eqma1}) et a sa valeur est ajoutรฉ ร une valeur $X_1$. La valeur de $X_1$ est gรฉnรฉrรฉe en suivant une distribution de probabilitรฉ normale de moyenne $0$ et de variance $1$ (รฉquation \ref{eqma2}). | |
174 | 174 | |
175 | 175 | \begin{equation} |
176 | 176 | k \sim \left(\frac{1}{nl}\right) |
177 | +\label{eqma1} | |
177 | 178 | \end{equation} |
178 | 179 | |
179 | 180 | \begin{equation} |
... | ... | @@ -181,6 +182,7 @@ |
181 | 182 | s_{j,k}^m+X_1& si \; (X_2)\%2=0\\ |
182 | 183 | s_{j,k}^m-X_1&sinon |
183 | 184 | \end{cases};X_1 \sim \mathcal{N}(0,1), X_2 \sim \mathcal{U}_{int}(0,10) |
185 | + \label{eqma2} | |
184 | 186 | \end{equation} |
185 | 187 | |
186 | 188 | \begin{figure} |
... | ... | @@ -196,7 +198,7 @@ |
196 | 198 | |
197 | 199 | Dans cette phase, le problรจme de l'รฉvaluation automatique d'une solution candidate est transformรฉ en un problรจme d'optimisation, oรน la fonction objectif est \ref{eqOpt}. Ce problรจme revient ร calculer la moyenne gรฉomรฉtrique ou encore ร rรฉsoudre le problรจme de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, rรฉsoudre ce problรจme revient ร calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problรจme en deux dimensions. Sur cette figure, le point rouge reprรฉsente une solution possible minimisant la somme des distances entre ce point et tous les autres points dรฉfinis dans l'espace. |
198 | 200 | |
199 | -La fonction objectif \ref{eqOpt} รฉtablit un rapport entre la distance de la solution gรฉnรฉrรฉe $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur alรฉatoire de \textit{drift} d'une part, et la distance entre le problรจme cible $p^n_w$ et les $x$ problรจmes connus $p^n_x$ d'autre part. Ici, la difficultรฉ ร trouver le point optimal rรฉside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dรฉpend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problรจme et solution) pour valider et gรฉnรฉrer l'ensemble de solutions proposรฉes.\ | |
201 | +La fonction objectif (รฉquations \ref{eqOpt0} et \ref{eqOpt}) รฉtablit un rapport entre la distance de la solution gรฉnรฉrรฉe $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur alรฉatoire de \textit{drift} d'une part, et la distance entre le problรจme cible $p^n_w$ et les $x$ problรจmes connus $p^n_x$ d'autre part. Ici, la difficultรฉ ร trouver le point optimal rรฉside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dรฉpend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problรจme et solution) pour valider et gรฉnรฉrer l'ensemble de solutions proposรฉes.\ | |
200 | 202 | |
201 | 203 | \begin{equation} |
202 | 204 | \lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+X)))}{d(p_w^n,p_x^n)^2} \right); \; X \sim \mathcal{N}(0,d(p_w^n, p_x^n) |
... | ... | @@ -242,7 +244,7 @@ |
242 | 244 | DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\ |
243 | 245 | DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\ |
244 | 246 | \end{tabular} |
245 | -\caption{Description des jeux de donnรฉes รฉvaluรฉes.} | |
247 | +\caption{Description des jeux de donnรฉes รฉvaluรฉs} | |
246 | 248 | \label{tabBases2} |
247 | 249 | \end{table} |
248 | 250 | |
... | ... | @@ -330,7 +332,7 @@ |
330 | 332 | |
331 | 333 | Un aspect important de l'algorithme proposรฉ est la fonction objectif, qui peut รชtre modifiรฉe dynamiquement en fonction des caractรฉristiques du problรจme รฉvaluรฉ. L'une des perspectives envisagรฉes serait de modifier le fonctionnement du paramรจtre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique. |
332 | 334 | |
333 | -De plus, ESCBR peut intรฉgrer des algorithmes diffรฉrents et des rรจgles spรฉcifiques ร certaines problรจmes dans chaque empilement et, grรขce ร la conception en deux cycles, il peut travailler avec des problรจmes dynamiques en cours d'exรฉcution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de donnรฉes montrent qu'ESCBR fournit des rรฉsultats stables. | |
335 | +De plus, ESCBR peut intรฉgrer des algorithmes diffรฉrents et des rรจgles spรฉcifiques ร certains problรจmes dans chaque empilement et, grรขce ร la conception en deux cycles, il peut travailler avec des problรจmes dynamiques en cours d'exรฉcution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de donnรฉes montrent qu'ESCBR fournit des rรฉsultats stables. | |
334 | 336 | |
335 | 337 | \subsection{Conclusion} |
336 | 338 | |
... | ... | @@ -388,7 +390,7 @@ |
388 | 390 | \hline |
389 | 391 | $p_w$&v&Description du nouveau problรจme&$\mathbb{R} ^ n$\\ |
390 | 392 | $s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\ |
391 | -$n_{rt}$&v&Nombre d'algorithmes pour l'รฉtape de rรฉtrouver&$\mathbb{Z}$\ | |
393 | +$n_{rt}$&v&Nombre d'algorithmes pour l'รฉtape de retrouver&$\mathbb{Z}$\ | |
392 | 394 | $n_{rs}$&v&Nombre d'algorithmes de rรฉutilisation&$\mathbb{Z}$\\ |
393 | 395 | $rn(x,y)$&f& |
394 | 396 | |
... | ... | @@ -463,7 +465,7 @@ |
463 | 465 | \begin{figure} |
464 | 466 | \centering |
465 | 467 | \includegraphics[scale=0.5]{Figures/BayesianEvolution.png} |
466 | - \caption{Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour Retrieve et Reuse} | |
468 | + \caption{Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour rechercher et rรฉutiliser, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour rechercher et rรฉutiliser} | |
467 | 469 | \label{fig:bayev} |
468 | 470 | \end{figure} |
469 | 471 | |
... | ... | @@ -491,7 +493,7 @@ |
491 | 493 | |
492 | 494 | \subsubsection{รchanges entre les agents} |
493 | 495 | |
494 | -Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itรฉration en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramรจtres menant aux meilleurs rรฉsultats et d'effectuer des actions rรฉtrospectivement. Les informations modifables sont choisies alรฉatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de rรฉcupรฉration, de l'algorithme de rรฉutilisation ou mรชme des vecteurs bayรฉsiens. | |
496 | +Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itรฉration en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramรจtres menant aux meilleurs rรฉsultats et d'effectuer des actions rรฉtrospectivement. Les informations modifiables sont choisies alรฉatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de rรฉcupรฉration, de l'algorithme de rรฉutilisation ou mรชme des vecteurs bayรฉsiens. | |
495 | 497 | |
496 | 498 | \subsection{Rรฉsultats} |
497 | 499 | |
498 | 500 | |
499 | 501 | |
500 | 502 | |
501 | 503 | |
502 | 504 | |
503 | 505 | |
504 | 506 | |
505 | 507 | |
506 | 508 | |
507 | 509 | |
... | ... | @@ -559,72 +561,50 @@ |
559 | 561 | \end{table} |
560 | 562 | |
561 | 563 | \begin{table}[!ht] |
562 | -\footnotesize | |
564 | +\scriptsize | |
563 | 565 | \centering |
564 | 566 | \begin{tabular}{c|ccccccccccc} |
565 | -&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\ | |
567 | +Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\ | |
566 | 568 | \hline |
567 | -%DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&8.263&8.225\\ | |
568 | -DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&8.225\\ | |
569 | -%DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.016&0.016\\ | |
570 | -DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.016\\%DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.148&7.991\\ | |
571 | -DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&7.991\\ | |
572 | -%DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.628&0.607\\ | |
573 | -DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.607\\ | |
574 | -%DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.690&0.662\\ | |
575 | -DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.662\\ | |
576 | -%DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&9.413&9.070\\ | |
577 | -DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&9.070\\ | |
578 | -%DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&3.031&2.941\\ | |
579 | -DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&2.941\\ | |
580 | -%DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.752&2.553\\ | |
581 | -DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.553\\ | |
582 | -%DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.747&2.468\\ | |
583 | -DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.468\\ | |
584 | -%DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.897&3.621\\ | |
585 | -DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.621\\ | |
569 | +DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&5.871&4.777\\ | |
570 | +DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.015&0.015\\DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.491&7.991\\ | |
571 | +DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.762&0.607\\ | |
572 | +DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.748&0.662\\ | |
573 | +DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&8.766&9.070\\ | |
574 | +DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&1.973&2.424\\ | |
575 | +DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.157&2.553\\ | |
576 | +DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.802&2.468\\ | |
577 | +DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.874&3.621\\ | |
586 | 578 | DS11&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681& |
587 | -0.541&0.54\ | |
579 | +0.541&0.55&0.54\ | |
588 | 580 | \hline |
589 | -%Avg. Rank&5.8&6.5&7.2&2.3&6.7&5.7&5.6&8.65&1.9&4.65\\ | |
590 | -Avg. Rank&6.4&6.9&8.2&2.6&7.2&6.45&6.35&9.55&2.1&4.75\\ | |
581 | +Avg. Rank&6.32&6.73&8.09&2.73&7.27&6.45&6.32&9.36&1.82&6.14&4.77\\ | |
591 | 582 | \end{tabular} |
592 | -\caption{Rรฉsultat selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.} | |
583 | +\caption{Rรฉsultats selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.} | |
593 | 584 | \label{tabRes1} |
594 | 585 | \end{table} |
595 | 586 | |
596 | 587 | \begin{table}[!ht] |
597 | -\footnotesize | |
588 | +\scriptsize | |
598 | 589 | \centering |
599 | 590 | \begin{tabular}{c|ccccccccccc} |
600 | -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\ | |
591 | +Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\ | |
601 | 592 | \hline |
602 | -%DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.218\\ | |
603 | -DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.218\\ | |
604 | -%DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\ | |
605 | -DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.010\\ | |
606 | -%DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.90&3.771\\ | |
607 | -DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.771\\ | |
608 | -%DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\ | |
609 | -DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.135\\ | |
610 | -%DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\ | |
611 | -DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.085\\ | |
612 | -%DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\ | |
613 | -DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.072\\ | |
614 | -%DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\ | |
615 | -DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.006\\ | |
616 | -%DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\ | |
617 | -DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.794\\ | |
618 | -%DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\ | |
619 | -DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.556\\ | |
620 | -%DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\ | |
621 | -DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.371\\ | |
593 | +DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.1\\ | |
594 | +DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\ | |
595 | +DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.9&3.771\\ | |
596 | +DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\ | |
597 | +DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\ | |
598 | +DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\ | |
599 | +DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\ | |
600 | +DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\ | |
601 | +DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\ | |
602 | +DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\ | |
622 | 603 | DS11&0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453& |
623 | -0.327&0.347\ | |
604 | +0.327&0.35&0.347\ | |
624 | 605 | \hline |
625 | -Avg. Rank&7.15&6.9&5.35&2.6&7.95&7.25&7.3&9.0&2.5 | |
626 | -&4.5\\ | |
627 | -%Avg. Rank&6.45&6.5&4.35&2.4&7.45&6.55&6.6&8.1&2.4&4.2\\ | |
606 | +Avg. Rank&7.22&7.05&5.5&2.55&7.95&7.32&7.36&8.90&2.45 | |
607 | +&5.51&4.72\\ | |
628 | 608 | \end{tabular} |
629 | 609 | \caption{Comparaison des rรฉsultats MAE (Median Absolute Error) pour les bases de donnรฉes รฉvaluรฉes avec des algorithmes de rรฉgression} |
630 | 610 | \label{tabRes2} |
chapters/ESCBR0.tex
View file @
2497782
1 | -\chapter{Le raisonnement ร partir de cas (Rร PC) pour la rรฉgression} | |
2 | -\chaptermark{Rร PC POUR RรGRESSION} | |
3 | - | |
4 | -\section{Introduction} | |
5 | - | |
6 | -Ce chapitre est divisรฉ en deux parties. La premiรจre partie prรฉsente un modรจle fondรฉ sur le raisonnement ร partir de cas et les mรฉthodes d'ensemble avec un double empilement itรฉratif. Nous l'avons baptisรฉ \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux รฉtapes pour trouver des solutions approximatives ร des problรจmes de rรฉgression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiรฉe dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implรฉmentation d'un SMA intรฉgrรฉ ร l'ESCBR prรฉsentรฉ dans la premiรจre partie. Nous considรฉrons dans ce chapitre que le choix des exercices les plus adaptรฉs revient ร rรฉsoudre un problรจme de rรฉgression. C'est la raison pour laquelle nous testons notre approche sur des jeux de donnรฉes classiques de rรฉgression. | |
7 | -Le modรจle prรฉsentรฉ dans cette seconde partie associe un raisonnement ร partir de cas ร des systรจmes multi-agents cognitifs implรฉmentant un raisonnement Bayรฉsien. Cette association, combinant รฉchange d'informations entre agents et apprentissage par renforcement, permet l'รฉmergence de prรฉdictions plus prรฉcises et amรฉliore ainsi les performances d'ESCBR \cite{10.1007/978-3-031-63646-2_11}.\\ | |
8 | - | |
9 | -Avant de prรฉsenter nos propositions, rappelons quelques caractรฉristiques importantes des outils combinรฉs dans notre approche. | |
10 | - | |
11 | -Le systรจme de raisonnement ร partir de cas ne nรฉcessite pas d'entrainement, et peut fonctionner avec des donnรฉes dynamiques au moment de l'exรฉcution. Les solutions proposรฉes par notre systรจme de Rร PC sont gรฉnรฉrรฉes ร l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'รฉvaluation des solutions possibles est effectuรฉe en transformant le problรจme de rรฉgression en un problรจme d'optimisation avec une fonction objectif associรฉe. La fonction objectif calcule un rapport de la distance entre la solution gรฉnรฉrรฉe et les solutions connues avec les problรจmes ร rรฉsoudre et les problรจmes connus. La dรฉfinition formelle se trouve dans la section 6.2.1.3. | |
12 | -%\colorbox{yellow}{Il faut expliquer en quelques mots ce que fait cette fonction objectif}\\ | |
13 | -Les prรฉdictions de ce nouvel algorithme ont รฉtรฉ comparรฉes ร celles de neuf algorithmes de rรฉgression classiques sur dix jeux de donnรฉes pour la rรฉgression extraits du site de l'UCI \cite{UCI}. En รฉvaluant les rรฉsultats obtenus selon la mรฉtrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la mรฉtrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisiรจme meilleur algorithme des dix รฉvaluรฉs, ce qui suggรจre que les rรฉsultats produits par ESCBR sont raisonnablement saitsfaisants. | |
14 | - | |
15 | -Les mรฉthodes d'ensemble permettent de rรฉsoudre des problรจmes de classification et de rรฉgression en combinant les rรฉsultats de plusieurs modรจles exรฉcutรฉs indรฉpendamment. Certaines de ces mรฉthodes utilisent des modรจles diffรฉrents et des ensembles de donnรฉes diffรฉrents tandis que d'autres utilisent les mรชmes modรจles avec des paramรจtres diffรฉrents. La combinaison des rรฉsultats provenant de multiples modรจles peut รชtre rรฉalisรฉe selon diffรฉrentes stratรฉgies comme l'application de rรจgles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilitรฉ d'utiliser cette mรฉthode d'ensemble en la combinant ร des outils d'apprentissage automatique. | |
16 | - | |
17 | -Les mรฉthodes d'apprentissage automatique appliquรฉes ร la rรฉgression permettent quant ร elles de prรฉdire des valeurs pour diffรฉrents types de problรจmes en construisant, รฉvaluant et formant des modรจles linรฉaires et non linรฉaires complexes. Mais il est possible d'en amรฉliorer la prรฉcision en les associant. Les stratรฉgies d'intรฉgration les plus courantes utilisรฉes pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est un type de mรฉta-modรจle d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses techniques d'apprentissage automatique pour surmonter les limites des modรจles individuels. Plusieurs รฉtudes dรฉmontrent que l'association de ces techniques permet d'amรฉliorer la prรฉcision des rรฉsultats \cite{cmc.2023.033417}. Dans ces mรฉthodes d'empilement, les algorithmes de base sont appelรฉs \textit{niveau-0}. Il s'agit gรฉnรฉralement de modรจles ou d'algorithmes d'apprentissage automatique hรฉtรฉrogรจnes qui travaillent tous avec les mรชmes donnรฉes. Le mรฉta-algorithme (appelรฉ \textit{niveau-1}) qui unifie les rรฉsultats peut รชtre une autre technique d'apprentissage automatique ou un ensemble de rรจgles qui reรงoit en entrรฉe les rรฉsultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. | |
18 | - | |
19 | -La modรฉlisation de systรจmes implรฉmentant diffรฉrentes techniques d'apprentissage nous amรจne tout naturellement ร considรฉrer les avantages et inconvรฉnients proposรฉs par un systรจme multi-agents. Un SMA est un systรจme dรฉcentralisรฉ composรฉ de plusieurs entitรฉs appelรฉes agents qui ont la capacitรฉ d'effectuer des actions spรฉcifiques et de rรฉagir ร l'environnement en fonction des informations partielles ร leur disposition. Ils peuvent รฉgalement collaborer les uns avec les autres et coopรฉrer pour atteindre un objectif spรฉcifique. ร partir des informations qu'ils perรงoivent et รฉchangent, les agents peuvent apprendre de maniรจre autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un systรจme multi-agents peuvent รชtre exรฉcutรฉes en parallรจle grรขce ร l'indรฉpendance des agents. Ils sont รฉgalement robustes aux problรจmes prรฉsentant une incertitude \cite{DIDDEN2023338}. | |
20 | - | |
21 | -Le raisonnement Bayรฉsien clos ce premier tour d'horizon des techniques implรฉmentรฉes dans l'approche prรฉsentรฉe dans ce chapitre. Celui-ci est fondรฉ sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expรฉriences passรฉes permettent de dรฉduire les รฉtats futurs, guidant ainsi ses actions et ses dรฉcisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayรฉsien certaines informations peuvent รฉgalement รชtre dรฉduites ร partir d'informations incomplรจtes \cite{ZHANG2023110564}. | |
22 | - | |
23 | -\section{Apprentissage par empilement et raisonnement ร partir de cas} | |
24 | - | |
25 | -Cette section prรฉsente la premiรจre version de l'algorithme que nous avons conรงu pour rรฉsoudre des problรจmes de rรฉgression. Celui-ci est fondรฉ sur le raisonnement ร partir de cas et l'empilement. | |
26 | - | |
27 | -\subsection{Modรจle Proposรฉ} | |
28 | - | |
29 | -L'algorithme proposรฉ, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondรฉ sur le paradigme gรฉnรฉrique du Rร PC combinรฉ ร plusieurs algorithmes de recherche de voisins et de gรฉnรฉration de solutions. Ces algorithmes ont รฉtรฉ intรฉgrรฉs selon une variation du modรจle d'empilement en deux รฉtapes itรฉratives. Cette intรฉgration donne ร l'algorithme la capacitรฉ de s'adapter ร diffรฉrents types de problรจmes, d'รฉviter les biais et le surentraรฎnement. Les rรฉsultats de l'exรฉcution des niveaux d'empilement stockent dans la mรฉmoire des conteneurs de connaissances du systรจme de Rร PC des informations qui aident non seulement ร l'apprentissage de l'algorithme au fil des itรฉrations, mais facilitent รฉgalement la gรฉnรฉration de solutions ร divers problรจmes sur diffรฉrents ensembles de donnรฉes sans nรฉcessitรฉ d'entraรฎnement prรฉalable. La conception itรฉrative en deux cycles amรฉliore la capacitรฉ du systรจme de Rร PC ร travailler et ร s'adapter ร des problรจmes dynamiques en cours d'exรฉcution, comme le montre la figure \ref{figNCBR1}. | |
30 | - | |
31 | -\begin{figure}[!ht] | |
32 | -\centering | |
33 | -\includegraphics[width=\textwidth]{./Figures/NCBR0.png} | |
34 | -\caption{Les deux cycles proposรฉs pour le Rร PC} | |
35 | -\label{figNCBR1} | |
36 | -\end{figure} | |
37 | -%\colorbox{yellow}{Attention, cette figure apparaรฎt deux fois dans ce chapitre.}\\ | |
38 | -%\colorbox{yellow}{J'ai l'impression que ce n'est pas la seule.} | |
39 | - | |
40 | -L'รฉtape de rรฉcupรฉration utilise les algorithmes de recherche et la base de donnรฉes de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problรจme cible. Puis l'รฉtape de rรฉutilisation utilise les algorithmes de gรฉnรฉration de solutions (conteneur $C2$). L'รฉtape de rรฉvision รฉvalue ensuite les solutions gรฉnรฉrรฉes et permet d'en gรฉnรฉrer de nouvelles itรฉrativement en fonction des paramรจtres stockรฉs dans le conteneur $C4$. Vient ensuite l'รฉtape de rรฉvision prenant en considรฉration la solution sรฉlectionnรฉe. Faisant suite ร cette rรฉvision, l'รฉtape de renouvellement met ร jour les paramรจtres et les donnรฉes du conteneur. Enfin, dans l'รฉtape de capitalisation, la base de cas est mise ร jour avec l'intรฉgration du nouveau cas. Les flux d'information de l'algorithme proposรฉ sont prรฉsentรฉs sur la figure~\ref{figFlowCBR}, tandis que le tableau~\ref{tabVarPar} prรฉsente l'ensemble des variables et paramรจtres de l'algorithme proposรฉ. | |
41 | - | |
42 | -\begin{figure}[!ht] | |
43 | -\centering | |
44 | -\includegraphics[scale=0.6]{./Figures/FlowCBR0.png} | |
45 | -\caption{Flux du \textit{Stacking} Rร PC} | |
46 | -\label{figFlowCBR} | |
47 | -\end{figure} | |
48 | - | |
49 | -\begin{table}[!ht] | |
50 | -\centering | |
51 | -\begin{tabular}{cccc} | |
52 | -ID&Type&Description&Domain\\ | |
53 | -\hline | |
54 | -$it$&p&Nombre d'itรฉrations&$\mathbb{N}, it>0$\\ | |
55 | -$np$&p&Nombre de processus&$\mathbb{N}, np>2$\\ | |
56 | -$nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\ | |
57 | -$ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\ | |
58 | -$n$&v&Dimension de l'espace du problรจme&$\mathbb{N}, n>0$\\ | |
59 | -$m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\ | |
60 | -$z$&v&Taille de la base de donnรฉes&$\mathbb{N}, z>0$\\ | |
61 | -$p$&v&Description du problรจme&$\mathbb{R} ^ n$\\ | |
62 | -$s$&v&Description de la solution&$\mathbb{R} ^ m$\\ | |
63 | -$r_a$&v&Nombre de modรจles pour l'รฉtape rรฉtrouver&$\mathbb{N}, r_a>2$\\ | |
64 | -$r_b$&v&Nombre de modรจles pour l'รฉtape de rรฉutilisation&$\mathbb{N}, r_b>2$\\ | |
65 | -$at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\ | |
66 | -$nl_i$&v&Nombre de voisins locaux pour le modรจle $i$&$\mathbb{N}, nl_i \le nl$\\ | |
67 | -$g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\ | |
68 | -$v$&v&รvaluation de la meilleure solution globale&$\mathbb{R}$\\ | |
69 | -$d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\ | |
70 | -$MP(x_1^z,x_2,a)$&f&Fonction du modรจle pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\ | |
71 | -$MS(x_1^m)$&f&Fonction du modรจle pour rรฉutiliser avec $x_1$ &$\mathbb{R}^m$\\ | |
72 | -$f_s(p^n,s^m)$&f&รvaluation des solutions&$\mathbb{R}$\\ | |
73 | -\end{tabular} | |
74 | -\caption{Variables et paramรจtres du modรจle proposรฉ (Type: p - paramรจtre, v - variable, f - fonction)} | |
75 | -\label{tabVarPar} | |
76 | -\end{table} | |
77 | - | |
78 | -\subsubsection{Rechercher} | |
79 | -La premiรจre รฉtape de l'algorithme consiste ร trouver les cas les plus similaires ร un nouveau cas (appelรฉ \textit{cas cible}). Pour ce faire, le modรจle d'empilement de diffรฉrents processus prรฉsentรฉ sur la figure \ref{figSta1} est utilisรฉ. Au niveau-0, chaque processus sรฉlectionne et exรฉcute un algorithme de recherche de voisins diffรฉrents choisi parmi $r_a$ modรจles dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi alรฉatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les rรฉsultats sont unifiรฉs en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont รฉtรฉ mis en ลuvre pour l'รฉtape de rรฉcupรฉration : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation. | |
80 | - | |
81 | -\begin{figure} | |
82 | -\centering | |
83 | -\includegraphics[width=\textwidth]{./Figures/Stacking1.png} | |
84 | -\caption{\textit{Stacking} pour chercher les plus proches voisins} | |
85 | -\label{figSta1} | |
86 | -\end{figure} | |
87 | - | |
88 | -Formellement, le premier modรจle d'empilement proposรฉ fonctionne avec deux paramรจtres : %\textcolor{red}{quels sont les 2 paramรจtres?} | |
89 | -une base de donnรฉes de $z$ cas oรน un cas est composรฉ de la description du problรจme et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de gรฉnรฉrer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exรฉcutรฉ, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est gรฉnรฉrรฉ. Au niveau-1, un ensemble global est crรฉรฉ ร l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le rรฉsultat du premier modรจle d'empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches. | |
90 | - | |
91 | -\subsubsection{Rรฉutiliser} | |
92 | - | |
93 | -Une fois la liste globale des cas similaires รฉtablie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisรฉes pour gรฉnรฉrer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations reprรฉsentรฉs sur la figure \ref{figAuto}. La gรฉnรฉration est effectuรฉe avec un deuxiรจme modรจle d'empilement de diffรฉrents processus. Ce modรจle d'empilement est reprรฉsentรฉ sur la figure \ref{figSta2}. Au niveau-0, chaque processus sรฉlectionne et exรฉcute un algorithme de gรฉnรฉration diffรฉrent ร partir des modรจles $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions gรฉnรฉrรฉes sont stockรฉes dans une mรฉmoire globale. Toutes les solutions connues et gรฉnรฉrรฉes sont reprรฉsentรฉes avec la mรชme structure comme le montre la figure \ref{figSolRep}. | |
94 | - | |
95 | -\begin{figure}[!ht] | |
96 | - \centering | |
97 | - \includegraphics[scale=1]{./Figures/SolRep.png} | |
98 | - \caption{Reprรฉsentation des solutions connues et gรฉnรฉrรฉes} | |
99 | - \label{figSolRep} | |
100 | -\end{figure} | |
101 | - | |
102 | -Neuf algorithmes ont รฉtรฉ mis en ลuvre pour l'รฉtape de rรฉutilisation au niveau-0 : moyenne avec probabilitรฉ, moyenne sans probabilitรฉ, valeurs mรฉdianes, sรฉlection alรฉatoire avec probabilitรฉ, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche alรฉatoire. Tous les algorithmes proposรฉs pour gรฉnรฉrer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'รฉtape de rรฉcupรฉration. | |
103 | - | |
104 | -\begin{figure}[!ht] | |
105 | -\centering | |
106 | -\includegraphics[width=\textwidth]{./Figures/AutomaticS.png} | |
107 | -\caption{Gรฉnรฉration et vรฉrification automatique des solutions} | |
108 | -\label{figAuto} | |
109 | -\end{figure} | |
110 | - | |
111 | -La moyenne pondรฉrรฉe avec probabilitรฉ est construite en considรฉrant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sรฉlectionnรฉs par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculรฉ en considรฉrant la distance entre celui-ci et le cas cible, selon l'รฉquation \ref{gen00}. | |
112 | -Nous considรฉrons alors l'ensemble de ces ratios comme une distribution de probabilitรฉ discrรจte. Chacune des composantes du vecteur solution sont ensuite calculรฉs selon l'รฉquation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. | |
113 | - | |
114 | -\begin{equation} | |
115 | - \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) | |
116 | - \label{gen00} | |
117 | -\end{equation} | |
118 | - | |
119 | -\begin{equation} | |
120 | - s^m_{j,w}=\frac{1}{nl} \sum_{i=0}^{nl} \alpha_j s_{i,j} | |
121 | - \label{gen01} | |
122 | -\end{equation} | |
123 | - | |
124 | -La moyenne sans probabilitรฉ gรฉnรจre la nouvelle solution oรน la valeur de chaque composante est la moyenne calculรฉe avec une distribution de probabilitรฉ uniforme (attribuant la mรชme probabilitรฉ ร toutes les composantes de toutes les solutions associรฉes aux cas les plus proches du cas cible). Formellement la gรฉnรฉration de la solution est calculรฉe selon l'รฉquation \ref{gen2}. | |
125 | - | |
126 | -\begin{equation} | |
127 | - s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl} s_{i,j} | |
128 | - \label{gen2} | |
129 | -\end{equation} | |
130 | - | |
131 | -La gรฉnรฉration par valeurs mรฉdianes (รฉquation \ref{eqgen3}) construit la solution en utilisant la valeur mรฉdiane de toutes les solutions pour chaque composante $j$. $X_j$ reprรฉsente l'ensemble des valeurs ordonnรฉes des $j$-iรจmes composantes de toutes solutions $S$. | |
132 | - | |
133 | -\begin{equation} | |
134 | - s_{j,w}^m= | |
135 | - \begin{cases} | |
136 | - x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\ | |
137 | - \frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\ | |
138 | - \end{cases} | |
139 | - \label{eqgen3} | |
140 | -\end{equation} | |
141 | - | |
142 | -La sรฉlection alรฉatoire avec probabilitรฉ (รฉquation \ref{eqgen4}) gรฉnรจre une solution en copiant la $j$-iรจme composante de l'une des solutions tirรฉe au sort. Le tirage au sort suit une loi donnรฉe par une distribution de probabilitรฉ discrรจte. Cette distribution de probabilitรฉ est identique ร celle de la moyenne pondรฉrรฉe avec probabilitรฉ. | |
143 | - | |
144 | -\begin{equation} | |
145 | -s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right) | |
146 | -\label{eqgen4} | |
147 | -\end{equation} | |
148 | - | |
149 | -"Copie/changement" copie les informations d'une solution alรฉatoire et en remplace une partie par celles d'une autre solution sรฉlectionnรฉe alรฉatoirement selon l'รฉquation \ref{eqgen5}. | |
150 | - | |
151 | -\begin{equation} | |
152 | -s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) | |
153 | -\label{eqgen5} | |
154 | -\end{equation} | |
155 | - | |
156 | -Le vote permet de copier l'information la plus frรฉquente de toutes \ref{eqgen6}. | |
157 | - | |
158 | -\begin{equation} | |
159 | -s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl | |
160 | -\label{eqgen6} | |
161 | -\end{equation} | |
162 | - | |
163 | -L'interpolation construit une distribution de probabilitรฉ continue pour chaque composante $j$. Chaque probabilitรฉ de ces distributions est le rรฉsultat d'une fonction d'interpolation linรฉaire ร une composante. La valeur de la $j$-iรจme composante de la solution est calculรฉe selon l'รฉquation \ref{eqgen7}. | |
164 | - | |
165 | -\begin{equation} | |
166 | - s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl | |
167 | - \label{eqgen7} | |
168 | -\end{equation} | |
169 | - | |
170 | -L'analyse en composantes principales (PCA) consiste ร รฉtablir une transformation de la description du problรจme en description de la solution associรฉe. La moyenne de la distance entre tous les paires problรจme-solution est calculรฉe et permet de gรฉnรฉrer une solution par transposition. | |
171 | - | |
172 | -La PCA permet donc de gรฉnรฉrer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problรจme en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stockรฉ est calculรฉe. Une moyenne de ces distances $md$ est ensuite considรฉrรฉe. | |
173 | - | |
174 | -L'application de $\mathcal{M}$ au vecteur problรจme du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. | |
175 | - | |
176 | -La marche alรฉatoire consiste ร choisir une solution et changer ses valeurs dans une composante alรฉatoire avec un pas alรฉatoire. Le pas est une valeur alรฉatoire gรฉnรฉrรฉe avec une distribution de probabilitรฉ normal de moyenne 0 et variance 1. | |
177 | -\\ | |
178 | -\colorbox{yellow}{Je ne comprends pas ce qui est alรฉatoire. Le choix de la dimension ? Le pas ?}\\ | |
179 | -\colorbox{yellow}{รviter les petits et grands, si nรฉcessaire, donner plutรดt un ordre de grandeur ou un intervalle.} | |
180 | - | |
181 | -\begin{equation} | |
182 | -k \sim \left(\frac{1}{nl}\right) | |
183 | -\end{equation} | |
184 | - | |
185 | -\begin{equation} | |
186 | - s_{w,j}^m=\begin{cases} | |
187 | - s_{j,k}^m+\mathcal{N}(0,1)& si \; (\mathcal{U}_{int}(0,10))\%2=0\\ | |
188 | - s_{j,k}^m-\mathcal{N}(0,1)&sinon | |
189 | - \end{cases} | |
190 | -\end{equation} | |
191 | - | |
192 | -\begin{figure} | |
193 | -\centering | |
194 | -\includegraphics[width=\textwidth]{./Figures/Stacking2.png} | |
195 | -\caption{\textit{Stacking} pour la gรฉnรฉration de solutions} | |
196 | -\label{figSta2} | |
197 | -\end{figure} | |
198 | - | |
199 | -La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramรจtres du deuxiรจme modรจle d'empilement. Chaque modรจle dรฉcrit ci-dessus gรฉnรจre une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est รฉvaluรฉ ร l'aide d'une fonction permettant de dรฉterminer la qualitรฉ de la solution. | |
200 | -\colorbox{yellow}{J'ai rรฉ-รฉcrit le paragraphe ci-dessus selon ma comprรฉhension. Est-ce exact ?} | |
201 | - | |
202 | -\subsubsection{Rรฉvision} | |
203 | - | |
204 | -Dans cette phase, le problรจme de l'รฉvaluation automatique d'une solution candidate est transformรฉ en un problรจme d'optimisation, oรน la fonction objectif est \ref{eqOpt}. Ce problรจme revient ร calculer la moyenne gรฉomรฉtrique ou encore ร rรฉsoudre le problรจme de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, rรฉsoudre ce problรจme revient ร calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problรจme en deux dimensions. Sur cette figure, le point rouge reprรฉsente une solution possible minimisant la somme des distances entre ce point et tous les autres points dรฉfinis dans l'espace. | |
205 | - | |
206 | -La fonction objectif \ref{eqOpt} รฉtablit un rapport entre la distance de la solution gรฉnรฉrรฉe $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur alรฉatoire de \textit{drift} d'une part, et la distance entre le problรจme cible $p^n_w$ et les $x$ problรจmes connus $p^n_x$ d'autre part. Ici, la difficultรฉ ร trouver le point optimal rรฉside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dรฉpend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problรจme et solution) pour valider et gรฉnรฉrer l'ensemble de solutions proposรฉes.\\ | |
207 | -%\colorbox{yellow}{J'ai beaucoup modifiรฉ le paragraphe ci-dessus. Il faudrait vรฉrifier.} | |
208 | - | |
209 | -\begin{equation} | |
210 | -\lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+rn(0,d(p_w^n, p_i^n))))}{d(p_w^n,p_x^n)^2} \right) | |
211 | -\label{eqOpt0} | |
212 | -\end{equation} | |
213 | - | |
214 | -\begin{equation} | |
215 | -min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right) | |
216 | -\label{eqOpt} | |
217 | -\end{equation} | |
218 | - | |
219 | -\begin{figure}[!ht] | |
220 | - \centering | |
221 | - \includegraphics[width=\textwidth]{Figures/FW.png} | |
222 | - \caption{Reprรฉsentation graphique en deux dimensions du problรจme de moyenne gรฉomรฉtrique. (Points associรฉs au problรจme ($\lambda_1,..,\lambda_7$) et point rouge solution au problรจme)} | |
223 | - \label{fig:FW} | |
224 | -\end{figure} | |
225 | - | |
226 | -Le cycle d'optimisation permet d'exรฉcuter les phases de rรฉcupรฉration et de rรฉutilisation en fonction de l'action sรฉlectionnรฉe alรฉatoirement parmi $[0,at]$ ร chaque itรฉration $it$. ร chaque itรฉration, la valeur minimale รฉvaluรฉe par la fonction objectif est sauvegardรฉe. | |
227 | - | |
228 | -\subsubsection{Mรฉmorisation} | |
229 | - | |
230 | -L'รฉtape de mรฉmorisation consiste simplement ร prendre la meilleure solution proposรฉe et ร dรฉterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrรฉe dans la base de connaissances. | |
231 | - | |
232 | -\subsection{Rรฉsultats} | |
233 | - | |
234 | -Les performances de prรฉdiction de l'algorithme proposรฉ ont รฉtรฉ comparรฉes ร celles de neuf autres algorithmes sur dix jeux de donnรฉes classiquement utilisรฉs pour รฉvaluer des mรฉthodes de rรฉgression. Ces jeux de donnรฉes prรฉsentent des caractรฉristiques diffรฉrentes. Les jeux de donnรฉes et leurs caractรฉristiques sont consignรฉes dans le tableau \ref{tabBases2}. Les valeurs des paramรจtres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | |
235 | -%\colorbox{yellow}{ร quoi correspondent ces valeurs ? Unitรฉs ?} | |
236 | - | |
237 | -\begin{table}[!ht] | |
238 | -\tiny | |
239 | -\centering | |
240 | -\begin{tabular}{llccccc} | |
241 | -ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\ | |
242 | -\hline | |
243 | -DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
244 | -DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
245 | -DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
246 | -DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
247 | -DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
248 | -DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
249 | -DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
250 | -DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
251 | -DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
252 | -DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
253 | -\end{tabular} | |
254 | -\caption{Description des bases de donnรฉes รฉvaluรฉes. (* aprรจs codification comme \textit{String})} | |
255 | -\label{tabBases2} | |
256 | -\end{table} | |
257 | - | |
258 | -L'algorithme proposรฉ est comparรฉ ร neuf algorithmes de rรฉgression largement utilisรฉs dans divers travaux de recherche et problรจmes appliquรฉs. La liste des algorithmes est prรฉsentรฉe dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont รฉtรฉ exรฉcutรฉs 100 fois, et les algorithmes qui nรฉcessitent un entraรฎnement et des validations croisรฉes sont exรฉcutรฉs avec 10 blocs, c'est-ร -dire $k=10$. %\colorbox{yellow}{ร quoi correspond ce k ? Unitรฉ ?} | |
259 | - | |
260 | -\begin{table}[!ht] | |
261 | -\centering | |
262 | -\footnotesize | |
263 | -\begin{tabular}{ll|ll} | |
264 | -ID&Algorithm&ID&Algorithm\\ | |
265 | -\hline | |
266 | -A1&Linear Regression&A6&Polinomial Regression\\ | |
267 | -A2&K-Nearest Neighbor&A7&Ridge Regression\\ | |
268 | -A3&Decision Tree&A8&Lasso Regression\\ | |
269 | -A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | |
270 | -A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\ | |
271 | -\end{tabular} | |
272 | -\caption{Liste des algorithmes รฉvaluรฉs} | |
273 | -\label{tabAlgs} | |
274 | -\end{table} | |
275 | - | |
276 | -Le tableau \ref{tabRes1} prรฉsente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de donnรฉes. Le tableau \ref{tabRes2} prรฉsente l'erreur absolue mรฉdiane (MAE) obtenue par chaque algorithme pour chaque jeu de donnรฉes. | |
277 | - | |
278 | -\begin{table}[!ht] | |
279 | -\footnotesize | |
280 | -\centering | |
281 | -\begin{tabular}{c|ccccccccccc} | |
282 | -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
283 | -\hline | |
284 | -DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\ | |
285 | -DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\ | |
286 | -DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\ | |
287 | -DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\ | |
288 | -DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\ | |
289 | -DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\ | |
290 | -DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\ | |
291 | -DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\ | |
292 | -DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\ | |
293 | -DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\ | |
294 | -\hline | |
295 | -Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\ | |
296 | -\end{tabular} | |
297 | -\caption{RMSE calculรฉes sur les dix jeux de donnรฉes sรฉlectionnรฉs obtenues aprรจs exรฉcution des dix algorithmes de rรฉgression considรฉrรฉs} | |
298 | -\label{tabRes1} | |
299 | -\end{table} | |
300 | - | |
301 | -\begin{table}[!ht] | |
302 | -\footnotesize | |
303 | -\centering | |
304 | -\begin{tabular}{c|ccccccccccc} | |
305 | -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
306 | -\hline | |
307 | -DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\ | |
308 | -DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\ | |
309 | -DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\ | |
310 | -DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\ | |
311 | -DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\ | |
312 | -DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\ | |
313 | -DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\ | |
314 | -DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\ | |
315 | -DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\ | |
316 | -DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\ | |
317 | -\hline | |
318 | -Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\ | |
319 | -\end{tabular} | |
320 | -\caption{MAE calculรฉes sur les dix jeux de donnรฉes sรฉlectionnรฉs obtenues aprรจs exรฉcution des dix algorithmes de rรฉgression considรฉrรฉs} | |
321 | -\label{tabRes2} | |
322 | -\end{table} | |
323 | - | |
324 | -La dispersion globale, la mรฉdiane et les valeurs aberrantes pour quatre jeux de donnรฉes reprรฉsentatifs sont prรฉsentรฉes sur la figure \ref{figBox}. Nous pouvons voir que l'algorithme proposรฉ gรฉnรจre plus de valeurs aberrantes que les autres algorithmes, parce que les algorithmes exรฉcutรฉs peuvent avoir tendance ร privilรฉgier l'exploration de l'espace des solutions en cherchant ร gรฉnรฉrer des solutions novatrices | |
325 | -%\textcolor{red}{pourquoi?} | |
326 | -, mais la variance est faible et la convergence est proche de la valeur rรฉelle, meilleure que la plupart des algorithmes comparรฉs. | |
327 | - | |
328 | -\begin{figure} | |
329 | -\includegraphics[width=\textwidth]{./Figures/boxplot.png} | |
330 | -\caption{Rรฉsultats de la mรฉtrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de donnรฉes reprรฉsentatives} | |
331 | -\label{figBox} | |
332 | -\end{figure} | |
333 | - | |
334 | -\subsection{Discussion} | |
335 | - | |
336 | -De par ses performances, ESCBR se rรฉvรจle compรฉtitif par rapport ร certains des neuf autres algorithmes testรฉs pour la prรฉdiction dans les problรจmes de rรฉgression. En particulier, dans ce travail, nous avons effectuรฉ les tests sur dix jeux de donnรฉes aux caractรฉristiques variรฉes, telles que le nombre d'instances, le nombre de caractรฉristiques, le domaine des variables d'entrรฉe, les dimensions de la variable de sortie et le domaine d'application. Cela dรฉmontre la polyvalence de l'algorithme proposรฉ et son applicabilitรฉ ร diffรฉrentes configurations. รtant donnรฉ la nature exploratoire et stochastique d'ESCBR, il prรฉsente une grande diversitรฉ de solutions gรฉnรฉrant plusieurs valeurs aberrantes. Malgrรฉ cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois รฉlevรฉes, mais celles de la mรฉdiane restent faibles, la mรฉdiane attรฉnuant les disparitรฉs. | |
337 | - | |
338 | -On constate รฉgalement que l'intรฉgration des algorithmes de recherche produit de meilleurs rรฉsultats que les algorithmes simples (tels que le KNN ou la rรฉgression linรฉaire). | |
339 | - | |
340 | -Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (Random forest et Gradient Boosting) %\colorbox{yellow}{rappeler ici entre parenthรจses les noms de ces algorithmes de boosting} | |
341 | -sont globalement plus performants que les algorithmes classiques, mรชme si les performances sont variables. Les performances calculรฉes selon la RMSE classent notre algorithme ESCBR ร la sixiรจme place. En revanche, en considรฉrant les performances mesurรฉes selon la MAE, ESCBR est classรฉ en premiรจre place pour trois des dix jeux de donnรฉes et il se classe globalement ร la troisiรจme place. | |
342 | - | |
343 | -Un aspect important de l'algorithme proposรฉ est la fonction objectif, qui peut รชtre modifiรฉe dynamiquement en fonction des caractรฉristiques du problรจme รฉvaluรฉ. Les tests ont รฉtรฉ effectuรฉs avec la fonction intuitive qui fournit une plus grande probabilitรฉ de sรฉlection et d'รฉvolution ร la solution associรฉe aux voisins les plus proches, mais il est possible de complรฉter l'รฉvaluation avec d'autres termes pertinents et d'amรฉliorer ainsi les rรฉsultats.\textcolor{red}{je ne comprends pas} \colorbox{yellow}{Idem} | |
344 | - | |
345 | -De plus, ESCBR peut intรฉgrer des algorithmes diffรฉrents et des rรจgles spรฉcifiques ร certaines problรจmes dans chaque pile | |
346 | -%\textcolor{red}{sรปr?} | |
347 | -et, grรขce ร la conception en deux cycles, il peut travailler avec des problรจmes dynamiques en cours d'exรฉcution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de donnรฉes montrent qu'ESCBR fournit des rรฉsultats stables \colorbox{yellow}{C'est bien รงa ?} \textcolor{red}{variance faible =?}. | |
348 | - | |
349 | -\subsection{Conclusion} | |
350 | - | |
351 | -Ce chapitre propose une technique de rรฉgression gรฉnรฉrique utilisant le raisonnement ร partir de cas et le modรจle d'empilement que nous avons baptisรฉ ESCBR. Ce modรจle ne nรฉcessite pas d'entrainement prรฉalable et grรขce au cycle itรฉratif interne, il peut s'adapter ร des problรจmes dynamiques en temps rรฉel. Les rรฉsultats numรฉriques obtenus lors des tests effectuรฉs montrent le potentiel de l'algorithme avec des donnรฉes variรฉes et des jeux de donnรฉes de diffรฉrentes tailles. Les tests effectuรฉs dans cette premiรจre partie de chapitre montrent ainsi la compรฉtitivitรฉ d'ESCBR avec d'autres algorithmes standards et robustes couramment utilisรฉs pour rรฉsoudre des problรจmes de rรฉgression.\\\\ | |
352 | - | |
353 | -\section{ESCBR-SMA : Introduction des systรจmes multi-agents dans ESCBR} | |
354 | - | |
355 | -La mรฉthode ESCBR que nous avons proposรฉe dans la section prรฉcรฉdente est fondรฉe sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposรฉes par des processus intelligents et concurrents pour en gรฉnรฉrer une, nous nous sommes tout naturellement tournรฉ vers la possibilitรฉ d'inclure des agents dans le processus de dรฉcision. L'une des ambitions des systรจmes multi-agents consiste en effet ร faire รฉmerger une intelligence collective capable de fournir une solution. Cette section prรฉsente donc l'รฉvolution d'ESCBR en ESCBR-SMA. | |
356 | - | |
357 | -\subsection{Modรจle Proposรฉ} | |
358 | - | |
359 | -L'algorithme ESCBR-SMA est fondรฉ sur le paradigme du Rร PC et incorpore divers algorithmes de recherche de voisins et de gรฉnรฉration de solutions. Ceux-ci sont intรฉgrรฉs ร l'aide d'une variante du modรจle d'empilement en deux รฉtapes itรฉratives, exรฉcutรฉes par des agents qui exploitent indรฉpendamment les algorithmes dรฉfinis dans les conteneurs de connaissances de la rรฉvision et de la rรฉutilisation du cycle classique du Rร PC. Les agents possรจdent une mรฉmoire locale qui leur permet d'ajuster et de dรฉvelopper leur recherche de voisins, en gรฉnรฉrant des solutions ร chaque itรฉration. Chaque agent a un comportement individuel autorisant l'รฉchange d'informations avec les autres agents. La figure \ref{figNCBR} dรฉcrit le processus de dรฉcision et les comportements des agents au sein du systรจme รฉlargi. | |
360 | - | |
361 | -\begin{figure}[!ht] | |
362 | -\centering | |
363 | -\includegraphics[width=\textwidth]{Figures/NCBR.png} | |
364 | -\caption{Deux cycles du systรจme ESCBR-SMA proposรฉ} | |
365 | -\label{figNCBR} | |
366 | -\end{figure} | |
367 | - | |
368 | -Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problรจme au cours de la premiรจre รฉtape puis, au cours de la seconde, gรฉnรจre une solution en se rรฉfรฉrant ร la liste des solutions obtenues au cours de la premiรจre รฉtape. ร chaque itรฉration, les agents peuvent choisir parmi trois comportements programmรฉs : la recherche de problรจmes voisins, la gรฉnรฉration de solutions ou l'รฉchange d'informations avec un autre agent. L'exรฉcution de ces trois comportements programmรฉs est asynchrone. En revanche, la crรฉation et la sรฉlection de la liste des voisins se font de maniรจre synchronisรฉe. | |
369 | - | |
370 | -Les รฉtapes d'extraction, de rรฉutilisation, de rรฉvision et de conservation restent conformes au modรจle Rร PC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles รฉtapes : | |
371 | -\begin{itemize} | |
372 | - \item durant la phase de reconfiguration, les agents mettent ร jour les valeurs de leurs paramรจtres locaux afin d'amรฉliorer la qualitรฉ de la solution proposรฉe lors de l'itรฉration suivante, | |
373 | - \item durant la phase d'รฉchange, les agents รฉchangent des informations pour amรฉliorer leurs processus internes de recherche et de gรฉnรฉration, | |
374 | - \item enfin, l'รฉtape de rรฉvision met ร jour les valeurs des paramรจtres globaux de l'algorithme. | |
375 | -\end{itemize} | |
376 | - | |
377 | -Le flux complet de l'algorithme proposรฉ est dรฉcrit sur la figure \ref{figFlowCBR}. | |
378 | - | |
379 | -En premier lieu, ESCBR-SMA crรฉe $n$ agents. Lors de l'initialisation, les agents sรฉlectionnent au hasard un algorithme de rรฉcupรฉration et un algorithme de rรฉutilisation, et initialisent รฉgalement les vecteurs bayรฉsiens correspondants. Tous les agents travaillent avec le mรชme ensemble de donnรฉes. | |
380 | - | |
381 | -Les agents exรฉcutent en parallรจle l'algorithme de rรฉcupรฉration sรฉlectionnรฉ, ร partir des problรจmes similaires trouvรฉs ; chaque agent extrait les solutions et exรฉcute l'algorithme spรฉcifique de gรฉnรฉration d'une nouvelle solution. | |
382 | -Toutes les solutions proposรฉes par les agents sont รฉvaluรฉes ร l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvรฉe ร ce stade. | |
383 | - | |
384 | -Au cours de l'รฉtape suivante, les agents sรฉlectionnent au hasard un algorithme de rรฉcupรฉration et un algorithme de rรฉutilisation, puis ils mettent ร jour les vecteurs bayรฉsiens en fonction des rรฉsultats obtenus avec la fonction objectif. | |
385 | - | |
386 | -Lors de l'itรฉration suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de rรฉcupรฉration et de rรฉutilisation, ne changer que l'algorithme de rรฉutilisation ou รฉchanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit alรฉatoirement une action pour tenter d'amรฉliorer la solution candidate. | |
387 | - | |
388 | -L'ensemble des variables et paramรจtres d'ESCBR-SMA sont consignรฉs dans le tableau \ref{tabVarPar}. Le systรจme multi-agents est composรฉ d'un nombre variable d'agents, tous homogรจnes mais dotรฉs de processus cognitifs internes indรฉpendants et stochastiques. | |
389 | - | |
390 | -\begin{figure}[!ht] | |
391 | -\centering | |
392 | -\includegraphics[scale=0.6]{Figures/FlowCBR.png} | |
393 | -\caption{Flux du \textit{Stacking} du Rร PC (* est une tรขche effectuรฉe par chaque agent)} | |
394 | -\label{figFlowCBR} | |
395 | -\end{figure} | |
396 | - | |
397 | -\begin{table}[!ht] | |
398 | -\footnotesize | |
399 | -\centering | |
400 | -\begin{tabular}{cccc} | |
401 | -ID&Type&Description&Domain\\ | |
402 | -\hline | |
403 | -$it$&p&Nombre d'itรฉrations&$\mathbb{N}, it>0$\\ | |
404 | -$np$&p&Nombre d'agents&$\mathbb{N}, np>2$\\ | |
405 | -$nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\ | |
406 | -$ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\ | |
407 | -$n$&v&Dimension de l'espace du problรจme&$\mathbb{N}, n>0$\\ | |
408 | -$m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\ | |
409 | -$p$&v&Description du problรจme&$\mathbb{R} ^ n$\\ | |
410 | -$s$&v&Description de la solution&$\mathbb{R} ^ m$\\ | |
411 | -$p_w$&v&Description du nouveau problรจme&$\mathbb{R} ^ n$\\ | |
412 | -$s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\ | |
413 | -$n_{rt}$&v&Nombre d'algorithmes por l'รฉtape de rรฉtrouver&$\mathbb{Z}$\\ | |
414 | -$n_{rs}$&v&Nombre d'algorithmes de rรฉutilisation&$\mathbb{Z}$\\ | |
415 | -$d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\ | |
416 | -$rn(x,y)$&f& | |
417 | - | |
418 | -\begin{tabular}{@{}c@{}}Valeur alรฉatoire avec distribution normale\\ $x$ moyenne, $y$ รฉcart-type | |
419 | -\end{tabular} | |
420 | - | |
421 | -&$\mathbb{R}_+$\\ | |
422 | -$rnp(x,y)$&f& | |
423 | - | |
424 | -\begin{tabular}{@{}c@{}}Valeur alรฉatoire discrรจte, $x$ nombre d'options \\ $y$ vecteur discret de probabilitรฉs | |
425 | -\end{tabular} | |
426 | -&$\mathbb{Z}$\\ | |
427 | -$f_s(p^n,s^m)$&f&รvaluation des solutions&$\mathbb{R}$\\ | |
428 | -\end{tabular} | |
429 | -\caption{Variables et paramรจtres du modรจle proposรฉ (Type: p - paramรจtre, v - variable, f - fonction)} | |
430 | -\label{tabVarPar} | |
431 | -\end{table} | |
432 | - | |
433 | -\subsubsection{Algorithmes} | |
434 | - | |
435 | -Cette section prรฉsente de maniรจre plus dรฉtaillรฉe les comportements des agents d'ESCBR-SMA. | |
436 | - | |
437 | -Lors de la premiรจre รฉtape de l'empilement, chaque agent peut sรฉlectionner l'un des algorithmes ร mettre en ลuvre pour rechercher des problรจmes similaires au nouveau problรจme posรฉ. Les algorithmes possibles sont les suivants : KNN (K-Nearest Neighbor), KMeans, GMM (Gaussian Mixture Model), FuzzyC et KNN pondรฉrรฉ. | |
438 | - | |
439 | -Lors de la deuxiรจme รฉtape de l'empilement, les agents peuvent choisir un algorithme parmi les suivants : pondรฉration avec probabilitรฉ, pondรฉration sans probabilitรฉ, valeurs mรฉdianes, Copier/Changer, vote, interpolation, PCA (analyse en composantes principales) et non alรฉatoire. Les algorithmes ont รฉtรฉ explicitรฉs dans la section 6.2.1.2. | |
440 | - | |
441 | -\subsubsection{Structure des agents} | |
442 | - | |
443 | -Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'obtenir un comportement indรฉpendant et diffรฉrent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nรฉcessaires ร l'exรฉcution de l'ensemble du processus. | |
444 | - | |
445 | -Chaque agent peut exรฉcuter trois actions diffรฉrentes : | |
446 | -\begin{itemize} | |
447 | - \item ยซ Rรฉcupรฉrer et rรฉutiliser ยป, | |
448 | - \item ยซ Rรฉutiliser ยป et | |
449 | - \item ยซ รchanger ยป. | |
450 | -\end{itemize} | |
451 | - | |
452 | -Chaque agent accรจde aux valeurs de huit variables qui lui sont propres : | |
453 | -\begin{itemize} | |
454 | - \item le nombre de voisins dรฉfinissant le nombre de problรจmes similaires au nouveau problรจme posรฉ que l'agent doit rechercher dans la base de connaissancesร, | |
455 | - \item la liste des voisins les plus proches รฉtablit la liste des agents avec lesquels des informations peuvent รชtre รฉchangรฉes, | |
456 | - \item l'identifiant de l'algorithme de rรฉcupรฉration que l'agent exรฉcutera pour trouver les problรจmes similaires au nouveau problรจme, | |
457 | - \item l'identifiant de l'algorithme de rรฉutilisation que l'agent exรฉcutera pour gรฉnรฉrer une solution candidate au cas cible, | |
458 | - \item la description de la solution gรฉnรฉrรฉe, | |
459 | - \item l'รฉvaluation de la solution renseignant sur la qualitรฉ de la solution gรฉnรฉrรฉe et calculรฉe selon une fonction d'optimisation (eq \ref{eqOpt1} et eq \ref{eqOpt2}), | |
460 | - \item le vecteur bayรฉsien nรฉcessaire aux algorithmes de rรฉcupรฉration contenant les valeurs de probabilitรฉ, et | |
461 | - \item le vecteur bayรฉsien nรฉcessaire aux algorithmes de rรฉutilisation contenant les valeurs de probabilitรฉ. | |
462 | -\end{itemize} | |
463 | - | |
464 | -\begin{equation} | |
465 | -min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right) | |
466 | -\label{eqOpt1} | |
467 | -\end{equation} | |
468 | - | |
469 | -\begin{equation} | |
470 | -s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n)) | |
471 | -\label{eqOpt2} | |
472 | -\end{equation} | |
473 | - | |
474 | -\begin{figure}[!ht] | |
475 | -\centering | |
476 | -\includegraphics[scale=0.7]{Figures/agent.png} | |
477 | -\caption{Structure interne des agents} | |
478 | -\label{figAgent} | |
479 | -\end{figure} | |
480 | - | |
481 | -\subsubsection{Apprentissage des agents} | |
482 | - | |
483 | -Tous les agents considรจrent un vecteur bayรฉsien de probabilitรฉ pour la phase de rรฉcupรฉration (conteneur $C3$) et un vecteur bayรฉsien de probabilitรฉ pour la phase de rรฉutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurรฉs avec une probabilitรฉ uniforme pour tous les algorithmes de rรฉcupรฉration et de rรฉutilisation (probabilitรฉ \textit{a priori}). ร chaque itรฉration, les vecteurs sont mis ร jour selon l'รฉquation Bayรฉsienne (รฉquation \ref{eqBay}) en utilisant les meilleurs rรฉsultats du mรชme agent comme paramรจtre de vraisemblance. L'agent apprend ainsi de son expรฉrience et sรฉlectionne les algorithmes les plus aptes ร fournir les meilleures rรฉponses au regard de l'objectif dรฉfini. | |
484 | - | |
485 | -Par consรฉquent, d'un point plus global au niveau du SMA, l'apprentissage est fondรฉ sur un raisonnement bayรฉsien oรน les vecteurs de rรฉcupรฉration et de rรฉutilisation รฉvoluent. Un exemple d'รฉvolution est prรฉsentรฉ sur la figure \ref{fig:bayev}. Au cours d'une itรฉration, si un algorithme a contribuรฉ ร la construction de la meilleure solution, il reรงoit un point pour chaque agent qui l'a utilisรฉ. Ces informations sont stockรฉes dans un vecteur normalisรฉ qui est ensuite utilisรฉ comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilitรฉs dans l'รฉquation bayรฉsienne \ref{eqBay} (dans cette รฉquation, $P(B)$ est le terme de normalisation global). | |
486 | - | |
487 | -\begin{figure} | |
488 | - \centering | |
489 | - \includegraphics[scale=0.5]{Figures/BayesianEvolution.png} | |
490 | - \caption{Exemple d'รฉvolution Bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour Retrieve et Reuse} | |
491 | - \label{fig:bayev} | |
492 | -\end{figure} | |
493 | - | |
494 | -\begin{equation} | |
495 | - P(A|B)=\frac{P(B|A)P(A)}{P(B)} | |
496 | - \label{eqBay} | |
497 | -\end{equation} | |
498 | - | |
499 | -La sรฉlection d'un algorithme de recherche $a_{rt}$ se fait au moyen d'une valeur alรฉatoire | |
500 | -\\ \colorbox{yellow}{La valeur est alรฉatoire ? Ou le choix de la valeur est alรฉatoire ?} \\ | |
501 | -tirรฉe du vecteur de distribution de recherche discrรจte obtenu par raisonnement bayรฉsien et calculรฉ selon l'รฉquation \ref{eqRta}. | |
502 | - | |
503 | -\begin{equation} | |
504 | - a_{rt}=rnp(n_{rt},P(A|B)_{rt}) | |
505 | - \label{eqRta} | |
506 | -\end{equation} | |
507 | - | |
508 | -La sรฉlection d'un algorithme de rรฉutilisation $a_{rs}$ se fait au moyen d'une valeur alรฉatoire | |
509 | -\\ \colorbox{yellow}{La valeur est alรฉatoire ? Ou le choix de la valeur est alรฉatoire ?} \\ | |
510 | -tirรฉe du vecteur de distribution de rรฉutilisation discrรจte obtenu par raisonnement bayรฉsien et calculรฉ selon l'รฉquation \ref{eqRsa}. | |
511 | - | |
512 | -\begin{equation} | |
513 | - a_{rs}=rnp(n_{rs},P(A|B)_{rs}) | |
514 | - \label{eqRsa} | |
515 | -\end{equation} | |
516 | - | |
517 | -Le processus d'apprentissage est rรฉalisรฉ individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents รฉchangent les informations qu'ils ont calculรฉes, les optimisations locales qu'ils ont rรฉalisรฉes, ainsi que les algorithmes et les paramรจtres qu'ils ont utilisรฉs. | |
518 | - | |
519 | -\subsubsection{รchanges entre les agents} | |
520 | - | |
521 | -Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itรฉration en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permettent de propager les paramรจtres menant aux meilleurs rรฉsultats et d'effectuer des actions rรฉtrospectivement. Les informations modifables sont choisies alรฉatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de rรฉcupรฉration, de l'algorithme de rรฉutilisation ou mรชme des vecteurs bayรฉsiens. | |
522 | - | |
523 | -\subsection{Rรฉsultats} | |
524 | - | |
525 | -Des expรฉrimentations sur onze jeux de donnรฉes relatifs ร des problรจmes de rรฉgression et prรฉsentant des caractรฉristiques diffรฉrentes ont รฉtรฉ rรฉalisรฉes. Les jeux de donnรฉes et leurs caractรฉristiques sont consignรฉs dans le tableau \ref{tabBases}. Les valeurs des paramรจtres de l'algorithme sont les suivantes $it=100$, $np=50$, $nl=10$ et $ng=10$. | |
526 | -\\ \colorbox{yellow}{Quel algorithme ?} | |
527 | -\\ \colorbox{yellow}{ร quoi correspondent ces paramรจtres ? Quelles sont les unitรฉs ?}\\ | |
528 | -Le tableau \ref{AlgsPar} prรฉsente les valeurs des paramรจtres de tous les autres algorithmes. | |
529 | - | |
530 | -\begin{table}[!ht] | |
531 | -\scriptsize | |
532 | -\centering | |
533 | -\begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}} | |
534 | -ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\ | |
535 | -\hline | |
536 | -DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
537 | -DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
538 | -DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
539 | -DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
540 | -DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
541 | -DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
542 | -DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
543 | -DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
544 | -DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
545 | -DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
546 | -DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\ | |
547 | -\end{tabular} | |
548 | -\caption{Description des jeux de donnรฉes รฉvaluรฉs. (* aprรจs codification comme | |
549 | -\textit{String})} | |
550 | -\label{tabBases} | |
551 | -\end{table} | |
552 | - | |
553 | -\begin{table}[!ht] | |
554 | -\centering | |
555 | -\begin{tabular}{ccc|ccc} | |
556 | -ID&Parameter&Value&ID&Parameter&Value\\ | |
557 | -\hline | |
558 | -A1&Intercept&True&A6&Degree&4\\ | |
559 | -&Positive&True&&Bias&True\\ | |
560 | -\hline | |
561 | -A2&Neighbors&5&A7&Fit Intercept&True\\ | |
562 | -&Weights&Uniform&&alpha&0.2\\ | |
563 | -&Metric&Minkowsky&&tol&1e-4\\ | |
564 | -&Power Minkowsky&2\\ | |
565 | -\hline | |
566 | -A3&Error&Squared Error&A8&Fit Intercept&True\\ | |
567 | -&Min samples split&2&&alpha&[0.00001, 0.4]\\ | |
568 | -&&&&Max iter&1000\\ | |
569 | -&&&&tol&1e-4\\ | |
570 | -\hline | |
571 | -A4&Estimators&10&A9&Error&Squarred Error\\ | |
572 | -&Error&Squared Error&&Learning Rate&0.1\\ | |
573 | -&Min samples split&2&&Estimators&100\\ | |
574 | -&Bootstrap&True&&Min Split&2\\ | |
575 | -\hline | |
576 | -A5&Hidden Layers&100\\ | |
577 | -&Activation&Relu\\ | |
578 | -&Solver&Adam\\ | |
579 | -&alpha&0.0001\\ | |
580 | -&Learning Rate&0.001\\ | |
581 | -&Max Iter&200\\ | |
582 | -&beta1&0.9\\ | |
583 | -&beta2&0.999\\ | |
584 | -&epsilon&1e-8\\ | |
585 | -\end{tabular} | |
586 | -\caption{Paramรจtres de tous les algorithmes comparรฉs} | |
587 | -\label{AlgsPar} | |
588 | -\end{table} | |
589 | - | |
590 | -\begin{table}[!ht] | |
591 | -\footnotesize | |
592 | -\centering | |
593 | -\begin{tabular}{c|ccccccccccc} | |
594 | -&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
595 | -\hline | |
596 | -%DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&8.263&8.225\\ | |
597 | -DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&8.225\\ | |
598 | -%DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.016&0.016\\ | |
599 | -DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.016\\%DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.148&7.991\\ | |
600 | -DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&7.991\\ | |
601 | -%DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.628&0.607\\ | |
602 | -DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.607\\ | |
603 | -%DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.690&0.662\\ | |
604 | -DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.662\\ | |
605 | -%DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&9.413&9.070\\ | |
606 | -DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&9.070\\ | |
607 | -%DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&3.031&2.941\\ | |
608 | -DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&2.941\\ | |
609 | -%DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.752&2.553\\ | |
610 | -DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.553\\ | |
611 | -%DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.747&2.468\\ | |
612 | -DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.468\\ | |
613 | -%DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.897&3.621\\ | |
614 | -DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.621\\ | |
615 | -DS11&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681& | |
616 | -0.541&0.54\\ | |
617 | -\hline | |
618 | -%Avg. Rank&5.8&6.5&7.2&2.3&6.7&5.7&5.6&8.65&1.9&4.65\\ | |
619 | -Avg. Rank&6.4&6.9&8.2&2.6&7.2&6.45&6.35&9.55&2.1&4.75\\ | |
620 | -\end{tabular} | |
621 | -\caption{Rรฉsultat selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.} | |
622 | -\label{tabRes1} | |
623 | -\end{table} | |
624 | - | |
625 | -\begin{table}[!ht] | |
626 | -\footnotesize | |
627 | -\centering | |
628 | -\begin{tabular}{c|ccccccccccc} | |
629 | -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
630 | -\hline | |
631 | -%DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.218\\ | |
632 | -DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.218\\ | |
633 | -%DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\ | |
634 | -DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.010\\ | |
635 | -%DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.90&3.771\\ | |
636 | -DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.771\\ | |
637 | -%DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\ | |
638 | -DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.135\\ | |
639 | -%DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\ | |
640 | -DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.085\\ | |
641 | -%DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\ | |
642 | -DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.072\\ | |
643 | -%DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\ | |
644 | -DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.006\\ | |
645 | -%DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\ | |
646 | -DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.794\\ | |
647 | -%DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\ | |
648 | -DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.556\\ | |
649 | -%DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\ | |
650 | -DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.371\\ | |
651 | -DS11&0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453& | |
652 | -0.327&0.347\\ | |
653 | -\hline | |
654 | -Avg. Rank&7.15&6.9&5.35&2.6&7.95&7.25&7.3&9.0&2.5 | |
655 | -&4.5\\ | |
656 | -%Avg. Rank&6.45&6.5&4.35&2.4&7.45&6.55&6.6&8.1&2.4&4.2\\ | |
657 | -\end{tabular} | |
658 | -\caption{Comparaison des rรฉsultats MAE (Median Absolute Error) pour les bases de donnรฉes รฉvaluรฉes avec des algorithmes de rรฉgression} | |
659 | -\label{tabRes2} | |
660 | -\end{table} | |
661 | - | |
662 | -Les tableaux \ref{tabRes1} et \ref{tabRes2} prรฉsentent respectivement les RMSE et les MAE obtenues pour chaque jeu de donnรฉes et chaque algorithme testรฉ. | |
663 | - | |
664 | -La figure \ref{figBox} reprรฉsente graphiquement la dispersion globale, la mรฉdiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA gรฉnรจre parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est trรจs faible. De plus, la convergence est proche de la valeur rรฉelle et mรชme meilleure que celle de la plupart des autres algorithmes testรฉs. Il est รฉgalement possible de remarquer que les valeurs aberrantes sont plus รฉlevรฉes que les valeurs rรฉelles, peut รชtre parce que les algorithmes utilisรฉs explorent l'espace de recherche alors ces valeurs sont produit d'une variabilitรฉ naturelle des algorithmes dans l'espace des solutions, qui peuvent donner de la 'crรฉativitรฉ' au moment de gรฉnรฉrer de nouvelles solutions. | |
665 | -%\textcolor{red}{plus รฉlevรฉes??, pourquoi?} | |
666 | - | |
667 | -\begin{figure}[!ht] | |
668 | -\includegraphics[width=\textwidth]{Figures/boxplot2.png} | |
669 | -\caption{Rรฉsultats selon la mรฉtrique MAE (Median Absolute Error) pour les dix algorithmes testรฉs} | |
670 | -\label{figBox} | |
671 | -\end{figure} | |
672 | - | |
673 | -Les rรฉsultats montrent que l'algorithme ESCBR-SMA est compรฉtitif pour la plupart des jeux de donnรฉes considรฉrรฉs dans cette รฉtude. Il obtient en effet les meilleurs rรฉsultats sur $DS2$, $DS4$, $DS5$ et $DS9$. Globalement, ESCBR-SMA est le troisiรจme meilleur algorithme. Il se classe donc ร proximitรฉ d'autres algorithmes d'ensemble. Par rapport ร l'ESCBR, une amรฉlioration des rรฉsultats et une rรฉduction de la variance ont รฉtรฉ obtenues, dรฉmontrant ainsi que les systรจmes multi-agents et le raisonnement stochastique bayรฉsien contribuent ร l'apprentissage et ร la convergence vers des solutions plus proches de la solution rรฉelle. | |
674 | - | |
675 | -\subsection{Conclusion} | |
676 | -L'ECBR intรฉgrant un SMA propose d'utiliser les avantages des systรจmes multi-agents pour amรฉliorer la qualitรฉ des solutions proposรฉes et รฉgalement le processus d'apprentissage global en couvrant un plus large spectre de possibilitรฉs et en le couvrant de maniรจre intelligente ร l'aide d'un raisonnement bayรฉsien. ESCBR-SMA permet ainsi d'obtenir de bonnes approximations avec peu de donnรฉes. | |
677 | - | |
678 | -Ce travail a dรฉmontrรฉ la capacitรฉ d'ESCBR-SMA ร trouver des solutions proches de l'optimum global pour la majoritรฉ des ensembles de donnรฉes analysรฉs. Ces jeux de donnรฉes prรฉsentent une certaine diversitรฉ, ils peuvent รชtre dรฉsรฉquilibrรฉs et ils sont de tailles diffรฉrentes. Grรขce aux caractรฉristiques inhรฉrentes aux systรจmes multi-agents (possibilitรฉs de rรฉtroactions, d'รฉchanges d'informations, l'รฉmergence d'une intelligence collective, utilisation d'un raisonnement cognitif), les performances d'ESCBR-SMA sont meilleures que celles d'ESCBR. |
main.log
View file @
2497782
1 | -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 17 JUL 2025 14:48 | |
1 | +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 17 JUL 2025 18:28 | |
2 | 2 | entering extended mode |
3 | 3 | restricted \write18 enabled. |
4 | 4 | %&-line parsing enabled. |
5 | 5 | |
6 | 6 | |
7 | 7 | |
8 | 8 | |
9 | 9 | |
10 | 10 | |
11 | 11 | |
12 | 12 | |
... | ... | @@ -1661,35 +1661,35 @@ |
1661 | 1661 | [56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic |
1662 | 1662 | S.png>] |
1663 | 1663 | [58] |
1664 | -<./Figures/Stacking2.png, id=1131, 743.77875pt x 414.54875pt> | |
1664 | +<./Figures/Stacking2.png, id=1134, 743.77875pt x 414.54875pt> | |
1665 | 1665 | File: ./Figures/Stacking2.png Graphic file (type png) |
1666 | 1666 | <use ./Figures/Stacking2.png> |
1667 | -Package pdftex.def Info: ./Figures/Stacking2.png used on input line 188. | |
1667 | +Package pdftex.def Info: ./Figures/Stacking2.png used on input line 190. | |
1668 | 1668 | (pdftex.def) Requested size: 427.43153pt x 238.23717pt. |
1669 | 1669 | |
1670 | -Underfull \hbox (badness 10000) in paragraph at lines 199--200 | |
1670 | +Underfull \hbox (badness 10000) in paragraph at lines 201--202 | |
1671 | 1671 | |
1672 | 1672 | [] |
1673 | 1673 | |
1674 | 1674 | [59 <./Figures/Stacking2.png>] |
1675 | -<Figures/FW.png, id=1146, 456.70625pt x 342.27875pt> | |
1675 | +<Figures/FW.png, id=1150, 456.70625pt x 342.27875pt> | |
1676 | 1676 | File: Figures/FW.png Graphic file (type png) |
1677 | 1677 | <use Figures/FW.png> |
1678 | -Package pdftex.def Info: Figures/FW.png used on input line 213. | |
1678 | +Package pdftex.def Info: Figures/FW.png used on input line 215. | |
1679 | 1679 | (pdftex.def) Requested size: 427.43153pt x 320.34758pt. |
1680 | 1680 | [60 <./Figures/FW.png>] [61] |
1681 | -<./Figures/boxplot.png, id=1168, 1994.45125pt x 959.585pt> | |
1681 | +<./Figures/boxplot.png, id=1171, 1994.45125pt x 959.585pt> | |
1682 | 1682 | File: ./Figures/boxplot.png Graphic file (type png) |
1683 | 1683 | <use ./Figures/boxplot.png> |
1684 | -Package pdftex.def Info: ./Figures/boxplot.png used on input line 318. | |
1684 | +Package pdftex.def Info: ./Figures/boxplot.png used on input line 320. | |
1685 | 1685 | (pdftex.def) Requested size: 427.43153pt x 205.64786pt. |
1686 | 1686 | [62] |
1687 | -Underfull \hbox (badness 10000) in paragraph at lines 337--338 | |
1687 | +Underfull \hbox (badness 10000) in paragraph at lines 339--340 | |
1688 | 1688 | |
1689 | 1689 | [] |
1690 | 1690 | |
1691 | 1691 | |
1692 | -Underfull \hbox (badness 2564) in paragraph at lines 339--339 | |
1692 | +Underfull \hbox (badness 2564) in paragraph at lines 341--341 | |
1693 | 1693 | [][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tรจmes multi- |
1694 | 1694 | [] |
1695 | 1695 | |
1696 | 1696 | |
1697 | 1697 | |
1698 | 1698 | |
1699 | 1699 | |
... | ... | @@ -1700,19 +1700,19 @@ |
1700 | 1700 | [] |
1701 | 1701 | |
1702 | 1702 | [63 <./Figures/boxplot.png>] |
1703 | -<Figures/NCBR.png, id=1179, 653.44125pt x 445.665pt> | |
1703 | +<Figures/NCBR.png, id=1182, 653.44125pt x 445.665pt> | |
1704 | 1704 | File: Figures/NCBR.png Graphic file (type png) |
1705 | 1705 | <use Figures/NCBR.png> |
1706 | -Package pdftex.def Info: Figures/NCBR.png used on input line 349. | |
1706 | +Package pdftex.def Info: Figures/NCBR.png used on input line 351. | |
1707 | 1707 | (pdftex.def) Requested size: 427.43153pt x 291.5149pt. |
1708 | 1708 | [64 <./Figures/NCBR.png>] |
1709 | -<Figures/FlowCBR.png, id=1189, 450.68375pt x 822.07124pt> | |
1709 | +<Figures/FlowCBR.png, id=1192, 450.68375pt x 822.07124pt> | |
1710 | 1710 | File: Figures/FlowCBR.png Graphic file (type png) |
1711 | 1711 | <use Figures/FlowCBR.png> |
1712 | -Package pdftex.def Info: Figures/FlowCBR.png used on input line 378. | |
1712 | +Package pdftex.def Info: Figures/FlowCBR.png used on input line 380. | |
1713 | 1713 | (pdftex.def) Requested size: 270.41232pt x 493.24655pt. |
1714 | 1714 | |
1715 | -Underfull \hbox (badness 1107) in paragraph at lines 411--412 | |
1715 | +Underfull \hbox (badness 1107) in paragraph at lines 413--414 | |
1716 | 1716 | []\T1/phv/m/n/10.95 Cette sec-tion prรฉ-sente de ma-niรจre plus dรฉ-taillรฉe les co |
1717 | 1717 | m-por-te-ments des agents |
1718 | 1718 | [] |
1719 | 1719 | |
... | ... | @@ -1727,10 +1727,10 @@ |
1727 | 1727 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1728 | 1728 | |
1729 | 1729 | [66 <./Figures/FlowCBR.png>] |
1730 | -<Figures/agent.png, id=1205, 352.31625pt x 402.50375pt> | |
1730 | +<Figures/agent.png, id=1208, 352.31625pt x 402.50375pt> | |
1731 | 1731 | File: Figures/agent.png Graphic file (type png) |
1732 | 1732 | <use Figures/agent.png> |
1733 | -Package pdftex.def Info: Figures/agent.png used on input line 452. | |
1733 | +Package pdftex.def Info: Figures/agent.png used on input line 454. | |
1734 | 1734 | (pdftex.def) Requested size: 246.61969pt x 281.7507pt. |
1735 | 1735 | |
1736 | 1736 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active |
1737 | 1737 | |
1738 | 1738 | |
1739 | 1739 | |
1740 | 1740 | |
1741 | 1741 | |
... | ... | @@ -1739,26 +1739,26 @@ |
1739 | 1739 | [] |
1740 | 1740 | |
1741 | 1741 | [67] |
1742 | -<Figures/BayesianEvolution.png, id=1219, 626.34pt x 402.50375pt> | |
1742 | +<Figures/BayesianEvolution.png, id=1222, 626.34pt x 402.50375pt> | |
1743 | 1743 | File: Figures/BayesianEvolution.png Graphic file (type png) |
1744 | 1744 | <use Figures/BayesianEvolution.png> |
1745 | -Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 465. | |
1745 | +Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 467. | |
1746 | 1746 | |
1747 | 1747 | (pdftex.def) Requested size: 313.16922pt x 201.25137pt. |
1748 | 1748 | [68 <./Figures/agent.png>] |
1749 | -Underfull \hbox (badness 10000) in paragraph at lines 506--506 | |
1749 | +Underfull \hbox (badness 10000) in paragraph at lines 508--508 | |
1750 | 1750 | []|\T1/phv/m/n/8 Input. |
1751 | 1751 | [] |
1752 | 1752 | |
1753 | 1753 | |
1754 | -Underfull \hbox (badness 10000) in paragraph at lines 506--507 | |
1754 | +Underfull \hbox (badness 10000) in paragraph at lines 508--509 | |
1755 | 1755 | []|\T1/phv/m/n/8 Output |
1756 | 1756 | [] |
1757 | 1757 | |
1758 | -<Figures/boxplot2.png, id=1234, 1615.03375pt x 835.12pt> | |
1758 | +<Figures/boxplot2.png, id=1237, 1615.03375pt x 835.12pt> | |
1759 | 1759 | File: Figures/boxplot2.png Graphic file (type png) |
1760 | 1760 | <use Figures/boxplot2.png> |
1761 | -Package pdftex.def Info: Figures/boxplot2.png used on input line 638. | |
1761 | +Package pdftex.def Info: Figures/boxplot2.png used on input line 618. | |
1762 | 1762 | (pdftex.def) Requested size: 427.43153pt x 221.01265pt. |
1763 | 1763 | |
1764 | 1764 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active |
1765 | 1765 | |
1766 | 1766 | |
... | ... | @@ -1770,10 +1770,9 @@ |
1770 | 1770 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1771 | 1771 | |
1772 | 1772 | [70] |
1773 | +Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1773 | 1774 | |
1774 | -LaTeX Warning: Text page 71 contains only floats. | |
1775 | 1775 | |
1776 | - | |
1777 | 1776 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active |
1778 | 1777 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTรMES MULTI-AGENTS DAN |
1779 | 1778 | S ESCBR \T1/phv/m/n/10.95 71 |
1780 | 1779 | |
1781 | 1780 | |
... | ... | @@ -1805,18 +1804,18 @@ |
1805 | 1804 | put line 97. |
1806 | 1805 | |
1807 | 1806 | [75] |
1808 | -<./Figures/dataset.png, id=1294, 15.13687pt x 8.08058pt> | |
1807 | +<./Figures/dataset.png, id=1297, 15.13687pt x 8.08058pt> | |
1809 | 1808 | File: ./Figures/dataset.png Graphic file (type png) |
1810 | 1809 | <use ./Figures/dataset.png> |
1811 | 1810 | Package pdftex.def Info: ./Figures/dataset.png used on input line 118. |
1812 | 1811 | (pdftex.def) Requested size: 427.43153pt x 228.35583pt. |
1813 | 1812 | [76] |
1814 | -<./Figures/comp2.png, id=1306, 14.98512pt x 7.33133pt> | |
1813 | +<./Figures/comp2.png, id=1309, 14.98512pt x 7.33133pt> | |
1815 | 1814 | File: ./Figures/comp2.png Graphic file (type png) |
1816 | 1815 | <use ./Figures/comp2.png> |
1817 | 1816 | Package pdftex.def Info: ./Figures/comp2.png used on input line 154. |
1818 | 1817 | (pdftex.def) Requested size: 427.43153pt x 209.34462pt. |
1819 | -<./Figures/comp3.png, id=1308, 14.98512pt x 7.33133pt> | |
1818 | +<./Figures/comp3.png, id=1311, 14.98512pt x 7.33133pt> | |
1820 | 1819 | File: ./Figures/comp3.png Graphic file (type png) |
1821 | 1820 | <use ./Figures/comp3.png> |
1822 | 1821 | Package pdftex.def Info: ./Figures/comp3.png used on input line 164. |
... | ... | @@ -1825,7 +1824,7 @@ |
1825 | 1824 | Underfull \vbox (badness 1132) has occurred while \output is active [] |
1826 | 1825 | |
1827 | 1826 | [77 <./Figures/dataset.png>] |
1828 | -<./Figures/comp4.png, id=1318, 14.9377pt x 7.31236pt> | |
1827 | +<./Figures/comp4.png, id=1321, 14.9377pt x 7.31236pt> | |
1829 | 1828 | File: ./Figures/comp4.png Graphic file (type png) |
1830 | 1829 | <use ./Figures/comp4.png> |
1831 | 1830 | Package pdftex.def Info: ./Figures/comp4.png used on input line 172. |
... | ... | @@ -1838,7 +1837,7 @@ |
1838 | 1837 | |
1839 | 1838 | [] |
1840 | 1839 | |
1841 | -<./Figures/metric.png, id=1333, 16.95784pt x 7.68225pt> | |
1840 | +<./Figures/metric.png, id=1336, 16.95784pt x 7.68225pt> | |
1842 | 1841 | File: ./Figures/metric.png Graphic file (type png) |
1843 | 1842 | <use ./Figures/metric.png> |
1844 | 1843 | Package pdftex.def Info: ./Figures/metric.png used on input line 213. |
1845 | 1844 | |
... | ... | @@ -1851,14 +1850,14 @@ |
1851 | 1850 | |
1852 | 1851 | [] |
1853 | 1852 | |
1854 | -<./Figures/metric2.png, id=1355, 16.48363pt x 7.66327pt> | |
1853 | +<./Figures/metric2.png, id=1358, 16.48363pt x 7.66327pt> | |
1855 | 1854 | File: ./Figures/metric2.png Graphic file (type png) |
1856 | 1855 | <use ./Figures/metric2.png> |
1857 | 1856 | Package pdftex.def Info: ./Figures/metric2.png used on input line 272. |
1858 | 1857 | (pdftex.def) Requested size: 427.43153pt x 198.89235pt. |
1859 | 1858 | [81 <./Figures/metric.png>] [82 <./Figures/metric2.png>] [83] [84] [85] |
1860 | 1859 | [86] |
1861 | -<Figures/Model.png, id=1444, 3.47124pt x 2.85477pt> | |
1860 | +<Figures/Model.png, id=1447, 3.47124pt x 2.85477pt> | |
1862 | 1861 | File: Figures/Model.png Graphic file (type png) |
1863 | 1862 | <use Figures/Model.png> |
1864 | 1863 | Package pdftex.def Info: Figures/Model.png used on input line 477. |
... | ... | @@ -1869,7 +1868,7 @@ |
1869 | 1868 | [] |
1870 | 1869 | |
1871 | 1870 | [89] |
1872 | -<Figures/kEvol_TS.jpg, id=1487, 742.775pt x 557.08125pt> | |
1871 | +<Figures/kEvol_TS.jpg, id=1490, 742.775pt x 557.08125pt> | |
1873 | 1872 | File: Figures/kEvol_TS.jpg Graphic file (type jpg) |
1874 | 1873 | <use Figures/kEvol_TS.jpg> |
1875 | 1874 | Package pdftex.def Info: Figures/kEvol_TS.jpg used on input line 650. |
... | ... | @@ -1880,7 +1879,7 @@ |
1880 | 1879 | [] |
1881 | 1880 | |
1882 | 1881 | [90] |
1883 | -<Figures/stabilityBoxplot.png, id=1499, 742.775pt x 520.94624pt> | |
1882 | +<Figures/stabilityBoxplot.png, id=1502, 742.775pt x 520.94624pt> | |
1884 | 1883 | File: Figures/stabilityBoxplot.png Graphic file (type png) |
1885 | 1884 | <use Figures/stabilityBoxplot.png> |
1886 | 1885 | Package pdftex.def Info: Figures/stabilityBoxplot.png used on input line 663. |
1887 | 1886 | |
1888 | 1887 | |
... | ... | @@ -1891,17 +1890,17 @@ |
1891 | 1890 | [] |
1892 | 1891 | |
1893 | 1892 | [91 <./Figures/kEvol_TS.jpg>] |
1894 | -<Figures/precision.png, id=1507, 742.775pt x 520.94624pt> | |
1893 | +<Figures/precision.png, id=1510, 742.775pt x 520.94624pt> | |
1895 | 1894 | File: Figures/precision.png Graphic file (type png) |
1896 | 1895 | <use Figures/precision.png> |
1897 | 1896 | Package pdftex.def Info: Figures/precision.png used on input line 672. |
1898 | 1897 | (pdftex.def) Requested size: 427.43153pt x 299.78818pt. |
1899 | -<Figures/GradesEv.jpg, id=1509, 740.7675pt x 557.08125pt> | |
1898 | +<Figures/GradesEv.jpg, id=1512, 740.7675pt x 557.08125pt> | |
1900 | 1899 | File: Figures/GradesEv.jpg Graphic file (type jpg) |
1901 | 1900 | <use Figures/GradesEv.jpg> |
1902 | 1901 | Package pdftex.def Info: Figures/GradesEv.jpg used on input line 683. |
1903 | 1902 | (pdftex.def) Requested size: 427.43153pt x 321.44128pt. |
1904 | -<Figures/LevelsEv.jpg, id=1513, 742.775pt x 557.08125pt> | |
1903 | +<Figures/LevelsEv.jpg, id=1516, 742.775pt x 557.08125pt> | |
1905 | 1904 | File: Figures/LevelsEv.jpg Graphic file (type jpg) |
1906 | 1905 | <use Figures/LevelsEv.jpg> |
1907 | 1906 | Package pdftex.def Info: Figures/LevelsEv.jpg used on input line 692. |
... | ... | @@ -1913,7 +1912,7 @@ |
1913 | 1912 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1914 | 1913 | |
1915 | 1914 | [93 <./Figures/precision.png>] |
1916 | -<Figures/Metric4.jpg, id=1534, 1429.34pt x 786.94pt> | |
1915 | +<Figures/Metric4.jpg, id=1537, 1429.34pt x 786.94pt> | |
1917 | 1916 | File: Figures/Metric4.jpg Graphic file (type jpg) |
1918 | 1917 | <use Figures/Metric4.jpg> |
1919 | 1918 | Package pdftex.def Info: Figures/Metric4.jpg used on input line 729. |
... | ... | @@ -1926,7 +1925,7 @@ |
1926 | 1925 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1927 | 1926 | |
1928 | 1927 | [95 <./Figures/LevelsEv.jpg>] [96 <./Figures/Metric4.jpg>] |
1929 | -<Figures/ModelHawkes.png, id=1551, 397.485pt x 382.42876pt> | |
1928 | +<Figures/ModelHawkes.png, id=1554, 397.485pt x 382.42876pt> | |
1930 | 1929 | File: Figures/ModelHawkes.png Graphic file (type png) |
1931 | 1930 | <use Figures/ModelHawkes.png> |
1932 | 1931 | Package pdftex.def Info: Figures/ModelHawkes.png used on input line 758. |
1933 | 1932 | |
... | ... | @@ -1935,13 +1934,13 @@ |
1935 | 1934 | Underfull \vbox (badness 2744) has occurred while \output is active [] |
1936 | 1935 | |
1937 | 1936 | [97 <./Figures/ModelHawkes.png>] |
1938 | -<./Figures/stabilityBoxplot1.png, id=1574, 742.775pt x 520.94624pt> | |
1937 | +<./Figures/stabilityBoxplot1.png, id=1577, 742.775pt x 520.94624pt> | |
1939 | 1938 | File: ./Figures/stabilityBoxplot1.png Graphic file (type png) |
1940 | 1939 | <use ./Figures/stabilityBoxplot1.png> |
1941 | 1940 | Package pdftex.def Info: ./Figures/stabilityBoxplot1.png used on input line 83 |
1942 | 1941 | 0. |
1943 | 1942 | (pdftex.def) Requested size: 427.43153pt x 299.78818pt. |
1944 | -<./Figures/stabilityBoxplot2.png, id=1575, 742.775pt x 520.94624pt> | |
1943 | +<./Figures/stabilityBoxplot2.png, id=1578, 742.775pt x 520.94624pt> | |
1945 | 1944 | File: ./Figures/stabilityBoxplot2.png Graphic file (type png) |
1946 | 1945 | <use ./Figures/stabilityBoxplot2.png> |
1947 | 1946 | Package pdftex.def Info: ./Figures/stabilityBoxplot2.png used on input line 83 |
1948 | 1947 | |
... | ... | @@ -1956,12 +1955,12 @@ |
1956 | 1955 | |
1957 | 1956 | |
1958 | 1957 | [99 <./Figures/stabilityBoxplot1.png> <./Figures/stabilityBoxplot2.png>] |
1959 | -<Figures/Var.png, id=1592, 1408.26125pt x 749.80125pt> | |
1958 | +<Figures/Var.png, id=1595, 1408.26125pt x 749.80125pt> | |
1960 | 1959 | File: Figures/Var.png Graphic file (type png) |
1961 | 1960 | <use Figures/Var.png> |
1962 | 1961 | Package pdftex.def Info: Figures/Var.png used on input line 866. |
1963 | 1962 | (pdftex.def) Requested size: 427.43153pt x 227.57355pt. |
1964 | -<Figures/VarH.png, id=1593, 1408.26125pt x 749.80125pt> | |
1963 | +<Figures/VarH.png, id=1596, 1408.26125pt x 749.80125pt> | |
1965 | 1964 | File: Figures/VarH.png Graphic file (type png) |
1966 | 1965 | <use Figures/VarH.png> |
1967 | 1966 | Package pdftex.def Info: Figures/VarH.png used on input line 872. |
... | ... | @@ -2104,7 +2103,7 @@ |
2104 | 2103 | pdfTeX warning: /Library/TeX/texbin/pdflatex (file ./spimufcphdthesis-backpage. |
2105 | 2104 | pdf): PDF inclusion: found PDF version <1.7>, but at most version <1.5> allowed |
2106 | 2105 | |
2107 | -<spimufcphdthesis-backpage.pdf, id=1683, 597.6729pt x 845.07718pt> | |
2106 | +<spimufcphdthesis-backpage.pdf, id=1686, 597.6729pt x 845.07718pt> | |
2108 | 2107 | File: spimufcphdthesis-backpage.pdf Graphic file (type pdf) |
2109 | 2108 | <use spimufcphdthesis-backpage.pdf> |
2110 | 2109 | Package pdftex.def Info: spimufcphdthesis-backpage.pdf used on input line 389. |
... | ... | @@ -2129,10 +2128,10 @@ |
2129 | 2128 | (rerunfilecheck) Checksum: A06CA241E4961E00F708D1DB761D768D;24244. |
2130 | 2129 | ) |
2131 | 2130 | Here is how much of TeX's memory you used: |
2132 | - 21557 strings out of 476038 | |
2133 | - 370027 string characters out of 5790170 | |
2134 | - 1903785 words of memory out of 5000000 | |
2135 | - 40974 multiletter control sequences out of 15000+600000 | |
2131 | + 21559 strings out of 476038 | |
2132 | + 370041 string characters out of 5790170 | |
2133 | + 1904785 words of memory out of 5000000 | |
2134 | + 40976 multiletter control sequences out of 15000+600000 | |
2136 | 2135 | 619032 words of font info for 151 fonts, out of 8000000 for 9000 |
2137 | 2136 | 1141 hyphenation exceptions out of 8191 |
2138 | 2137 | 126i,17n,133p,1979b,732s stack positions out of 10000i,1000n,20000p,200000b,200000s |
2139 | 2138 | |
... | ... | @@ -2163,10 +2162,10 @@ |
2163 | 2162 | lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/ |
2164 | 2163 | uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf |
2165 | 2164 | b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb> |
2166 | -Output written on main.pdf (124 pages, 5445736 bytes). | |
2165 | +Output written on main.pdf (124 pages, 5445697 bytes). | |
2167 | 2166 | PDF statistics: |
2168 | - 1850 PDF objects out of 2073 (max. 8388607) | |
2169 | - 1581 compressed objects within 16 object streams | |
2167 | + 1853 PDF objects out of 2073 (max. 8388607) | |
2168 | + 1584 compressed objects within 16 object streams | |
2170 | 2169 | 464 named destinations out of 1000 (max. 500000) |
2171 | 2170 | 1006 words of extra memory for PDF output out of 10000 (max. 10000000) |
main.pdf
View file @
2497782
main.synctex.gz
View file @
2497782