Commit 24977821a3a938f3eba7beeec1b0a7da05e8cb25

Authored by dsotofor
1 parent 6e07ddd91f
Exists in main

version all ok...

Showing 10 changed files with 99 additions and 796 deletions Side-by-side Diff

No preview for this file type

Figures/FlowCBR.png View file @ 2497782

50.9 KB | W: | H:

50.8 KB | W: | H:

  • 2-up
  • Swipe
  • Onion skin
Figures/NCBR0.png View file @ 2497782

58.5 KB | W: | H:

58.6 KB | W: | H:

  • 2-up
  • Swipe
  • Onion skin
Figures/Stacking2.png View file @ 2497782

48 KB | W: | H:

35.5 KB | W: | H:

  • 2-up
  • Swipe
  • Onion skin
chapters/ESCBR.aux View file @ 2497782
... ... @@ -40,9 +40,11 @@
40 40 \newlabel{eqgen5}{{6.6}{58}{Rรฉutiliser}{equation.6.2.6}{}}
41 41 \newlabel{eqgen6}{{6.7}{58}{Rรฉutiliser}{equation.6.2.7}{}}
42 42 \newlabel{eqgen7}{{6.8}{58}{Rรฉutiliser}{equation.6.2.8}{}}
  43 +\newlabel{eqma1}{{6.9}{58}{Rรฉutiliser}{equation.6.2.9}{}}
43 44 \citation{doi:10.1137/23M1592420}
44 45 \@writefile{lof}{\contentsline {figure}{\numberline {6.6}{\ignorespaces \textit {Stacking} pour la gรฉnรฉration de solutions\relax }}{59}{figure.caption.28}\protected@file@percent }
45 46 \newlabel{figSta2}{{6.6}{59}{\textit {Stacking} pour la gรฉnรฉration de solutions\relax }{figure.caption.28}{}}
  47 +\newlabel{eqma2}{{6.10}{59}{Rรฉutiliser}{equation.6.2.10}{}}
46 48 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.3}Rรฉvision}{59}{subsubsection.6.2.1.3}\protected@file@percent }
47 49 \newlabel{eqOpt0}{{6.11}{60}{Rรฉvision}{equation.6.2.11}{}}
48 50 \newlabel{eqOpt}{{6.12}{60}{Rรฉvision}{equation.6.2.12}{}}
... ... @@ -50,8 +52,8 @@
50 52 \newlabel{fig:FW}{{6.7}{60}{Reprรฉsentation graphique en deux dimensions du problรจme de moyenne gรฉomรฉtrique. (Points associรฉs au problรจme ($\lambda _1,..,\lambda _7$) et point rouge solution au problรจme)\relax }{figure.caption.29}{}}
51 53 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.4}Mรฉmorisation}{60}{subsubsection.6.2.1.4}\protected@file@percent }
52 54 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Rรฉsultats}{61}{subsection.6.2.2}\protected@file@percent }
53   -\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de donnรฉes รฉvaluรฉes.\relax }}{61}{table.caption.30}\protected@file@percent }
54   -\newlabel{tabBases2}{{6.2}{61}{Description des jeux de donnรฉes รฉvaluรฉes.\relax }{table.caption.30}{}}
  55 +\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de donnรฉes รฉvaluรฉs\relax }}{61}{table.caption.30}\protected@file@percent }
  56 +\newlabel{tabBases2}{{6.2}{61}{Description des jeux de donnรฉes รฉvaluรฉs\relax }{table.caption.30}{}}
55 57 \@writefile{lot}{\contentsline {table}{\numberline {6.3}{\ignorespaces Liste des algorithmes รฉvaluรฉs\relax }}{61}{table.caption.31}\protected@file@percent }
56 58 \newlabel{tabAlgs2}{{6.3}{61}{Liste des algorithmes รฉvaluรฉs\relax }{table.caption.31}{}}
57 59 \@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculรฉe sur les dix jeux de donnรฉes sรฉlectionnรฉs obtenue aprรจs exรฉcution des dix algorithmes de rรฉgression considรฉrรฉs\relax }}{61}{table.caption.32}\protected@file@percent }
58 60  
... ... @@ -80,16 +82,16 @@
80 82 \newlabel{eqBay}{{6.15}{68}{Apprentissage des agents}{equation.6.3.15}{}}
81 83 \newlabel{eqRta}{{6.16}{68}{Apprentissage des agents}{equation.6.3.16}{}}
82 84 \newlabel{eqRsa}{{6.17}{68}{Apprentissage des agents}{equation.6.3.17}{}}
83   -\@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour Retrieve et Reuse\relax }}{69}{figure.caption.39}\protected@file@percent }
84   -\newlabel{fig:bayev}{{6.12}{69}{Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour Retrieve et Reuse\relax }{figure.caption.39}{}}
  85 +\@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour rechercher et rรฉutiliser, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour rechercher et rรฉutiliser\relax }}{69}{figure.caption.39}\protected@file@percent }
  86 +\newlabel{fig:bayev}{{6.12}{69}{Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour rechercher et rรฉutiliser, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour rechercher et rรฉutiliser\relax }{figure.caption.39}{}}
85 87 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.4}ร‰changes entre les agents}{69}{subsubsection.6.3.1.4}\protected@file@percent }
86 88 \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.2}Rรฉsultats}{69}{subsection.6.3.2}\protected@file@percent }
87 89 \@writefile{lot}{\contentsline {table}{\numberline {6.7}{\ignorespaces Description des jeux de donnรฉes รฉvaluรฉs.\relax }}{70}{table.caption.40}\protected@file@percent }
88 90 \newlabel{tabBases}{{6.7}{70}{Description des jeux de donnรฉes รฉvaluรฉs.\relax }{table.caption.40}{}}
89 91 \@writefile{lot}{\contentsline {table}{\numberline {6.8}{\ignorespaces Paramรจtres de tous les algorithmes comparรฉs\relax }}{70}{table.caption.41}\protected@file@percent }
90 92 \newlabel{AlgsPar}{{6.8}{70}{Paramรจtres de tous les algorithmes comparรฉs\relax }{table.caption.41}{}}
91   -\@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Rรฉsultat selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.\relax }}{71}{table.caption.42}\protected@file@percent }
92   -\newlabel{tabRes1}{{6.9}{71}{Rรฉsultat selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.\relax }{table.caption.42}{}}
  93 +\@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Rรฉsultats selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.\relax }}{71}{table.caption.42}\protected@file@percent }
  94 +\newlabel{tabRes1}{{6.9}{71}{Rรฉsultats selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.\relax }{table.caption.42}{}}
93 95 \@writefile{lot}{\contentsline {table}{\numberline {6.10}{\ignorespaces Comparaison des rรฉsultats MAE (Median Absolute Error) pour les bases de donnรฉes รฉvaluรฉes avec des algorithmes de rรฉgression\relax }}{71}{table.caption.43}\protected@file@percent }
94 96 \newlabel{tabRes2}{{6.10}{71}{Comparaison des rรฉsultats MAE (Median Absolute Error) pour les bases de donnรฉes รฉvaluรฉes avec des algorithmes de rรฉgression\relax }{table.caption.43}{}}
95 97 \@writefile{lof}{\contentsline {figure}{\numberline {6.13}{\ignorespaces Rรฉsultats selon la mรฉtrique MAE (Median Absolute Error) pour les dix algorithmes testรฉs\relax }}{71}{figure.caption.44}\protected@file@percent }
chapters/ESCBR.tex View file @ 2497782
... ... @@ -17,7 +17,7 @@
17 17  
18 18 La modรฉlisation de systรจmes implรฉmentant diffรฉrentes techniques d'apprentissage nous amรจne tout naturellement ร  considรฉrer les avantages et inconvรฉnients proposรฉs par un systรจme multi-agents. Un SMA est un systรจme dรฉcentralisรฉ composรฉ de plusieurs entitรฉs appelรฉes agents qui ont la capacitรฉ d'effectuer des actions spรฉcifiques et de rรฉagir ร  l'environnement en fonction des informations partielles ร  leur disposition. Ils peuvent รฉgalement collaborer les uns avec les autres et coopรฉrer pour atteindre un objectif spรฉcifique. ร€ partir des informations qu'ils perรงoivent et รฉchangent, les agents peuvent apprendre de maniรจre autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un systรจme multi-agents peuvent รชtre exรฉcutรฉes en parallรจle grรขce ร  l'indรฉpendance des agents. Ils sont รฉgalement robustes aux problรจmes prรฉsentant une incertitude \cite{DIDDEN2023338}.
19 19  
20   -Le raisonnement bayรฉsien clos ce premier tour d'horizon des techniques implรฉmentรฉes dans l'approche prรฉsentรฉe dans ce chapitre. Celui-ci est fondรฉ sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expรฉriences passรฉes permettent de dรฉduire les รฉtats futurs, guidant ainsi ses actions et ses dรฉcisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayรฉsien certaines informations peuvent รฉgalement รชtre dรฉduites ร  partir d'informations incomplรจtes \cite{ZHANG2023110564}.
  20 +Le raisonnement bayรฉsien clรดt ce premier tour d'horizon des techniques implรฉmentรฉes dans l'approche prรฉsentรฉe dans ce chapitre. Celui-ci est fondรฉ sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expรฉriences passรฉes permettent de dรฉduire les รฉtats futurs, guidant ainsi ses actions et ses dรฉcisions \cite{HIPOLITO2023103510}. Avec le raisonnement bayรฉsien certaines informations peuvent รฉgalement รชtre dรฉduites ร  partir d'informations incomplรจtes \cite{ZHANG2023110564}.
21 21  
22 22 \section{Apprentissage par empilement et raisonnement ร  partir de cas}
23 23  
24 24  
... ... @@ -143,14 +143,14 @@
143 143 \label{eqgen4}
144 144 \end{equation}
145 145  
146   -"Copie/changement" copie les informations d'une solution alรฉatoire et en remplace une partie par celles d'une autre solution sรฉlectionnรฉe alรฉatoirement selon l'รฉquation \ref{eqgen5}.
  146 +"Copie/changement" copie les informations d'une solution alรฉatoire et en remplace une partie par celles d'une autre solution sรฉlectionnรฉe alรฉatoirement selon l'รฉquation \ref{eqgen5}.
147 147  
148 148 \begin{equation}
149 149 s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right)
150 150 \label{eqgen5}
151 151 \end{equation}
152 152  
153   -Le vote permet de copier l'information la plus frรฉquente de toutes \ref{eqgen6}.
  153 +Le vote permet de copier l'information la plus frรฉquente de toutes (รฉquation \ref{eqgen6}).
154 154  
155 155 \begin{equation}
156 156 s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl
157 157  
... ... @@ -170,10 +170,11 @@
170 170  
171 171 L'application de $\mathcal{M}$ au vecteur problรจme du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$.
172 172  
173   -La marche alรฉatoire consiste ร  choisir une solution et ร  changer la valeur de l'une de ses composantes. Cette composante est tirรฉe au sort et un pas $\Delta$ est ajoutรฉ ร  sa valeur. La valeur de $\Delta$ est gรฉnรฉrรฉe en suivant une distribution de probabilitรฉ normale de moyenne $0$ et de variance $1$.
  173 +La marche alรฉatoire consiste ร  choisir une solution et ร  changer la valeur de l'une de ses composantes. Cette composante est tirรฉe au sort et un pas $k$ (รฉquation \ref{eqma1}) et a sa valeur est ajoutรฉ ร  une valeur $X_1$. La valeur de $X_1$ est gรฉnรฉrรฉe en suivant une distribution de probabilitรฉ normale de moyenne $0$ et de variance $1$ (รฉquation \ref{eqma2}).
174 174  
175 175 \begin{equation}
176 176 k \sim \left(\frac{1}{nl}\right)
  177 +\label{eqma1}
177 178 \end{equation}
178 179  
179 180 \begin{equation}
... ... @@ -181,6 +182,7 @@
181 182 s_{j,k}^m+X_1& si \; (X_2)\%2=0\\
182 183 s_{j,k}^m-X_1&sinon
183 184 \end{cases};X_1 \sim \mathcal{N}(0,1), X_2 \sim \mathcal{U}_{int}(0,10)
  185 + \label{eqma2}
184 186 \end{equation}
185 187  
186 188 \begin{figure}
... ... @@ -196,7 +198,7 @@
196 198  
197 199 Dans cette phase, le problรจme de l'รฉvaluation automatique d'une solution candidate est transformรฉ en un problรจme d'optimisation, oรน la fonction objectif est \ref{eqOpt}. Ce problรจme revient ร  calculer la moyenne gรฉomรฉtrique ou encore ร  rรฉsoudre le problรจme de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, rรฉsoudre ce problรจme revient ร  calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problรจme en deux dimensions. Sur cette figure, le point rouge reprรฉsente une solution possible minimisant la somme des distances entre ce point et tous les autres points dรฉfinis dans l'espace.
198 200  
199   -La fonction objectif \ref{eqOpt} รฉtablit un rapport entre la distance de la solution gรฉnรฉrรฉe $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur alรฉatoire de \textit{drift} d'une part, et la distance entre le problรจme cible $p^n_w$ et les $x$ problรจmes connus $p^n_x$ d'autre part. Ici, la difficultรฉ ร  trouver le point optimal rรฉside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dรฉpend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problรจme et solution) pour valider et gรฉnรฉrer l'ensemble de solutions proposรฉes.\
  201 +La fonction objectif (รฉquations \ref{eqOpt0} et \ref{eqOpt}) รฉtablit un rapport entre la distance de la solution gรฉnรฉrรฉe $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur alรฉatoire de \textit{drift} d'une part, et la distance entre le problรจme cible $p^n_w$ et les $x$ problรจmes connus $p^n_x$ d'autre part. Ici, la difficultรฉ ร  trouver le point optimal rรฉside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dรฉpend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problรจme et solution) pour valider et gรฉnรฉrer l'ensemble de solutions proposรฉes.\
200 202  
201 203 \begin{equation}
202 204 \lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+X)))}{d(p_w^n,p_x^n)^2} \right); \; X \sim \mathcal{N}(0,d(p_w^n, p_x^n)
... ... @@ -242,7 +244,7 @@
242 244 DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\
243 245 DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\
244 246 \end{tabular}
245   -\caption{Description des jeux de donnรฉes รฉvaluรฉes.}
  247 +\caption{Description des jeux de donnรฉes รฉvaluรฉs}
246 248 \label{tabBases2}
247 249 \end{table}
248 250  
... ... @@ -330,7 +332,7 @@
330 332  
331 333 Un aspect important de l'algorithme proposรฉ est la fonction objectif, qui peut รชtre modifiรฉe dynamiquement en fonction des caractรฉristiques du problรจme รฉvaluรฉ. L'une des perspectives envisagรฉes serait de modifier le fonctionnement du paramรจtre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique.
332 334  
333   -De plus, ESCBR peut intรฉgrer des algorithmes diffรฉrents et des rรจgles spรฉcifiques ร  certaines problรจmes dans chaque empilement et, grรขce ร  la conception en deux cycles, il peut travailler avec des problรจmes dynamiques en cours d'exรฉcution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de donnรฉes montrent qu'ESCBR fournit des rรฉsultats stables.
  335 +De plus, ESCBR peut intรฉgrer des algorithmes diffรฉrents et des rรจgles spรฉcifiques ร  certains problรจmes dans chaque empilement et, grรขce ร  la conception en deux cycles, il peut travailler avec des problรจmes dynamiques en cours d'exรฉcution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de donnรฉes montrent qu'ESCBR fournit des rรฉsultats stables.
334 336  
335 337 \subsection{Conclusion}
336 338  
... ... @@ -388,7 +390,7 @@
388 390 \hline
389 391 $p_w$&v&Description du nouveau problรจme&$\mathbb{R} ^ n$\\
390 392 $s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\
391   -$n_{rt}$&v&Nombre d'algorithmes pour l'รฉtape de rรฉtrouver&$\mathbb{Z}$\
  393 +$n_{rt}$&v&Nombre d'algorithmes pour l'รฉtape de retrouver&$\mathbb{Z}$\
392 394 $n_{rs}$&v&Nombre d'algorithmes de rรฉutilisation&$\mathbb{Z}$\\
393 395 $rn(x,y)$&f&
394 396  
... ... @@ -463,7 +465,7 @@
463 465 \begin{figure}
464 466 \centering
465 467 \includegraphics[scale=0.5]{Figures/BayesianEvolution.png}
466   - \caption{Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour Retrieve et Reuse}
  468 + \caption{Exemple d'รฉvolution bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour rechercher et rรฉutiliser, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour rechercher et rรฉutiliser}
467 469 \label{fig:bayev}
468 470 \end{figure}
469 471  
... ... @@ -491,7 +493,7 @@
491 493  
492 494 \subsubsection{ร‰changes entre les agents}
493 495  
494   -Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itรฉration en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramรจtres menant aux meilleurs rรฉsultats et d'effectuer des actions rรฉtrospectivement. Les informations modifables sont choisies alรฉatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de rรฉcupรฉration, de l'algorithme de rรฉutilisation ou mรชme des vecteurs bayรฉsiens.
  496 +Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itรฉration en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramรจtres menant aux meilleurs rรฉsultats et d'effectuer des actions rรฉtrospectivement. Les informations modifiables sont choisies alรฉatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de rรฉcupรฉration, de l'algorithme de rรฉutilisation ou mรชme des vecteurs bayรฉsiens.
495 497  
496 498 \subsection{Rรฉsultats}
497 499  
498 500  
499 501  
500 502  
501 503  
502 504  
503 505  
504 506  
505 507  
506 508  
507 509  
... ... @@ -559,72 +561,50 @@
559 561 \end{table}
560 562  
561 563 \begin{table}[!ht]
562   -\footnotesize
  564 +\scriptsize
563 565 \centering
564 566 \begin{tabular}{c|ccccccccccc}
565   -&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\
  567 +Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\
566 568 \hline
567   -%DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&8.263&8.225\\
568   -DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&8.225\\
569   -%DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.016&0.016\\
570   -DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.016\\%DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.148&7.991\\
571   -DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&7.991\\
572   -%DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.628&0.607\\
573   -DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.607\\
574   -%DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.690&0.662\\
575   -DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.662\\
576   -%DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&9.413&9.070\\
577   -DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&9.070\\
578   -%DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&3.031&2.941\\
579   -DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&2.941\\
580   -%DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.752&2.553\\
581   -DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.553\\
582   -%DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.747&2.468\\
583   -DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.468\\
584   -%DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.897&3.621\\
585   -DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.621\\
  569 +DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&5.871&4.777\\
  570 +DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.015&0.015\\DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.491&7.991\\
  571 +DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.762&0.607\\
  572 +DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.748&0.662\\
  573 +DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&8.766&9.070\\
  574 +DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&1.973&2.424\\
  575 +DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.157&2.553\\
  576 +DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.802&2.468\\
  577 +DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.874&3.621\\
586 578 DS11&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&
587   -0.541&0.54\
  579 +0.541&0.55&0.54\
588 580 \hline
589   -%Avg. Rank&5.8&6.5&7.2&2.3&6.7&5.7&5.6&8.65&1.9&4.65\\
590   -Avg. Rank&6.4&6.9&8.2&2.6&7.2&6.45&6.35&9.55&2.1&4.75\\
  581 +Avg. Rank&6.32&6.73&8.09&2.73&7.27&6.45&6.32&9.36&1.82&6.14&4.77\\
591 582 \end{tabular}
592   -\caption{Rรฉsultat selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.}
  583 +\caption{Rรฉsultats selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.}
593 584 \label{tabRes1}
594 585 \end{table}
595 586  
596 587 \begin{table}[!ht]
597   -\footnotesize
  588 +\scriptsize
598 589 \centering
599 590 \begin{tabular}{c|ccccccccccc}
600   -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\
  591 +Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\
601 592 \hline
602   -%DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.218\\
603   -DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.218\\
604   -%DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\
605   -DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.010\\
606   -%DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.90&3.771\\
607   -DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.771\\
608   -%DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\
609   -DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.135\\
610   -%DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\
611   -DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.085\\
612   -%DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\
613   -DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.072\\
614   -%DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\
615   -DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.006\\
616   -%DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\
617   -DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.794\\
618   -%DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\
619   -DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.556\\
620   -%DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\
621   -DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.371\\
  593 +DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.1\\
  594 +DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\
  595 +DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.9&3.771\\
  596 +DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\
  597 +DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\
  598 +DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\
  599 +DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\
  600 +DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\
  601 +DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\
  602 +DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\
622 603 DS11&0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&
623   -0.327&0.347\
  604 +0.327&0.35&0.347\
624 605 \hline
625   -Avg. Rank&7.15&6.9&5.35&2.6&7.95&7.25&7.3&9.0&2.5
626   -&4.5\\
627   -%Avg. Rank&6.45&6.5&4.35&2.4&7.45&6.55&6.6&8.1&2.4&4.2\\
  606 +Avg. Rank&7.22&7.05&5.5&2.55&7.95&7.32&7.36&8.90&2.45
  607 +&5.51&4.72\\
628 608 \end{tabular}
629 609 \caption{Comparaison des rรฉsultats MAE (Median Absolute Error) pour les bases de donnรฉes รฉvaluรฉes avec des algorithmes de rรฉgression}
630 610 \label{tabRes2}
chapters/ESCBR0.tex View file @ 2497782
1   -\chapter{Le raisonnement ร  partir de cas (Rร PC) pour la rรฉgression}
2   -\chaptermark{Rร PC POUR Rร‰GRESSION}
3   -
4   -\section{Introduction}
5   -
6   -Ce chapitre est divisรฉ en deux parties. La premiรจre partie prรฉsente un modรจle fondรฉ sur le raisonnement ร  partir de cas et les mรฉthodes d'ensemble avec un double empilement itรฉratif. Nous l'avons baptisรฉ \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux รฉtapes pour trouver des solutions approximatives ร  des problรจmes de rรฉgression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiรฉe dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implรฉmentation d'un SMA intรฉgrรฉ ร  l'ESCBR prรฉsentรฉ dans la premiรจre partie. Nous considรฉrons dans ce chapitre que le choix des exercices les plus adaptรฉs revient ร  rรฉsoudre un problรจme de rรฉgression. C'est la raison pour laquelle nous testons notre approche sur des jeux de donnรฉes classiques de rรฉgression.
7   -Le modรจle prรฉsentรฉ dans cette seconde partie associe un raisonnement ร  partir de cas ร  des systรจmes multi-agents cognitifs implรฉmentant un raisonnement Bayรฉsien. Cette association, combinant รฉchange d'informations entre agents et apprentissage par renforcement, permet l'รฉmergence de prรฉdictions plus prรฉcises et amรฉliore ainsi les performances d'ESCBR \cite{10.1007/978-3-031-63646-2_11}.\\
8   -
9   -Avant de prรฉsenter nos propositions, rappelons quelques caractรฉristiques importantes des outils combinรฉs dans notre approche.
10   -
11   -Le systรจme de raisonnement ร  partir de cas ne nรฉcessite pas d'entrainement, et peut fonctionner avec des donnรฉes dynamiques au moment de l'exรฉcution. Les solutions proposรฉes par notre systรจme de Rร PC sont gรฉnรฉrรฉes ร  l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'รฉvaluation des solutions possibles est effectuรฉe en transformant le problรจme de rรฉgression en un problรจme d'optimisation avec une fonction objectif associรฉe. La fonction objectif calcule un rapport de la distance entre la solution gรฉnรฉrรฉe et les solutions connues avec les problรจmes ร  rรฉsoudre et les problรจmes connus. La dรฉfinition formelle se trouve dans la section 6.2.1.3.
12   -%\colorbox{yellow}{Il faut expliquer en quelques mots ce que fait cette fonction objectif}\\
13   -Les prรฉdictions de ce nouvel algorithme ont รฉtรฉ comparรฉes ร  celles de neuf algorithmes de rรฉgression classiques sur dix jeux de donnรฉes pour la rรฉgression extraits du site de l'UCI \cite{UCI}. En รฉvaluant les rรฉsultats obtenus selon la mรฉtrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la mรฉtrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisiรจme meilleur algorithme des dix รฉvaluรฉs, ce qui suggรจre que les rรฉsultats produits par ESCBR sont raisonnablement saitsfaisants.
14   -
15   -Les mรฉthodes d'ensemble permettent de rรฉsoudre des problรจmes de classification et de rรฉgression en combinant les rรฉsultats de plusieurs modรจles exรฉcutรฉs indรฉpendamment. Certaines de ces mรฉthodes utilisent des modรจles diffรฉrents et des ensembles de donnรฉes diffรฉrents tandis que d'autres utilisent les mรชmes modรจles avec des paramรจtres diffรฉrents. La combinaison des rรฉsultats provenant de multiples modรจles peut รชtre rรฉalisรฉe selon diffรฉrentes stratรฉgies comme l'application de rรจgles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilitรฉ d'utiliser cette mรฉthode d'ensemble en la combinant ร  des outils d'apprentissage automatique.
16   -
17   -Les mรฉthodes d'apprentissage automatique appliquรฉes ร  la rรฉgression permettent quant ร  elles de prรฉdire des valeurs pour diffรฉrents types de problรจmes en construisant, รฉvaluant et formant des modรจles linรฉaires et non linรฉaires complexes. Mais il est possible d'en amรฉliorer la prรฉcision en les associant. Les stratรฉgies d'intรฉgration les plus courantes utilisรฉes pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est un type de mรฉta-modรจle d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses techniques d'apprentissage automatique pour surmonter les limites des modรจles individuels. Plusieurs รฉtudes dรฉmontrent que l'association de ces techniques permet d'amรฉliorer la prรฉcision des rรฉsultats \cite{cmc.2023.033417}. Dans ces mรฉthodes d'empilement, les algorithmes de base sont appelรฉs \textit{niveau-0}. Il s'agit gรฉnรฉralement de modรจles ou d'algorithmes d'apprentissage automatique hรฉtรฉrogรจnes qui travaillent tous avec les mรชmes donnรฉes. Le mรฉta-algorithme (appelรฉ \textit{niveau-1}) qui unifie les rรฉsultats peut รชtre une autre technique d'apprentissage automatique ou un ensemble de rรจgles qui reรงoit en entrรฉe les rรฉsultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}.
18   -
19   -La modรฉlisation de systรจmes implรฉmentant diffรฉrentes techniques d'apprentissage nous amรจne tout naturellement ร  considรฉrer les avantages et inconvรฉnients proposรฉs par un systรจme multi-agents. Un SMA est un systรจme dรฉcentralisรฉ composรฉ de plusieurs entitรฉs appelรฉes agents qui ont la capacitรฉ d'effectuer des actions spรฉcifiques et de rรฉagir ร  l'environnement en fonction des informations partielles ร  leur disposition. Ils peuvent รฉgalement collaborer les uns avec les autres et coopรฉrer pour atteindre un objectif spรฉcifique. ร€ partir des informations qu'ils perรงoivent et รฉchangent, les agents peuvent apprendre de maniรจre autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un systรจme multi-agents peuvent รชtre exรฉcutรฉes en parallรจle grรขce ร  l'indรฉpendance des agents. Ils sont รฉgalement robustes aux problรจmes prรฉsentant une incertitude \cite{DIDDEN2023338}.
20   -
21   -Le raisonnement Bayรฉsien clos ce premier tour d'horizon des techniques implรฉmentรฉes dans l'approche prรฉsentรฉe dans ce chapitre. Celui-ci est fondรฉ sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expรฉriences passรฉes permettent de dรฉduire les รฉtats futurs, guidant ainsi ses actions et ses dรฉcisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayรฉsien certaines informations peuvent รฉgalement รชtre dรฉduites ร  partir d'informations incomplรจtes \cite{ZHANG2023110564}.
22   -
23   -\section{Apprentissage par empilement et raisonnement ร  partir de cas}
24   -
25   -Cette section prรฉsente la premiรจre version de l'algorithme que nous avons conรงu pour rรฉsoudre des problรจmes de rรฉgression. Celui-ci est fondรฉ sur le raisonnement ร  partir de cas et l'empilement.
26   -
27   -\subsection{Modรจle Proposรฉ}
28   -
29   -L'algorithme proposรฉ, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondรฉ sur le paradigme gรฉnรฉrique du Rร PC combinรฉ ร  plusieurs algorithmes de recherche de voisins et de gรฉnรฉration de solutions. Ces algorithmes ont รฉtรฉ intรฉgrรฉs selon une variation du modรจle d'empilement en deux รฉtapes itรฉratives. Cette intรฉgration donne ร  l'algorithme la capacitรฉ de s'adapter ร  diffรฉrents types de problรจmes, d'รฉviter les biais et le surentraรฎnement. Les rรฉsultats de l'exรฉcution des niveaux d'empilement stockent dans la mรฉmoire des conteneurs de connaissances du systรจme de Rร PC des informations qui aident non seulement ร  l'apprentissage de l'algorithme au fil des itรฉrations, mais facilitent รฉgalement la gรฉnรฉration de solutions ร  divers problรจmes sur diffรฉrents ensembles de donnรฉes sans nรฉcessitรฉ d'entraรฎnement prรฉalable. La conception itรฉrative en deux cycles amรฉliore la capacitรฉ du systรจme de Rร PC ร  travailler et ร  s'adapter ร  des problรจmes dynamiques en cours d'exรฉcution, comme le montre la figure \ref{figNCBR1}.
30   -
31   -\begin{figure}[!ht]
32   -\centering
33   -\includegraphics[width=\textwidth]{./Figures/NCBR0.png}
34   -\caption{Les deux cycles proposรฉs pour le Rร PC}
35   -\label{figNCBR1}
36   -\end{figure}
37   -%\colorbox{yellow}{Attention, cette figure apparaรฎt deux fois dans ce chapitre.}\\
38   -%\colorbox{yellow}{J'ai l'impression que ce n'est pas la seule.}
39   -
40   -L'รฉtape de rรฉcupรฉration utilise les algorithmes de recherche et la base de donnรฉes de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problรจme cible. Puis l'รฉtape de rรฉutilisation utilise les algorithmes de gรฉnรฉration de solutions (conteneur $C2$). L'รฉtape de rรฉvision รฉvalue ensuite les solutions gรฉnรฉrรฉes et permet d'en gรฉnรฉrer de nouvelles itรฉrativement en fonction des paramรจtres stockรฉs dans le conteneur $C4$. Vient ensuite l'รฉtape de rรฉvision prenant en considรฉration la solution sรฉlectionnรฉe. Faisant suite ร  cette rรฉvision, l'รฉtape de renouvellement met ร  jour les paramรจtres et les donnรฉes du conteneur. Enfin, dans l'รฉtape de capitalisation, la base de cas est mise ร  jour avec l'intรฉgration du nouveau cas. Les flux d'information de l'algorithme proposรฉ sont prรฉsentรฉs sur la figure~\ref{figFlowCBR}, tandis que le tableau~\ref{tabVarPar} prรฉsente l'ensemble des variables et paramรจtres de l'algorithme proposรฉ.
41   -
42   -\begin{figure}[!ht]
43   -\centering
44   -\includegraphics[scale=0.6]{./Figures/FlowCBR0.png}
45   -\caption{Flux du \textit{Stacking} Rร PC}
46   -\label{figFlowCBR}
47   -\end{figure}
48   -
49   -\begin{table}[!ht]
50   -\centering
51   -\begin{tabular}{cccc}
52   -ID&Type&Description&Domain\\
53   -\hline
54   -$it$&p&Nombre d'itรฉrations&$\mathbb{N}, it>0$\\
55   -$np$&p&Nombre de processus&$\mathbb{N}, np>2$\\
56   -$nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\
57   -$ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\
58   -$n$&v&Dimension de l'espace du problรจme&$\mathbb{N}, n>0$\\
59   -$m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\
60   -$z$&v&Taille de la base de donnรฉes&$\mathbb{N}, z>0$\\
61   -$p$&v&Description du problรจme&$\mathbb{R} ^ n$\\
62   -$s$&v&Description de la solution&$\mathbb{R} ^ m$\\
63   -$r_a$&v&Nombre de modรจles pour l'รฉtape rรฉtrouver&$\mathbb{N}, r_a>2$\\
64   -$r_b$&v&Nombre de modรจles pour l'รฉtape de rรฉutilisation&$\mathbb{N}, r_b>2$\\
65   -$at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\
66   -$nl_i$&v&Nombre de voisins locaux pour le modรจle $i$&$\mathbb{N}, nl_i \le nl$\\
67   -$g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\
68   -$v$&v&ร‰valuation de la meilleure solution globale&$\mathbb{R}$\\
69   -$d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\
70   -$MP(x_1^z,x_2,a)$&f&Fonction du modรจle pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\
71   -$MS(x_1^m)$&f&Fonction du modรจle pour rรฉutiliser avec $x_1$ &$\mathbb{R}^m$\\
72   -$f_s(p^n,s^m)$&f&ร‰valuation des solutions&$\mathbb{R}$\\
73   -\end{tabular}
74   -\caption{Variables et paramรจtres du modรจle proposรฉ (Type: p - paramรจtre, v - variable, f - fonction)}
75   -\label{tabVarPar}
76   -\end{table}
77   -
78   -\subsubsection{Rechercher}
79   -La premiรจre รฉtape de l'algorithme consiste ร  trouver les cas les plus similaires ร  un nouveau cas (appelรฉ \textit{cas cible}). Pour ce faire, le modรจle d'empilement de diffรฉrents processus prรฉsentรฉ sur la figure \ref{figSta1} est utilisรฉ. Au niveau-0, chaque processus sรฉlectionne et exรฉcute un algorithme de recherche de voisins diffรฉrents choisi parmi $r_a$ modรจles dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi alรฉatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les rรฉsultats sont unifiรฉs en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont รฉtรฉ mis en ล“uvre pour l'รฉtape de rรฉcupรฉration : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation.
80   -
81   -\begin{figure}
82   -\centering
83   -\includegraphics[width=\textwidth]{./Figures/Stacking1.png}
84   -\caption{\textit{Stacking} pour chercher les plus proches voisins}
85   -\label{figSta1}
86   -\end{figure}
87   -
88   -Formellement, le premier modรจle d'empilement proposรฉ fonctionne avec deux paramรจtres : %\textcolor{red}{quels sont les 2 paramรจtres?}
89   -une base de donnรฉes de $z$ cas oรน un cas est composรฉ de la description du problรจme et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de gรฉnรฉrer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exรฉcutรฉ, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est gรฉnรฉrรฉ. Au niveau-1, un ensemble global est crรฉรฉ ร  l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le rรฉsultat du premier modรจle d'empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches.
90   -
91   -\subsubsection{Rรฉutiliser}
92   -
93   -Une fois la liste globale des cas similaires รฉtablie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisรฉes pour gรฉnรฉrer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations reprรฉsentรฉs sur la figure \ref{figAuto}. La gรฉnรฉration est effectuรฉe avec un deuxiรจme modรจle d'empilement de diffรฉrents processus. Ce modรจle d'empilement est reprรฉsentรฉ sur la figure \ref{figSta2}. Au niveau-0, chaque processus sรฉlectionne et exรฉcute un algorithme de gรฉnรฉration diffรฉrent ร  partir des modรจles $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions gรฉnรฉrรฉes sont stockรฉes dans une mรฉmoire globale. Toutes les solutions connues et gรฉnรฉrรฉes sont reprรฉsentรฉes avec la mรชme structure comme le montre la figure \ref{figSolRep}.
94   -
95   -\begin{figure}[!ht]
96   - \centering
97   - \includegraphics[scale=1]{./Figures/SolRep.png}
98   - \caption{Reprรฉsentation des solutions connues et gรฉnรฉrรฉes}
99   - \label{figSolRep}
100   -\end{figure}
101   -
102   -Neuf algorithmes ont รฉtรฉ mis en ล“uvre pour l'รฉtape de rรฉutilisation au niveau-0 : moyenne avec probabilitรฉ, moyenne sans probabilitรฉ, valeurs mรฉdianes, sรฉlection alรฉatoire avec probabilitรฉ, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche alรฉatoire. Tous les algorithmes proposรฉs pour gรฉnรฉrer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'รฉtape de rรฉcupรฉration.
103   -
104   -\begin{figure}[!ht]
105   -\centering
106   -\includegraphics[width=\textwidth]{./Figures/AutomaticS.png}
107   -\caption{Gรฉnรฉration et vรฉrification automatique des solutions}
108   -\label{figAuto}
109   -\end{figure}
110   -
111   -La moyenne pondรฉrรฉe avec probabilitรฉ est construite en considรฉrant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sรฉlectionnรฉs par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculรฉ en considรฉrant la distance entre celui-ci et le cas cible, selon l'รฉquation \ref{gen00}.
112   -Nous considรฉrons alors l'ensemble de ces ratios comme une distribution de probabilitรฉ discrรจte. Chacune des composantes du vecteur solution sont ensuite calculรฉs selon l'รฉquation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible.
113   -
114   -\begin{equation}
115   - \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right)
116   - \label{gen00}
117   -\end{equation}
118   -
119   -\begin{equation}
120   - s^m_{j,w}=\frac{1}{nl} \sum_{i=0}^{nl} \alpha_j s_{i,j}
121   - \label{gen01}
122   -\end{equation}
123   -
124   -La moyenne sans probabilitรฉ gรฉnรจre la nouvelle solution oรน la valeur de chaque composante est la moyenne calculรฉe avec une distribution de probabilitรฉ uniforme (attribuant la mรชme probabilitรฉ ร  toutes les composantes de toutes les solutions associรฉes aux cas les plus proches du cas cible). Formellement la gรฉnรฉration de la solution est calculรฉe selon l'รฉquation \ref{gen2}.
125   -
126   -\begin{equation}
127   - s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl} s_{i,j}
128   - \label{gen2}
129   -\end{equation}
130   -
131   -La gรฉnรฉration par valeurs mรฉdianes (รฉquation \ref{eqgen3}) construit la solution en utilisant la valeur mรฉdiane de toutes les solutions pour chaque composante $j$. $X_j$ reprรฉsente l'ensemble des valeurs ordonnรฉes des $j$-iรจmes composantes de toutes solutions $S$.
132   -
133   -\begin{equation}
134   - s_{j,w}^m=
135   - \begin{cases}
136   - x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\
137   - \frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\
138   - \end{cases}
139   - \label{eqgen3}
140   -\end{equation}
141   -
142   -La sรฉlection alรฉatoire avec probabilitรฉ (รฉquation \ref{eqgen4}) gรฉnรจre une solution en copiant la $j$-iรจme composante de l'une des solutions tirรฉe au sort. Le tirage au sort suit une loi donnรฉe par une distribution de probabilitรฉ discrรจte. Cette distribution de probabilitรฉ est identique ร  celle de la moyenne pondรฉrรฉe avec probabilitรฉ.
143   -
144   -\begin{equation}
145   -s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right)
146   -\label{eqgen4}
147   -\end{equation}
148   -
149   -"Copie/changement" copie les informations d'une solution alรฉatoire et en remplace une partie par celles d'une autre solution sรฉlectionnรฉe alรฉatoirement selon l'รฉquation \ref{eqgen5}.
150   -
151   -\begin{equation}
152   -s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right)
153   -\label{eqgen5}
154   -\end{equation}
155   -
156   -Le vote permet de copier l'information la plus frรฉquente de toutes \ref{eqgen6}.
157   -
158   -\begin{equation}
159   -s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl
160   -\label{eqgen6}
161   -\end{equation}
162   -
163   -L'interpolation construit une distribution de probabilitรฉ continue pour chaque composante $j$. Chaque probabilitรฉ de ces distributions est le rรฉsultat d'une fonction d'interpolation linรฉaire ร  une composante. La valeur de la $j$-iรจme composante de la solution est calculรฉe selon l'รฉquation \ref{eqgen7}.
164   -
165   -\begin{equation}
166   - s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl
167   - \label{eqgen7}
168   -\end{equation}
169   -
170   -L'analyse en composantes principales (PCA) consiste ร  รฉtablir une transformation de la description du problรจme en description de la solution associรฉe. La moyenne de la distance entre tous les paires problรจme-solution est calculรฉe et permet de gรฉnรฉrer une solution par transposition.
171   -
172   -La PCA permet donc de gรฉnรฉrer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problรจme en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stockรฉ est calculรฉe. Une moyenne de ces distances $md$ est ensuite considรฉrรฉe.
173   -
174   -L'application de $\mathcal{M}$ au vecteur problรจme du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$.
175   -
176   -La marche alรฉatoire consiste ร  choisir une solution et changer ses valeurs dans une composante alรฉatoire avec un pas alรฉatoire. Le pas est une valeur alรฉatoire gรฉnรฉrรฉe avec une distribution de probabilitรฉ normal de moyenne 0 et variance 1.
177   -\\
178   -\colorbox{yellow}{Je ne comprends pas ce qui est alรฉatoire. Le choix de la dimension ? Le pas ?}\\
179   -\colorbox{yellow}{ร‰viter les petits et grands, si nรฉcessaire, donner plutรดt un ordre de grandeur ou un intervalle.}
180   -
181   -\begin{equation}
182   -k \sim \left(\frac{1}{nl}\right)
183   -\end{equation}
184   -
185   -\begin{equation}
186   - s_{w,j}^m=\begin{cases}
187   - s_{j,k}^m+\mathcal{N}(0,1)& si \; (\mathcal{U}_{int}(0,10))\%2=0\\
188   - s_{j,k}^m-\mathcal{N}(0,1)&sinon
189   - \end{cases}
190   -\end{equation}
191   -
192   -\begin{figure}
193   -\centering
194   -\includegraphics[width=\textwidth]{./Figures/Stacking2.png}
195   -\caption{\textit{Stacking} pour la gรฉnรฉration de solutions}
196   -\label{figSta2}
197   -\end{figure}
198   -
199   -La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramรจtres du deuxiรจme modรจle d'empilement. Chaque modรจle dรฉcrit ci-dessus gรฉnรจre une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est รฉvaluรฉ ร  l'aide d'une fonction permettant de dรฉterminer la qualitรฉ de la solution.
200   -\colorbox{yellow}{J'ai rรฉ-รฉcrit le paragraphe ci-dessus selon ma comprรฉhension. Est-ce exact ?}
201   -
202   -\subsubsection{Rรฉvision}
203   -
204   -Dans cette phase, le problรจme de l'รฉvaluation automatique d'une solution candidate est transformรฉ en un problรจme d'optimisation, oรน la fonction objectif est \ref{eqOpt}. Ce problรจme revient ร  calculer la moyenne gรฉomรฉtrique ou encore ร  rรฉsoudre le problรจme de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, rรฉsoudre ce problรจme revient ร  calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problรจme en deux dimensions. Sur cette figure, le point rouge reprรฉsente une solution possible minimisant la somme des distances entre ce point et tous les autres points dรฉfinis dans l'espace.
205   -
206   -La fonction objectif \ref{eqOpt} รฉtablit un rapport entre la distance de la solution gรฉnรฉrรฉe $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur alรฉatoire de \textit{drift} d'une part, et la distance entre le problรจme cible $p^n_w$ et les $x$ problรจmes connus $p^n_x$ d'autre part. Ici, la difficultรฉ ร  trouver le point optimal rรฉside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dรฉpend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problรจme et solution) pour valider et gรฉnรฉrer l'ensemble de solutions proposรฉes.\\
207   -%\colorbox{yellow}{J'ai beaucoup modifiรฉ le paragraphe ci-dessus. Il faudrait vรฉrifier.}
208   -
209   -\begin{equation}
210   -\lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+rn(0,d(p_w^n, p_i^n))))}{d(p_w^n,p_x^n)^2} \right)
211   -\label{eqOpt0}
212   -\end{equation}
213   -
214   -\begin{equation}
215   -min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right)
216   -\label{eqOpt}
217   -\end{equation}
218   -
219   -\begin{figure}[!ht]
220   - \centering
221   - \includegraphics[width=\textwidth]{Figures/FW.png}
222   - \caption{Reprรฉsentation graphique en deux dimensions du problรจme de moyenne gรฉomรฉtrique. (Points associรฉs au problรจme ($\lambda_1,..,\lambda_7$) et point rouge solution au problรจme)}
223   - \label{fig:FW}
224   -\end{figure}
225   -
226   -Le cycle d'optimisation permet d'exรฉcuter les phases de rรฉcupรฉration et de rรฉutilisation en fonction de l'action sรฉlectionnรฉe alรฉatoirement parmi $[0,at]$ ร  chaque itรฉration $it$. ร€ chaque itรฉration, la valeur minimale รฉvaluรฉe par la fonction objectif est sauvegardรฉe.
227   -
228   -\subsubsection{Mรฉmorisation}
229   -
230   -L'รฉtape de mรฉmorisation consiste simplement ร  prendre la meilleure solution proposรฉe et ร  dรฉterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrรฉe dans la base de connaissances.
231   -
232   -\subsection{Rรฉsultats}
233   -
234   -Les performances de prรฉdiction de l'algorithme proposรฉ ont รฉtรฉ comparรฉes ร  celles de neuf autres algorithmes sur dix jeux de donnรฉes classiquement utilisรฉs pour รฉvaluer des mรฉthodes de rรฉgression. Ces jeux de donnรฉes prรฉsentent des caractรฉristiques diffรฉrentes. Les jeux de donnรฉes et leurs caractรฉristiques sont consignรฉes dans le tableau \ref{tabBases2}. Les valeurs des paramรจtres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$.
235   -%\colorbox{yellow}{ร€ quoi correspondent ces valeurs ? Unitรฉs ?}
236   -
237   -\begin{table}[!ht]
238   -\tiny
239   -\centering
240   -\begin{tabular}{llccccc}
241   -ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\
242   -\hline
243   -DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\
244   -DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\
245   -DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
246   -DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\
247   -DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\
248   -DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
249   -DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
250   -DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
251   -DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\
252   -DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\
253   -\end{tabular}
254   -\caption{Description des bases de donnรฉes รฉvaluรฉes. (* aprรจs codification comme \textit{String})}
255   -\label{tabBases2}
256   -\end{table}
257   -
258   -L'algorithme proposรฉ est comparรฉ ร  neuf algorithmes de rรฉgression largement utilisรฉs dans divers travaux de recherche et problรจmes appliquรฉs. La liste des algorithmes est prรฉsentรฉe dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont รฉtรฉ exรฉcutรฉs 100 fois, et les algorithmes qui nรฉcessitent un entraรฎnement et des validations croisรฉes sont exรฉcutรฉs avec 10 blocs, c'est-ร -dire $k=10$. %\colorbox{yellow}{ร€ quoi correspond ce k ? Unitรฉ ?}
259   -
260   -\begin{table}[!ht]
261   -\centering
262   -\footnotesize
263   -\begin{tabular}{ll|ll}
264   -ID&Algorithm&ID&Algorithm\\
265   -\hline
266   -A1&Linear Regression&A6&Polinomial Regression\\
267   -A2&K-Nearest Neighbor&A7&Ridge Regression\\
268   -A3&Decision Tree&A8&Lasso Regression\\
269   -A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\
270   -A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\
271   -\end{tabular}
272   -\caption{Liste des algorithmes รฉvaluรฉs}
273   -\label{tabAlgs}
274   -\end{table}
275   -
276   -Le tableau \ref{tabRes1} prรฉsente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de donnรฉes. Le tableau \ref{tabRes2} prรฉsente l'erreur absolue mรฉdiane (MAE) obtenue par chaque algorithme pour chaque jeu de donnรฉes.
277   -
278   -\begin{table}[!ht]
279   -\footnotesize
280   -\centering
281   -\begin{tabular}{c|ccccccccccc}
282   -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
283   -\hline
284   -DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\
285   -DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\
286   -DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\
287   -DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\
288   -DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\
289   -DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\
290   -DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\
291   -DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\
292   -DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\
293   -DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\
294   -\hline
295   -Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\
296   -\end{tabular}
297   -\caption{RMSE calculรฉes sur les dix jeux de donnรฉes sรฉlectionnรฉs obtenues aprรจs exรฉcution des dix algorithmes de rรฉgression considรฉrรฉs}
298   -\label{tabRes1}
299   -\end{table}
300   -
301   -\begin{table}[!ht]
302   -\footnotesize
303   -\centering
304   -\begin{tabular}{c|ccccccccccc}
305   -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
306   -\hline
307   -DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\
308   -DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\
309   -DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\
310   -DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\
311   -DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\
312   -DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\
313   -DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\
314   -DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\
315   -DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\
316   -DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\
317   -\hline
318   -Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\
319   -\end{tabular}
320   -\caption{MAE calculรฉes sur les dix jeux de donnรฉes sรฉlectionnรฉs obtenues aprรจs exรฉcution des dix algorithmes de rรฉgression considรฉrรฉs}
321   -\label{tabRes2}
322   -\end{table}
323   -
324   -La dispersion globale, la mรฉdiane et les valeurs aberrantes pour quatre jeux de donnรฉes reprรฉsentatifs sont prรฉsentรฉes sur la figure \ref{figBox}. Nous pouvons voir que l'algorithme proposรฉ gรฉnรจre plus de valeurs aberrantes que les autres algorithmes, parce que les algorithmes exรฉcutรฉs peuvent avoir tendance ร  privilรฉgier l'exploration de l'espace des solutions en cherchant ร  gรฉnรฉrer des solutions novatrices
325   -%\textcolor{red}{pourquoi?}
326   -, mais la variance est faible et la convergence est proche de la valeur rรฉelle, meilleure que la plupart des algorithmes comparรฉs.
327   -
328   -\begin{figure}
329   -\includegraphics[width=\textwidth]{./Figures/boxplot.png}
330   -\caption{Rรฉsultats de la mรฉtrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de donnรฉes reprรฉsentatives}
331   -\label{figBox}
332   -\end{figure}
333   -
334   -\subsection{Discussion}
335   -
336   -De par ses performances, ESCBR se rรฉvรจle compรฉtitif par rapport ร  certains des neuf autres algorithmes testรฉs pour la prรฉdiction dans les problรจmes de rรฉgression. En particulier, dans ce travail, nous avons effectuรฉ les tests sur dix jeux de donnรฉes aux caractรฉristiques variรฉes, telles que le nombre d'instances, le nombre de caractรฉristiques, le domaine des variables d'entrรฉe, les dimensions de la variable de sortie et le domaine d'application. Cela dรฉmontre la polyvalence de l'algorithme proposรฉ et son applicabilitรฉ ร  diffรฉrentes configurations. ร‰tant donnรฉ la nature exploratoire et stochastique d'ESCBR, il prรฉsente une grande diversitรฉ de solutions gรฉnรฉrant plusieurs valeurs aberrantes. Malgrรฉ cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois รฉlevรฉes, mais celles de la mรฉdiane restent faibles, la mรฉdiane attรฉnuant les disparitรฉs.
337   -
338   -On constate รฉgalement que l'intรฉgration des algorithmes de recherche produit de meilleurs rรฉsultats que les algorithmes simples (tels que le KNN ou la rรฉgression linรฉaire).
339   -
340   -Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (Random forest et Gradient Boosting) %\colorbox{yellow}{rappeler ici entre parenthรจses les noms de ces algorithmes de boosting}
341   -sont globalement plus performants que les algorithmes classiques, mรชme si les performances sont variables. Les performances calculรฉes selon la RMSE classent notre algorithme ESCBR ร  la sixiรจme place. En revanche, en considรฉrant les performances mesurรฉes selon la MAE, ESCBR est classรฉ en premiรจre place pour trois des dix jeux de donnรฉes et il se classe globalement ร  la troisiรจme place.
342   -
343   -Un aspect important de l'algorithme proposรฉ est la fonction objectif, qui peut รชtre modifiรฉe dynamiquement en fonction des caractรฉristiques du problรจme รฉvaluรฉ. Les tests ont รฉtรฉ effectuรฉs avec la fonction intuitive qui fournit une plus grande probabilitรฉ de sรฉlection et d'รฉvolution ร  la solution associรฉe aux voisins les plus proches, mais il est possible de complรฉter l'รฉvaluation avec d'autres termes pertinents et d'amรฉliorer ainsi les rรฉsultats.\textcolor{red}{je ne comprends pas} \colorbox{yellow}{Idem}
344   -
345   -De plus, ESCBR peut intรฉgrer des algorithmes diffรฉrents et des rรจgles spรฉcifiques ร  certaines problรจmes dans chaque pile
346   -%\textcolor{red}{sรปr?}
347   -et, grรขce ร  la conception en deux cycles, il peut travailler avec des problรจmes dynamiques en cours d'exรฉcution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de donnรฉes montrent qu'ESCBR fournit des rรฉsultats stables \colorbox{yellow}{C'est bien รงa ?} \textcolor{red}{variance faible =?}.
348   -
349   -\subsection{Conclusion}
350   -
351   -Ce chapitre propose une technique de rรฉgression gรฉnรฉrique utilisant le raisonnement ร  partir de cas et le modรจle d'empilement que nous avons baptisรฉ ESCBR. Ce modรจle ne nรฉcessite pas d'entrainement prรฉalable et grรขce au cycle itรฉratif interne, il peut s'adapter ร  des problรจmes dynamiques en temps rรฉel. Les rรฉsultats numรฉriques obtenus lors des tests effectuรฉs montrent le potentiel de l'algorithme avec des donnรฉes variรฉes et des jeux de donnรฉes de diffรฉrentes tailles. Les tests effectuรฉs dans cette premiรจre partie de chapitre montrent ainsi la compรฉtitivitรฉ d'ESCBR avec d'autres algorithmes standards et robustes couramment utilisรฉs pour rรฉsoudre des problรจmes de rรฉgression.\\\\
352   -
353   -\section{ESCBR-SMA : Introduction des systรจmes multi-agents dans ESCBR}
354   -
355   -La mรฉthode ESCBR que nous avons proposรฉe dans la section prรฉcรฉdente est fondรฉe sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposรฉes par des processus intelligents et concurrents pour en gรฉnรฉrer une, nous nous sommes tout naturellement tournรฉ vers la possibilitรฉ d'inclure des agents dans le processus de dรฉcision. L'une des ambitions des systรจmes multi-agents consiste en effet ร  faire รฉmerger une intelligence collective capable de fournir une solution. Cette section prรฉsente donc l'รฉvolution d'ESCBR en ESCBR-SMA.
356   -
357   -\subsection{Modรจle Proposรฉ}
358   -
359   -L'algorithme ESCBR-SMA est fondรฉ sur le paradigme du Rร PC et incorpore divers algorithmes de recherche de voisins et de gรฉnรฉration de solutions. Ceux-ci sont intรฉgrรฉs ร  l'aide d'une variante du modรจle d'empilement en deux รฉtapes itรฉratives, exรฉcutรฉes par des agents qui exploitent indรฉpendamment les algorithmes dรฉfinis dans les conteneurs de connaissances de la rรฉvision et de la rรฉutilisation du cycle classique du Rร PC. Les agents possรจdent une mรฉmoire locale qui leur permet d'ajuster et de dรฉvelopper leur recherche de voisins, en gรฉnรฉrant des solutions ร  chaque itรฉration. Chaque agent a un comportement individuel autorisant l'รฉchange d'informations avec les autres agents. La figure \ref{figNCBR} dรฉcrit le processus de dรฉcision et les comportements des agents au sein du systรจme รฉlargi.
360   -
361   -\begin{figure}[!ht]
362   -\centering
363   -\includegraphics[width=\textwidth]{Figures/NCBR.png}
364   -\caption{Deux cycles du systรจme ESCBR-SMA proposรฉ}
365   -\label{figNCBR}
366   -\end{figure}
367   -
368   -Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problรจme au cours de la premiรจre รฉtape puis, au cours de la seconde, gรฉnรจre une solution en se rรฉfรฉrant ร  la liste des solutions obtenues au cours de la premiรจre รฉtape. ร€ chaque itรฉration, les agents peuvent choisir parmi trois comportements programmรฉs : la recherche de problรจmes voisins, la gรฉnรฉration de solutions ou l'รฉchange d'informations avec un autre agent. L'exรฉcution de ces trois comportements programmรฉs est asynchrone. En revanche, la crรฉation et la sรฉlection de la liste des voisins se font de maniรจre synchronisรฉe.
369   -
370   -Les รฉtapes d'extraction, de rรฉutilisation, de rรฉvision et de conservation restent conformes au modรจle Rร PC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles รฉtapes :
371   -\begin{itemize}
372   - \item durant la phase de reconfiguration, les agents mettent ร  jour les valeurs de leurs paramรจtres locaux afin d'amรฉliorer la qualitรฉ de la solution proposรฉe lors de l'itรฉration suivante,
373   - \item durant la phase d'รฉchange, les agents รฉchangent des informations pour amรฉliorer leurs processus internes de recherche et de gรฉnรฉration,
374   - \item enfin, l'รฉtape de rรฉvision met ร  jour les valeurs des paramรจtres globaux de l'algorithme.
375   -\end{itemize}
376   -
377   -Le flux complet de l'algorithme proposรฉ est dรฉcrit sur la figure \ref{figFlowCBR}.
378   -
379   -En premier lieu, ESCBR-SMA crรฉe $n$ agents. Lors de l'initialisation, les agents sรฉlectionnent au hasard un algorithme de rรฉcupรฉration et un algorithme de rรฉutilisation, et initialisent รฉgalement les vecteurs bayรฉsiens correspondants. Tous les agents travaillent avec le mรชme ensemble de donnรฉes.
380   -
381   -Les agents exรฉcutent en parallรจle l'algorithme de rรฉcupรฉration sรฉlectionnรฉ, ร  partir des problรจmes similaires trouvรฉs ; chaque agent extrait les solutions et exรฉcute l'algorithme spรฉcifique de gรฉnรฉration d'une nouvelle solution.
382   -Toutes les solutions proposรฉes par les agents sont รฉvaluรฉes ร  l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvรฉe ร  ce stade.
383   -
384   -Au cours de l'รฉtape suivante, les agents sรฉlectionnent au hasard un algorithme de rรฉcupรฉration et un algorithme de rรฉutilisation, puis ils mettent ร  jour les vecteurs bayรฉsiens en fonction des rรฉsultats obtenus avec la fonction objectif.
385   -
386   -Lors de l'itรฉration suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de rรฉcupรฉration et de rรฉutilisation, ne changer que l'algorithme de rรฉutilisation ou รฉchanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit alรฉatoirement une action pour tenter d'amรฉliorer la solution candidate.
387   -
388   -L'ensemble des variables et paramรจtres d'ESCBR-SMA sont consignรฉs dans le tableau \ref{tabVarPar}. Le systรจme multi-agents est composรฉ d'un nombre variable d'agents, tous homogรจnes mais dotรฉs de processus cognitifs internes indรฉpendants et stochastiques.
389   -
390   -\begin{figure}[!ht]
391   -\centering
392   -\includegraphics[scale=0.6]{Figures/FlowCBR.png}
393   -\caption{Flux du \textit{Stacking} du Rร PC (* est une tรขche effectuรฉe par chaque agent)}
394   -\label{figFlowCBR}
395   -\end{figure}
396   -
397   -\begin{table}[!ht]
398   -\footnotesize
399   -\centering
400   -\begin{tabular}{cccc}
401   -ID&Type&Description&Domain\\
402   -\hline
403   -$it$&p&Nombre d'itรฉrations&$\mathbb{N}, it>0$\\
404   -$np$&p&Nombre d'agents&$\mathbb{N}, np>2$\\
405   -$nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\
406   -$ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\
407   -$n$&v&Dimension de l'espace du problรจme&$\mathbb{N}, n>0$\\
408   -$m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\
409   -$p$&v&Description du problรจme&$\mathbb{R} ^ n$\\
410   -$s$&v&Description de la solution&$\mathbb{R} ^ m$\\
411   -$p_w$&v&Description du nouveau problรจme&$\mathbb{R} ^ n$\\
412   -$s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\
413   -$n_{rt}$&v&Nombre d'algorithmes por l'รฉtape de rรฉtrouver&$\mathbb{Z}$\\
414   -$n_{rs}$&v&Nombre d'algorithmes de rรฉutilisation&$\mathbb{Z}$\\
415   -$d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\
416   -$rn(x,y)$&f&
417   -
418   -\begin{tabular}{@{}c@{}}Valeur alรฉatoire avec distribution normale\\ $x$ moyenne, $y$ รฉcart-type
419   -\end{tabular}
420   -
421   -&$\mathbb{R}_+$\\
422   -$rnp(x,y)$&f&
423   -
424   -\begin{tabular}{@{}c@{}}Valeur alรฉatoire discrรจte, $x$ nombre d'options \\ $y$ vecteur discret de probabilitรฉs
425   -\end{tabular}
426   -&$\mathbb{Z}$\\
427   -$f_s(p^n,s^m)$&f&ร‰valuation des solutions&$\mathbb{R}$\\
428   -\end{tabular}
429   -\caption{Variables et paramรจtres du modรจle proposรฉ (Type: p - paramรจtre, v - variable, f - fonction)}
430   -\label{tabVarPar}
431   -\end{table}
432   -
433   -\subsubsection{Algorithmes}
434   -
435   -Cette section prรฉsente de maniรจre plus dรฉtaillรฉe les comportements des agents d'ESCBR-SMA.
436   -
437   -Lors de la premiรจre รฉtape de l'empilement, chaque agent peut sรฉlectionner l'un des algorithmes ร  mettre en ล“uvre pour rechercher des problรจmes similaires au nouveau problรจme posรฉ. Les algorithmes possibles sont les suivants : KNN (K-Nearest Neighbor), KMeans, GMM (Gaussian Mixture Model), FuzzyC et KNN pondรฉrรฉ.
438   -
439   -Lors de la deuxiรจme รฉtape de l'empilement, les agents peuvent choisir un algorithme parmi les suivants : pondรฉration avec probabilitรฉ, pondรฉration sans probabilitรฉ, valeurs mรฉdianes, Copier/Changer, vote, interpolation, PCA (analyse en composantes principales) et non alรฉatoire. Les algorithmes ont รฉtรฉ explicitรฉs dans la section 6.2.1.2.
440   -
441   -\subsubsection{Structure des agents}
442   -
443   -Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'obtenir un comportement indรฉpendant et diffรฉrent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nรฉcessaires ร  l'exรฉcution de l'ensemble du processus.
444   -
445   -Chaque agent peut exรฉcuter trois actions diffรฉrentes :
446   -\begin{itemize}
447   - \item ยซ Rรฉcupรฉrer et rรฉutiliser ยป,
448   - \item ยซ Rรฉutiliser ยป et
449   - \item ยซ ร‰changer ยป.
450   -\end{itemize}
451   -
452   -Chaque agent accรจde aux valeurs de huit variables qui lui sont propres :
453   -\begin{itemize}
454   - \item le nombre de voisins dรฉfinissant le nombre de problรจmes similaires au nouveau problรจme posรฉ que l'agent doit rechercher dans la base de connaissancesร’,
455   - \item la liste des voisins les plus proches รฉtablit la liste des agents avec lesquels des informations peuvent รชtre รฉchangรฉes,
456   - \item l'identifiant de l'algorithme de rรฉcupรฉration que l'agent exรฉcutera pour trouver les problรจmes similaires au nouveau problรจme,
457   - \item l'identifiant de l'algorithme de rรฉutilisation que l'agent exรฉcutera pour gรฉnรฉrer une solution candidate au cas cible,
458   - \item la description de la solution gรฉnรฉrรฉe,
459   - \item l'รฉvaluation de la solution renseignant sur la qualitรฉ de la solution gรฉnรฉrรฉe et calculรฉe selon une fonction d'optimisation (eq \ref{eqOpt1} et eq \ref{eqOpt2}),
460   - \item le vecteur bayรฉsien nรฉcessaire aux algorithmes de rรฉcupรฉration contenant les valeurs de probabilitรฉ, et
461   - \item le vecteur bayรฉsien nรฉcessaire aux algorithmes de rรฉutilisation contenant les valeurs de probabilitรฉ.
462   -\end{itemize}
463   -
464   -\begin{equation}
465   -min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right)
466   -\label{eqOpt1}
467   -\end{equation}
468   -
469   -\begin{equation}
470   -s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n))
471   -\label{eqOpt2}
472   -\end{equation}
473   -
474   -\begin{figure}[!ht]
475   -\centering
476   -\includegraphics[scale=0.7]{Figures/agent.png}
477   -\caption{Structure interne des agents}
478   -\label{figAgent}
479   -\end{figure}
480   -
481   -\subsubsection{Apprentissage des agents}
482   -
483   -Tous les agents considรจrent un vecteur bayรฉsien de probabilitรฉ pour la phase de rรฉcupรฉration (conteneur $C3$) et un vecteur bayรฉsien de probabilitรฉ pour la phase de rรฉutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurรฉs avec une probabilitรฉ uniforme pour tous les algorithmes de rรฉcupรฉration et de rรฉutilisation (probabilitรฉ \textit{a priori}). ร€ chaque itรฉration, les vecteurs sont mis ร  jour selon l'รฉquation Bayรฉsienne (รฉquation \ref{eqBay}) en utilisant les meilleurs rรฉsultats du mรชme agent comme paramรจtre de vraisemblance. L'agent apprend ainsi de son expรฉrience et sรฉlectionne les algorithmes les plus aptes ร  fournir les meilleures rรฉponses au regard de l'objectif dรฉfini.
484   -
485   -Par consรฉquent, d'un point plus global au niveau du SMA, l'apprentissage est fondรฉ sur un raisonnement bayรฉsien oรน les vecteurs de rรฉcupรฉration et de rรฉutilisation รฉvoluent. Un exemple d'รฉvolution est prรฉsentรฉ sur la figure \ref{fig:bayev}. Au cours d'une itรฉration, si un algorithme a contribuรฉ ร  la construction de la meilleure solution, il reรงoit un point pour chaque agent qui l'a utilisรฉ. Ces informations sont stockรฉes dans un vecteur normalisรฉ qui est ensuite utilisรฉ comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilitรฉs dans l'รฉquation bayรฉsienne \ref{eqBay} (dans cette รฉquation, $P(B)$ est le terme de normalisation global).
486   -
487   -\begin{figure}
488   - \centering
489   - \includegraphics[scale=0.5]{Figures/BayesianEvolution.png}
490   - \caption{Exemple d'รฉvolution Bayรฉsienne des vecteurs pour un agent. a) Initialisation des probabilitรฉs $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilitรฉs aprรจs quelques itรฉrations $P(A|B)$ vecteurs pour Retrieve et Reuse}
491   - \label{fig:bayev}
492   -\end{figure}
493   -
494   -\begin{equation}
495   - P(A|B)=\frac{P(B|A)P(A)}{P(B)}
496   - \label{eqBay}
497   -\end{equation}
498   -
499   -La sรฉlection d'un algorithme de recherche $a_{rt}$ se fait au moyen d'une valeur alรฉatoire
500   -\\ \colorbox{yellow}{La valeur est alรฉatoire ? Ou le choix de la valeur est alรฉatoire ?} \\
501   -tirรฉe du vecteur de distribution de recherche discrรจte obtenu par raisonnement bayรฉsien et calculรฉ selon l'รฉquation \ref{eqRta}.
502   -
503   -\begin{equation}
504   - a_{rt}=rnp(n_{rt},P(A|B)_{rt})
505   - \label{eqRta}
506   -\end{equation}
507   -
508   -La sรฉlection d'un algorithme de rรฉutilisation $a_{rs}$ se fait au moyen d'une valeur alรฉatoire
509   -\\ \colorbox{yellow}{La valeur est alรฉatoire ? Ou le choix de la valeur est alรฉatoire ?} \\
510   -tirรฉe du vecteur de distribution de rรฉutilisation discrรจte obtenu par raisonnement bayรฉsien et calculรฉ selon l'รฉquation \ref{eqRsa}.
511   -
512   -\begin{equation}
513   - a_{rs}=rnp(n_{rs},P(A|B)_{rs})
514   - \label{eqRsa}
515   -\end{equation}
516   -
517   -Le processus d'apprentissage est rรฉalisรฉ individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents รฉchangent les informations qu'ils ont calculรฉes, les optimisations locales qu'ils ont rรฉalisรฉes, ainsi que les algorithmes et les paramรจtres qu'ils ont utilisรฉs.
518   -
519   -\subsubsection{ร‰changes entre les agents}
520   -
521   -Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itรฉration en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permettent de propager les paramรจtres menant aux meilleurs rรฉsultats et d'effectuer des actions rรฉtrospectivement. Les informations modifables sont choisies alรฉatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de rรฉcupรฉration, de l'algorithme de rรฉutilisation ou mรชme des vecteurs bayรฉsiens.
522   -
523   -\subsection{Rรฉsultats}
524   -
525   -Des expรฉrimentations sur onze jeux de donnรฉes relatifs ร  des problรจmes de rรฉgression et prรฉsentant des caractรฉristiques diffรฉrentes ont รฉtรฉ rรฉalisรฉes. Les jeux de donnรฉes et leurs caractรฉristiques sont consignรฉs dans le tableau \ref{tabBases}. Les valeurs des paramรจtres de l'algorithme sont les suivantes $it=100$, $np=50$, $nl=10$ et $ng=10$.
526   -\\ \colorbox{yellow}{Quel algorithme ?}
527   -\\ \colorbox{yellow}{ร€ quoi correspondent ces paramรจtres ? Quelles sont les unitรฉs ?}\\
528   -Le tableau \ref{AlgsPar} prรฉsente les valeurs des paramรจtres de tous les autres algorithmes.
529   -
530   -\begin{table}[!ht]
531   -\scriptsize
532   -\centering
533   -\begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}}
534   -ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\
535   -\hline
536   -DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\
537   -DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\
538   -DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
539   -DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\
540   -DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\
541   -DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
542   -DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
543   -DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
544   -DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\
545   -DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\
546   -DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\
547   -\end{tabular}
548   -\caption{Description des jeux de donnรฉes รฉvaluรฉs. (* aprรจs codification comme
549   -\textit{String})}
550   -\label{tabBases}
551   -\end{table}
552   -
553   -\begin{table}[!ht]
554   -\centering
555   -\begin{tabular}{ccc|ccc}
556   -ID&Parameter&Value&ID&Parameter&Value\\
557   -\hline
558   -A1&Intercept&True&A6&Degree&4\\
559   -&Positive&True&&Bias&True\\
560   -\hline
561   -A2&Neighbors&5&A7&Fit Intercept&True\\
562   -&Weights&Uniform&&alpha&0.2\\
563   -&Metric&Minkowsky&&tol&1e-4\\
564   -&Power Minkowsky&2\\
565   -\hline
566   -A3&Error&Squared Error&A8&Fit Intercept&True\\
567   -&Min samples split&2&&alpha&[0.00001, 0.4]\\
568   -&&&&Max iter&1000\\
569   -&&&&tol&1e-4\\
570   -\hline
571   -A4&Estimators&10&A9&Error&Squarred Error\\
572   -&Error&Squared Error&&Learning Rate&0.1\\
573   -&Min samples split&2&&Estimators&100\\
574   -&Bootstrap&True&&Min Split&2\\
575   -\hline
576   -A5&Hidden Layers&100\\
577   -&Activation&Relu\\
578   -&Solver&Adam\\
579   -&alpha&0.0001\\
580   -&Learning Rate&0.001\\
581   -&Max Iter&200\\
582   -&beta1&0.9\\
583   -&beta2&0.999\\
584   -&epsilon&1e-8\\
585   -\end{tabular}
586   -\caption{Paramรจtres de tous les algorithmes comparรฉs}
587   -\label{AlgsPar}
588   -\end{table}
589   -
590   -\begin{table}[!ht]
591   -\footnotesize
592   -\centering
593   -\begin{tabular}{c|ccccccccccc}
594   -&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
595   -\hline
596   -%DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&8.263&8.225\\
597   -DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&8.225\\
598   -%DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.016&0.016\\
599   -DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.016\\%DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.148&7.991\\
600   -DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&7.991\\
601   -%DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.628&0.607\\
602   -DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.607\\
603   -%DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.690&0.662\\
604   -DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.662\\
605   -%DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&9.413&9.070\\
606   -DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&9.070\\
607   -%DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&3.031&2.941\\
608   -DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&2.941\\
609   -%DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.752&2.553\\
610   -DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.553\\
611   -%DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.747&2.468\\
612   -DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.468\\
613   -%DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.897&3.621\\
614   -DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.621\\
615   -DS11&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&
616   -0.541&0.54\\
617   -\hline
618   -%Avg. Rank&5.8&6.5&7.2&2.3&6.7&5.7&5.6&8.65&1.9&4.65\\
619   -Avg. Rank&6.4&6.9&8.2&2.6&7.2&6.45&6.35&9.55&2.1&4.75\\
620   -\end{tabular}
621   -\caption{Rรฉsultat selon la mรฉtrique RMSE (Root Mean Squared Error) pour les jeux de donnรฉes รฉvaluรฉs avec les diffรฉrents algorithmes de rรฉgression considรฉrรฉs.}
622   -\label{tabRes1}
623   -\end{table}
624   -
625   -\begin{table}[!ht]
626   -\footnotesize
627   -\centering
628   -\begin{tabular}{c|ccccccccccc}
629   -Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
630   -\hline
631   -%DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.218\\
632   -DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.218\\
633   -%DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\
634   -DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.010\\
635   -%DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.90&3.771\\
636   -DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.771\\
637   -%DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\
638   -DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.135\\
639   -%DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\
640   -DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.085\\
641   -%DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\
642   -DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.072\\
643   -%DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\
644   -DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.006\\
645   -%DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\
646   -DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.794\\
647   -%DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\
648   -DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.556\\
649   -%DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\
650   -DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.371\\
651   -DS11&0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&
652   -0.327&0.347\\
653   -\hline
654   -Avg. Rank&7.15&6.9&5.35&2.6&7.95&7.25&7.3&9.0&2.5
655   -&4.5\\
656   -%Avg. Rank&6.45&6.5&4.35&2.4&7.45&6.55&6.6&8.1&2.4&4.2\\
657   -\end{tabular}
658   -\caption{Comparaison des rรฉsultats MAE (Median Absolute Error) pour les bases de donnรฉes รฉvaluรฉes avec des algorithmes de rรฉgression}
659   -\label{tabRes2}
660   -\end{table}
661   -
662   -Les tableaux \ref{tabRes1} et \ref{tabRes2} prรฉsentent respectivement les RMSE et les MAE obtenues pour chaque jeu de donnรฉes et chaque algorithme testรฉ.
663   -
664   -La figure \ref{figBox} reprรฉsente graphiquement la dispersion globale, la mรฉdiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA gรฉnรจre parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est trรจs faible. De plus, la convergence est proche de la valeur rรฉelle et mรชme meilleure que celle de la plupart des autres algorithmes testรฉs. Il est รฉgalement possible de remarquer que les valeurs aberrantes sont plus รฉlevรฉes que les valeurs rรฉelles, peut รชtre parce que les algorithmes utilisรฉs explorent l'espace de recherche alors ces valeurs sont produit d'une variabilitรฉ naturelle des algorithmes dans l'espace des solutions, qui peuvent donner de la 'crรฉativitรฉ' au moment de gรฉnรฉrer de nouvelles solutions.
665   -%\textcolor{red}{plus รฉlevรฉes??, pourquoi?}
666   -
667   -\begin{figure}[!ht]
668   -\includegraphics[width=\textwidth]{Figures/boxplot2.png}
669   -\caption{Rรฉsultats selon la mรฉtrique MAE (Median Absolute Error) pour les dix algorithmes testรฉs}
670   -\label{figBox}
671   -\end{figure}
672   -
673   -Les rรฉsultats montrent que l'algorithme ESCBR-SMA est compรฉtitif pour la plupart des jeux de donnรฉes considรฉrรฉs dans cette รฉtude. Il obtient en effet les meilleurs rรฉsultats sur $DS2$, $DS4$, $DS5$ et $DS9$. Globalement, ESCBR-SMA est le troisiรจme meilleur algorithme. Il se classe donc ร  proximitรฉ d'autres algorithmes d'ensemble. Par rapport ร  l'ESCBR, une amรฉlioration des rรฉsultats et une rรฉduction de la variance ont รฉtรฉ obtenues, dรฉmontrant ainsi que les systรจmes multi-agents et le raisonnement stochastique bayรฉsien contribuent ร  l'apprentissage et ร  la convergence vers des solutions plus proches de la solution rรฉelle.
674   -
675   -\subsection{Conclusion}
676   -L'ECBR intรฉgrant un SMA propose d'utiliser les avantages des systรจmes multi-agents pour amรฉliorer la qualitรฉ des solutions proposรฉes et รฉgalement le processus d'apprentissage global en couvrant un plus large spectre de possibilitรฉs et en le couvrant de maniรจre intelligente ร  l'aide d'un raisonnement bayรฉsien. ESCBR-SMA permet ainsi d'obtenir de bonnes approximations avec peu de donnรฉes.
677   -
678   -Ce travail a dรฉmontrรฉ la capacitรฉ d'ESCBR-SMA ร  trouver des solutions proches de l'optimum global pour la majoritรฉ des ensembles de donnรฉes analysรฉs. Ces jeux de donnรฉes prรฉsentent une certaine diversitรฉ, ils peuvent รชtre dรฉsรฉquilibrรฉs et ils sont de tailles diffรฉrentes. Grรขce aux caractรฉristiques inhรฉrentes aux systรจmes multi-agents (possibilitรฉs de rรฉtroactions, d'รฉchanges d'informations, l'รฉmergence d'une intelligence collective, utilisation d'un raisonnement cognitif), les performances d'ESCBR-SMA sont meilleures que celles d'ESCBR.
1   -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 17 JUL 2025 14:48
  1 +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 17 JUL 2025 18:28
2 2 entering extended mode
3 3 restricted \write18 enabled.
4 4 %&-line parsing enabled.
5 5  
6 6  
7 7  
8 8  
9 9  
10 10  
11 11  
12 12  
... ... @@ -1661,35 +1661,35 @@
1661 1661 [56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic
1662 1662 S.png>]
1663 1663 [58]
1664   -<./Figures/Stacking2.png, id=1131, 743.77875pt x 414.54875pt>
  1664 +<./Figures/Stacking2.png, id=1134, 743.77875pt x 414.54875pt>
1665 1665 File: ./Figures/Stacking2.png Graphic file (type png)
1666 1666 <use ./Figures/Stacking2.png>
1667   -Package pdftex.def Info: ./Figures/Stacking2.png used on input line 188.
  1667 +Package pdftex.def Info: ./Figures/Stacking2.png used on input line 190.
1668 1668 (pdftex.def) Requested size: 427.43153pt x 238.23717pt.
1669 1669  
1670   -Underfull \hbox (badness 10000) in paragraph at lines 199--200
  1670 +Underfull \hbox (badness 10000) in paragraph at lines 201--202
1671 1671  
1672 1672 []
1673 1673  
1674 1674 [59 <./Figures/Stacking2.png>]
1675   -<Figures/FW.png, id=1146, 456.70625pt x 342.27875pt>
  1675 +<Figures/FW.png, id=1150, 456.70625pt x 342.27875pt>
1676 1676 File: Figures/FW.png Graphic file (type png)
1677 1677 <use Figures/FW.png>
1678   -Package pdftex.def Info: Figures/FW.png used on input line 213.
  1678 +Package pdftex.def Info: Figures/FW.png used on input line 215.
1679 1679 (pdftex.def) Requested size: 427.43153pt x 320.34758pt.
1680 1680 [60 <./Figures/FW.png>] [61]
1681   -<./Figures/boxplot.png, id=1168, 1994.45125pt x 959.585pt>
  1681 +<./Figures/boxplot.png, id=1171, 1994.45125pt x 959.585pt>
1682 1682 File: ./Figures/boxplot.png Graphic file (type png)
1683 1683 <use ./Figures/boxplot.png>
1684   -Package pdftex.def Info: ./Figures/boxplot.png used on input line 318.
  1684 +Package pdftex.def Info: ./Figures/boxplot.png used on input line 320.
1685 1685 (pdftex.def) Requested size: 427.43153pt x 205.64786pt.
1686 1686 [62]
1687   -Underfull \hbox (badness 10000) in paragraph at lines 337--338
  1687 +Underfull \hbox (badness 10000) in paragraph at lines 339--340
1688 1688  
1689 1689 []
1690 1690  
1691 1691  
1692   -Underfull \hbox (badness 2564) in paragraph at lines 339--339
  1692 +Underfull \hbox (badness 2564) in paragraph at lines 341--341
1693 1693 [][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tรจmes multi-
1694 1694 []
1695 1695  
1696 1696  
1697 1697  
1698 1698  
1699 1699  
... ... @@ -1700,19 +1700,19 @@
1700 1700 []
1701 1701  
1702 1702 [63 <./Figures/boxplot.png>]
1703   -<Figures/NCBR.png, id=1179, 653.44125pt x 445.665pt>
  1703 +<Figures/NCBR.png, id=1182, 653.44125pt x 445.665pt>
1704 1704 File: Figures/NCBR.png Graphic file (type png)
1705 1705 <use Figures/NCBR.png>
1706   -Package pdftex.def Info: Figures/NCBR.png used on input line 349.
  1706 +Package pdftex.def Info: Figures/NCBR.png used on input line 351.
1707 1707 (pdftex.def) Requested size: 427.43153pt x 291.5149pt.
1708 1708 [64 <./Figures/NCBR.png>]
1709   -<Figures/FlowCBR.png, id=1189, 450.68375pt x 822.07124pt>
  1709 +<Figures/FlowCBR.png, id=1192, 450.68375pt x 822.07124pt>
1710 1710 File: Figures/FlowCBR.png Graphic file (type png)
1711 1711 <use Figures/FlowCBR.png>
1712   -Package pdftex.def Info: Figures/FlowCBR.png used on input line 378.
  1712 +Package pdftex.def Info: Figures/FlowCBR.png used on input line 380.
1713 1713 (pdftex.def) Requested size: 270.41232pt x 493.24655pt.
1714 1714  
1715   -Underfull \hbox (badness 1107) in paragraph at lines 411--412
  1715 +Underfull \hbox (badness 1107) in paragraph at lines 413--414
1716 1716 []\T1/phv/m/n/10.95 Cette sec-tion prรฉ-sente de ma-niรจre plus dรฉ-taillรฉe les co
1717 1717 m-por-te-ments des agents
1718 1718 []
1719 1719  
... ... @@ -1727,10 +1727,10 @@
1727 1727 Underfull \vbox (badness 10000) has occurred while \output is active []
1728 1728  
1729 1729 [66 <./Figures/FlowCBR.png>]
1730   -<Figures/agent.png, id=1205, 352.31625pt x 402.50375pt>
  1730 +<Figures/agent.png, id=1208, 352.31625pt x 402.50375pt>
1731 1731 File: Figures/agent.png Graphic file (type png)
1732 1732 <use Figures/agent.png>
1733   -Package pdftex.def Info: Figures/agent.png used on input line 452.
  1733 +Package pdftex.def Info: Figures/agent.png used on input line 454.
1734 1734 (pdftex.def) Requested size: 246.61969pt x 281.7507pt.
1735 1735  
1736 1736 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
1737 1737  
1738 1738  
1739 1739  
1740 1740  
1741 1741  
... ... @@ -1739,26 +1739,26 @@
1739 1739 []
1740 1740  
1741 1741 [67]
1742   -<Figures/BayesianEvolution.png, id=1219, 626.34pt x 402.50375pt>
  1742 +<Figures/BayesianEvolution.png, id=1222, 626.34pt x 402.50375pt>
1743 1743 File: Figures/BayesianEvolution.png Graphic file (type png)
1744 1744 <use Figures/BayesianEvolution.png>
1745   -Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 465.
  1745 +Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 467.
1746 1746  
1747 1747 (pdftex.def) Requested size: 313.16922pt x 201.25137pt.
1748 1748 [68 <./Figures/agent.png>]
1749   -Underfull \hbox (badness 10000) in paragraph at lines 506--506
  1749 +Underfull \hbox (badness 10000) in paragraph at lines 508--508
1750 1750 []|\T1/phv/m/n/8 Input.
1751 1751 []
1752 1752  
1753 1753  
1754   -Underfull \hbox (badness 10000) in paragraph at lines 506--507
  1754 +Underfull \hbox (badness 10000) in paragraph at lines 508--509
1755 1755 []|\T1/phv/m/n/8 Output
1756 1756 []
1757 1757  
1758   -<Figures/boxplot2.png, id=1234, 1615.03375pt x 835.12pt>
  1758 +<Figures/boxplot2.png, id=1237, 1615.03375pt x 835.12pt>
1759 1759 File: Figures/boxplot2.png Graphic file (type png)
1760 1760 <use Figures/boxplot2.png>
1761   -Package pdftex.def Info: Figures/boxplot2.png used on input line 638.
  1761 +Package pdftex.def Info: Figures/boxplot2.png used on input line 618.
1762 1762 (pdftex.def) Requested size: 427.43153pt x 221.01265pt.
1763 1763  
1764 1764 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
1765 1765  
1766 1766  
... ... @@ -1770,10 +1770,9 @@
1770 1770 Underfull \vbox (badness 10000) has occurred while \output is active []
1771 1771  
1772 1772 [70]
  1773 +Underfull \vbox (badness 10000) has occurred while \output is active []
1773 1774  
1774   -LaTeX Warning: Text page 71 contains only floats.
1775 1775  
1776   -
1777 1776 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
1778 1777 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTรˆMES MULTI-AGENTS DAN
1779 1778 S ESCBR \T1/phv/m/n/10.95 71
1780 1779  
1781 1780  
... ... @@ -1805,18 +1804,18 @@
1805 1804 put line 97.
1806 1805  
1807 1806 [75]
1808   -<./Figures/dataset.png, id=1294, 15.13687pt x 8.08058pt>
  1807 +<./Figures/dataset.png, id=1297, 15.13687pt x 8.08058pt>
1809 1808 File: ./Figures/dataset.png Graphic file (type png)
1810 1809 <use ./Figures/dataset.png>
1811 1810 Package pdftex.def Info: ./Figures/dataset.png used on input line 118.
1812 1811 (pdftex.def) Requested size: 427.43153pt x 228.35583pt.
1813 1812 [76]
1814   -<./Figures/comp2.png, id=1306, 14.98512pt x 7.33133pt>
  1813 +<./Figures/comp2.png, id=1309, 14.98512pt x 7.33133pt>
1815 1814 File: ./Figures/comp2.png Graphic file (type png)
1816 1815 <use ./Figures/comp2.png>
1817 1816 Package pdftex.def Info: ./Figures/comp2.png used on input line 154.
1818 1817 (pdftex.def) Requested size: 427.43153pt x 209.34462pt.
1819   -<./Figures/comp3.png, id=1308, 14.98512pt x 7.33133pt>
  1818 +<./Figures/comp3.png, id=1311, 14.98512pt x 7.33133pt>
1820 1819 File: ./Figures/comp3.png Graphic file (type png)
1821 1820 <use ./Figures/comp3.png>
1822 1821 Package pdftex.def Info: ./Figures/comp3.png used on input line 164.
... ... @@ -1825,7 +1824,7 @@
1825 1824 Underfull \vbox (badness 1132) has occurred while \output is active []
1826 1825  
1827 1826 [77 <./Figures/dataset.png>]
1828   -<./Figures/comp4.png, id=1318, 14.9377pt x 7.31236pt>
  1827 +<./Figures/comp4.png, id=1321, 14.9377pt x 7.31236pt>
1829 1828 File: ./Figures/comp4.png Graphic file (type png)
1830 1829 <use ./Figures/comp4.png>
1831 1830 Package pdftex.def Info: ./Figures/comp4.png used on input line 172.
... ... @@ -1838,7 +1837,7 @@
1838 1837  
1839 1838 []
1840 1839  
1841   -<./Figures/metric.png, id=1333, 16.95784pt x 7.68225pt>
  1840 +<./Figures/metric.png, id=1336, 16.95784pt x 7.68225pt>
1842 1841 File: ./Figures/metric.png Graphic file (type png)
1843 1842 <use ./Figures/metric.png>
1844 1843 Package pdftex.def Info: ./Figures/metric.png used on input line 213.
1845 1844  
... ... @@ -1851,14 +1850,14 @@
1851 1850  
1852 1851 []
1853 1852  
1854   -<./Figures/metric2.png, id=1355, 16.48363pt x 7.66327pt>
  1853 +<./Figures/metric2.png, id=1358, 16.48363pt x 7.66327pt>
1855 1854 File: ./Figures/metric2.png Graphic file (type png)
1856 1855 <use ./Figures/metric2.png>
1857 1856 Package pdftex.def Info: ./Figures/metric2.png used on input line 272.
1858 1857 (pdftex.def) Requested size: 427.43153pt x 198.89235pt.
1859 1858 [81 <./Figures/metric.png>] [82 <./Figures/metric2.png>] [83] [84] [85]
1860 1859 [86]
1861   -<Figures/Model.png, id=1444, 3.47124pt x 2.85477pt>
  1860 +<Figures/Model.png, id=1447, 3.47124pt x 2.85477pt>
1862 1861 File: Figures/Model.png Graphic file (type png)
1863 1862 <use Figures/Model.png>
1864 1863 Package pdftex.def Info: Figures/Model.png used on input line 477.
... ... @@ -1869,7 +1868,7 @@
1869 1868 []
1870 1869  
1871 1870 [89]
1872   -<Figures/kEvol_TS.jpg, id=1487, 742.775pt x 557.08125pt>
  1871 +<Figures/kEvol_TS.jpg, id=1490, 742.775pt x 557.08125pt>
1873 1872 File: Figures/kEvol_TS.jpg Graphic file (type jpg)
1874 1873 <use Figures/kEvol_TS.jpg>
1875 1874 Package pdftex.def Info: Figures/kEvol_TS.jpg used on input line 650.
... ... @@ -1880,7 +1879,7 @@
1880 1879 []
1881 1880  
1882 1881 [90]
1883   -<Figures/stabilityBoxplot.png, id=1499, 742.775pt x 520.94624pt>
  1882 +<Figures/stabilityBoxplot.png, id=1502, 742.775pt x 520.94624pt>
1884 1883 File: Figures/stabilityBoxplot.png Graphic file (type png)
1885 1884 <use Figures/stabilityBoxplot.png>
1886 1885 Package pdftex.def Info: Figures/stabilityBoxplot.png used on input line 663.
1887 1886  
1888 1887  
... ... @@ -1891,17 +1890,17 @@
1891 1890 []
1892 1891  
1893 1892 [91 <./Figures/kEvol_TS.jpg>]
1894   -<Figures/precision.png, id=1507, 742.775pt x 520.94624pt>
  1893 +<Figures/precision.png, id=1510, 742.775pt x 520.94624pt>
1895 1894 File: Figures/precision.png Graphic file (type png)
1896 1895 <use Figures/precision.png>
1897 1896 Package pdftex.def Info: Figures/precision.png used on input line 672.
1898 1897 (pdftex.def) Requested size: 427.43153pt x 299.78818pt.
1899   -<Figures/GradesEv.jpg, id=1509, 740.7675pt x 557.08125pt>
  1898 +<Figures/GradesEv.jpg, id=1512, 740.7675pt x 557.08125pt>
1900 1899 File: Figures/GradesEv.jpg Graphic file (type jpg)
1901 1900 <use Figures/GradesEv.jpg>
1902 1901 Package pdftex.def Info: Figures/GradesEv.jpg used on input line 683.
1903 1902 (pdftex.def) Requested size: 427.43153pt x 321.44128pt.
1904   -<Figures/LevelsEv.jpg, id=1513, 742.775pt x 557.08125pt>
  1903 +<Figures/LevelsEv.jpg, id=1516, 742.775pt x 557.08125pt>
1905 1904 File: Figures/LevelsEv.jpg Graphic file (type jpg)
1906 1905 <use Figures/LevelsEv.jpg>
1907 1906 Package pdftex.def Info: Figures/LevelsEv.jpg used on input line 692.
... ... @@ -1913,7 +1912,7 @@
1913 1912 Underfull \vbox (badness 10000) has occurred while \output is active []
1914 1913  
1915 1914 [93 <./Figures/precision.png>]
1916   -<Figures/Metric4.jpg, id=1534, 1429.34pt x 786.94pt>
  1915 +<Figures/Metric4.jpg, id=1537, 1429.34pt x 786.94pt>
1917 1916 File: Figures/Metric4.jpg Graphic file (type jpg)
1918 1917 <use Figures/Metric4.jpg>
1919 1918 Package pdftex.def Info: Figures/Metric4.jpg used on input line 729.
... ... @@ -1926,7 +1925,7 @@
1926 1925 Underfull \vbox (badness 10000) has occurred while \output is active []
1927 1926  
1928 1927 [95 <./Figures/LevelsEv.jpg>] [96 <./Figures/Metric4.jpg>]
1929   -<Figures/ModelHawkes.png, id=1551, 397.485pt x 382.42876pt>
  1928 +<Figures/ModelHawkes.png, id=1554, 397.485pt x 382.42876pt>
1930 1929 File: Figures/ModelHawkes.png Graphic file (type png)
1931 1930 <use Figures/ModelHawkes.png>
1932 1931 Package pdftex.def Info: Figures/ModelHawkes.png used on input line 758.
1933 1932  
... ... @@ -1935,13 +1934,13 @@
1935 1934 Underfull \vbox (badness 2744) has occurred while \output is active []
1936 1935  
1937 1936 [97 <./Figures/ModelHawkes.png>]
1938   -<./Figures/stabilityBoxplot1.png, id=1574, 742.775pt x 520.94624pt>
  1937 +<./Figures/stabilityBoxplot1.png, id=1577, 742.775pt x 520.94624pt>
1939 1938 File: ./Figures/stabilityBoxplot1.png Graphic file (type png)
1940 1939 <use ./Figures/stabilityBoxplot1.png>
1941 1940 Package pdftex.def Info: ./Figures/stabilityBoxplot1.png used on input line 83
1942 1941 0.
1943 1942 (pdftex.def) Requested size: 427.43153pt x 299.78818pt.
1944   -<./Figures/stabilityBoxplot2.png, id=1575, 742.775pt x 520.94624pt>
  1943 +<./Figures/stabilityBoxplot2.png, id=1578, 742.775pt x 520.94624pt>
1945 1944 File: ./Figures/stabilityBoxplot2.png Graphic file (type png)
1946 1945 <use ./Figures/stabilityBoxplot2.png>
1947 1946 Package pdftex.def Info: ./Figures/stabilityBoxplot2.png used on input line 83
1948 1947  
... ... @@ -1956,12 +1955,12 @@
1956 1955  
1957 1956  
1958 1957 [99 <./Figures/stabilityBoxplot1.png> <./Figures/stabilityBoxplot2.png>]
1959   -<Figures/Var.png, id=1592, 1408.26125pt x 749.80125pt>
  1958 +<Figures/Var.png, id=1595, 1408.26125pt x 749.80125pt>
1960 1959 File: Figures/Var.png Graphic file (type png)
1961 1960 <use Figures/Var.png>
1962 1961 Package pdftex.def Info: Figures/Var.png used on input line 866.
1963 1962 (pdftex.def) Requested size: 427.43153pt x 227.57355pt.
1964   -<Figures/VarH.png, id=1593, 1408.26125pt x 749.80125pt>
  1963 +<Figures/VarH.png, id=1596, 1408.26125pt x 749.80125pt>
1965 1964 File: Figures/VarH.png Graphic file (type png)
1966 1965 <use Figures/VarH.png>
1967 1966 Package pdftex.def Info: Figures/VarH.png used on input line 872.
... ... @@ -2104,7 +2103,7 @@
2104 2103 pdfTeX warning: /Library/TeX/texbin/pdflatex (file ./spimufcphdthesis-backpage.
2105 2104 pdf): PDF inclusion: found PDF version <1.7>, but at most version <1.5> allowed
2106 2105  
2107   -<spimufcphdthesis-backpage.pdf, id=1683, 597.6729pt x 845.07718pt>
  2106 +<spimufcphdthesis-backpage.pdf, id=1686, 597.6729pt x 845.07718pt>
2108 2107 File: spimufcphdthesis-backpage.pdf Graphic file (type pdf)
2109 2108 <use spimufcphdthesis-backpage.pdf>
2110 2109 Package pdftex.def Info: spimufcphdthesis-backpage.pdf used on input line 389.
... ... @@ -2129,10 +2128,10 @@
2129 2128 (rerunfilecheck) Checksum: A06CA241E4961E00F708D1DB761D768D;24244.
2130 2129 )
2131 2130 Here is how much of TeX's memory you used:
2132   - 21557 strings out of 476038
2133   - 370027 string characters out of 5790170
2134   - 1903785 words of memory out of 5000000
2135   - 40974 multiletter control sequences out of 15000+600000
  2131 + 21559 strings out of 476038
  2132 + 370041 string characters out of 5790170
  2133 + 1904785 words of memory out of 5000000
  2134 + 40976 multiletter control sequences out of 15000+600000
2136 2135 619032 words of font info for 151 fonts, out of 8000000 for 9000
2137 2136 1141 hyphenation exceptions out of 8191
2138 2137 126i,17n,133p,1979b,732s stack positions out of 10000i,1000n,20000p,200000b,200000s
2139 2138  
... ... @@ -2163,10 +2162,10 @@
2163 2162 lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/
2164 2163 uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf
2165 2164 b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb>
2166   -Output written on main.pdf (124 pages, 5445736 bytes).
  2165 +Output written on main.pdf (124 pages, 5445697 bytes).
2167 2166 PDF statistics:
2168   - 1850 PDF objects out of 2073 (max. 8388607)
2169   - 1581 compressed objects within 16 object streams
  2167 + 1853 PDF objects out of 2073 (max. 8388607)
  2168 + 1584 compressed objects within 16 object streams
2170 2169 464 named destinations out of 1000 (max. 500000)
2171 2170 1006 words of extra memory for PDF output out of 10000 (max. 10000000)

No preview for this file type

main.synctex.gz View file @ 2497782

No preview for this file type