Commit 605eb2f6616dc1b526fa48a89412ea6dfb546ddb

Authored by dsotofor
1 parent 8b3d8d42cf
Exists in main

version correct to chapter 5 and corrections to do in chapter 6

Showing 8 changed files with 775 additions and 808 deletions Side-by-side Diff

No preview for this file type

chapters/Conclusions.tex View file @ 605eb2f
1 1 \chapter{Conclusions et Perspectives}
2 2  
3 3 \section{Conclusion générale}
  4 +
  5 +Étant donné l'importance des modules de recommandation dans le EIAH pour améliorer le système, le faire plus dynamique et aider l'apprenant dans son processus d'apprentissage et acquisition de la connaissance, il est nécessaire de trouver des stratégies et algorithmes adaptés et intégrables qui permettent de exploiter et analyser toute l'information récolté pour le système sur l'évolution de l'apprenant et ses possibles lacunes ainsi comme des algorithmes capables de proposer des alternatives de parcours dynamiques et diverses pour chaque cas en visant la réussite prédéfinie par l'apprenant et le professeur.
  6 +
  7 +C'est ainsi que les outils de IA et apprentissage automatique se trouvent au centre des possibles solutions dans cette problématique, car ils permettent de travailler avec des données structurées selon un contexte déterminé, explorer et exploiter les espaces ou sont définis ces données, analyser et extraire l'information utile pour connaître les comportements, tendances, .
  8 +
4 9 Les contributions réalisées dans ce travail ont permis d'améliorer l'environnement informatique d'apprentissage humain AI-VT, en proposant des recommandations dynamiques et plus adaptées à chaque apprenant.
5 10  
6 11 \section{Perspectives}
chapters/ESCBR.aux View file @ 605eb2f
... ... @@ -49,17 +49,17 @@
49 49 \newlabel{fig:FW}{{6.7}{60}{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }{figure.caption.29}{}}
50 50 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}\protected@file@percent }
51 51 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}\protected@file@percent }
52   -\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des bases de données évaluées. (* après codification comme \textit {String})\relax }}{61}{table.caption.30}\protected@file@percent }
53   -\newlabel{tabBases}{{6.2}{61}{Description des bases de données évaluées. (* après codification comme \textit {String})\relax }{table.caption.30}{}}
  52 +\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de données évaluées.\relax }}{61}{table.caption.30}\protected@file@percent }
  53 +\newlabel{tabBases2}{{6.2}{61}{Description des jeux de données évaluées.\relax }{table.caption.30}{}}
54 54 \@writefile{lot}{\contentsline {table}{\numberline {6.3}{\ignorespaces Liste des algorithmes évalués\relax }}{61}{table.caption.31}\protected@file@percent }
55   -\newlabel{tabAlgs}{{6.3}{61}{Liste des algorithmes évalués\relax }{table.caption.31}{}}
56   -\@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés\relax }}{61}{table.caption.32}\protected@file@percent }
57   -\newlabel{tabRes1}{{6.4}{61}{RMSE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés\relax }{table.caption.32}{}}
58   -\@writefile{lot}{\contentsline {table}{\numberline {6.5}{\ignorespaces MAE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés\relax }}{62}{table.caption.33}\protected@file@percent }
59   -\newlabel{tabRes2}{{6.5}{62}{MAE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés\relax }{table.caption.33}{}}
  55 +\newlabel{tabAlgs2}{{6.3}{61}{Liste des algorithmes évalués\relax }{table.caption.31}{}}
  56 +\@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{61}{table.caption.32}\protected@file@percent }
  57 +\newlabel{tabRes1_2}{{6.4}{61}{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.32}{}}
  58 +\@writefile{lot}{\contentsline {table}{\numberline {6.5}{\ignorespaces MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{62}{table.caption.33}\protected@file@percent }
  59 +\newlabel{tabRes2_2}{{6.5}{62}{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.33}{}}
60 60 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}\protected@file@percent }
61 61 \@writefile{lof}{\contentsline {figure}{\numberline {6.8}{\ignorespaces Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }}{63}{figure.caption.34}\protected@file@percent }
62   -\newlabel{figBox}{{6.8}{63}{Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }{figure.caption.34}{}}
  62 +\newlabel{figBox2}{{6.8}{63}{Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }{figure.caption.34}{}}
63 63 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}\protected@file@percent }
64 64 \@writefile{toc}{\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}\protected@file@percent }
65 65 \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.1}Modèle Proposé}{64}{subsection.6.3.1}\protected@file@percent }
chapters/ESCBR.tex View file @ 605eb2f
... ... @@ -109,7 +109,7 @@
109 109 \end{figure}
110 110  
111 111 La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}.
112   -Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution sont ensuite calculés selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible.
  112 +Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible.
113 113  
114 114 \begin{equation}
115 115 \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right)
116 116  
117 117  
... ... @@ -167,16 +167,13 @@
167 167 \label{eqgen7}
168 168 \end{equation}
169 169  
170   -L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre tous les paires problème-solution est calculée et permet de générer une solution par transposition.
  170 +L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition.
171 171  
172   -La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problème en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée.
  172 +La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée.
173 173  
174 174 L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$.
175 175  
176   -La marche aléatoire consiste à choisir une solution et changer ses valeurs dans une composante aléatoire avec un pas aléatoire. Le pas est une valeur aléatoire générée avec une distribution de probabilité normal de moyenne 0 et variance 1.
177   -\\
178   -\colorbox{yellow}{Je ne comprends pas ce qui est aléatoire. Le choix de la dimension ? Le pas ?}\\
179   -\colorbox{yellow}{Éviter les petits et grands, si nécessaire, donner plutôt un ordre de grandeur ou un intervalle.}
  176 +La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $\Delta$ est ajouté à sa valeur. La valeur de $\Delta$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$.
180 177  
181 178 \begin{equation}
182 179 k \sim \left(\frac{1}{nl}\right)
... ... @@ -197,7 +194,6 @@
197 194 \end{figure}
198 195  
199 196 La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième modèle d'empilement. Chaque modèle décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution.
200   -\colorbox{yellow}{J'ai ré-écrit le paragraphe ci-dessus selon ma compréhension. Est-ce exact ?}
201 197  
202 198 \subsubsection{Révision}
203 199  
... ... @@ -223,7 +219,7 @@
223 219 \label{fig:FW}
224 220 \end{figure}
225 221  
226   -Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée aléatoirement parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée.
  222 +Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée.
227 223  
228 224 \subsubsection{Mémorisation}
229 225  
... ... @@ -231,7 +227,7 @@
231 227  
232 228 \subsection{Résultats}
233 229  
234   -Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$.
  230 +Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$.
235 231 %\colorbox{yellow}{À quoi correspondent ces valeurs ? Unités ?}
236 232  
237 233 \begin{table}[!ht]
238 234  
239 235  
... ... @@ -248,14 +244,14 @@
248 244 DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
249 245 DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
250 246 DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
251   -DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\
252   -DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\
  247 +DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\
  248 +DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\
253 249 \end{tabular}
254   -\caption{Description des bases de données évaluées. (* après codification comme \textit{String})}
255   -\label{tabBases}
  250 +\caption{Description des jeux de données évaluées.}
  251 +\label{tabBases2}
256 252 \end{table}
257 253  
258   -L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}. Tous les algorithmes ont été exécutés 100 fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec 10 blocs, c'est-à-dire $k=10$. %\colorbox{yellow}{À quoi correspond ce k ? Unité ?}
  254 +L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs.
259 255  
260 256 \begin{table}[!ht]
261 257 \centering
262 258  
... ... @@ -270,10 +266,10 @@
270 266 A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\
271 267 \end{tabular}
272 268 \caption{Liste des algorithmes évalués}
273   -\label{tabAlgs}
  269 +\label{tabAlgs2}
274 270 \end{table}
275 271  
276   -Le tableau \ref{tabRes1} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données.
  272 +Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données.
277 273  
278 274 \begin{table}[!ht]
279 275 \footnotesize
... ... @@ -294,8 +290,8 @@
294 290 \hline
295 291 Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\
296 292 \end{tabular}
297   -\caption{RMSE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés}
298   -\label{tabRes1}
  293 +\caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés}
  294 +\label{tabRes1_2}
299 295 \end{table}
300 296  
301 297 \begin{table}[!ht]
302 298  
303 299  
... ... @@ -317,18 +313,16 @@
317 313 \hline
318 314 Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\
319 315 \end{tabular}
320   -\caption{MAE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés}
321   -\label{tabRes2}
  316 +\caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés}
  317 +\label{tabRes2_2}
322 318 \end{table}
323 319  
324   -La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox}. Nous pouvons voir que l'algorithme proposé génère plus de valeurs aberrantes que les autres algorithmes, parce que les algorithmes exécutés peuvent avoir tendance à privilégier l'exploration de l'espace des solutions en cherchant à générer des solutions novatrices
325   -%\textcolor{red}{pourquoi?}
326   -, mais la variance est faible et la convergence est proche de la valeur réelle, meilleure que la plupart des algorithmes comparés.
  320 +La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés.
327 321  
328 322 \begin{figure}
329 323 \includegraphics[width=\textwidth]{./Figures/boxplot.png}
330 324 \caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives}
331   -\label{figBox}
  325 +\label{figBox2}
332 326 \end{figure}
333 327  
334 328 \subsection{Discussion}
335 329  
336 330  
337 331  
... ... @@ -337,18 +331,15 @@
337 331  
338 332 On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire).
339 333  
340   -Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (Random forest et Gradient Boosting) %\colorbox{yellow}{rappeler ici entre parenthèses les noms de ces algorithmes de boosting}
341   -sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place.
  334 +Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place.
342 335  
343   -Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. Les tests ont été effectués avec la fonction intuitive qui fournit une plus grande probabilité de sélection et d'évolution à la solution associée aux voisins les plus proches, mais il est possible de compléter l'évaluation avec d'autres termes pertinents et d'améliorer ainsi les résultats.\textcolor{red}{je ne comprends pas} \colorbox{yellow}{Idem}
  336 +Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique.
344 337  
345   -De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certaines problèmes dans chaque pile
346   -%\textcolor{red}{sûr?}
347   -et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables \colorbox{yellow}{C'est bien ça ?} \textcolor{red}{variance faible =?}.
  338 +De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certaines problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables.
348 339  
349 340 \subsection{Conclusion}
350 341  
351   -Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et le modèle d'empilement que nous avons baptisé ESCBR. Ce modèle ne nécessite pas d'entrainement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR avec d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\
  342 +Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et le modèle d'empilement que nous avons baptisé ESCBR. Ce modèle ne nécessite pas d'entrainement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\
352 343  
353 344 \section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}
354 345  
chapters/ESCBR0.tex View file @ 605eb2f
... ... @@ -8,15 +8,15 @@
8 8  
9 9 Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche.
10 10  
11   -Le système de raisonnement à partir de cas ne nécessite pas d'entrainement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée, la fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus, la définition formelle se trouve dans la section 6.2.1.3.
  11 +Le système de raisonnement à partir de cas ne nécessite pas d'entrainement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3.
12 12 %\colorbox{yellow}{Il faut expliquer en quelques mots ce que fait cette fonction objectif}\\
13   -Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus avec la métrique RMSE, ce nouvel algorithme se classe parmi les six meilleurs. Avec la métrique MAE il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement saitsfaisants.
  13 +Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement saitsfaisants.
14 14  
15 15 Les méthodes d'ensemble permettent de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs modèles exécutés indépendamment. Certaines de ces méthodes utilisent des modèles différents et des ensembles de données différents tandis que d'autres utilisent les mêmes modèles avec des paramètres différents. La combinaison des résultats provenant de multiples modèles peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette méthode d'ensemble en la combinant à des outils d'apprentissage automatique.
16 16  
17   -Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des modèles linéaires et non linéaires complexes. Mais s'il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} et le \textit{Bagging} \cite{Liang}. Le \textit{Stacking} est un type de méta-modèle d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses techniques d'apprentissage automatique pour surmonter les limites des modèles individuels. Plusieurs études démontrent que l'association de ces techniques permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement de modèles ou d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}.
  17 +Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des modèles linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est un type de méta-modèle d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses techniques d'apprentissage automatique pour surmonter les limites des modèles individuels. Plusieurs études démontrent que l'association de ces techniques permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement de modèles ou d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}.
18 18  
19   -La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}.
  19 +La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}.
20 20  
21 21 Le raisonnement Bayésien clos ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}.
22 22  
... ... @@ -99,7 +99,7 @@
99 99 \label{figSolRep}
100 100 \end{figure}
101 101  
102   -Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, ACP (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération.
  102 +Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération.
103 103  
104 104 \begin{figure}[!ht]
105 105 \centering
... ... @@ -108,7 +108,8 @@
108 108 \label{figAuto}
109 109 \end{figure}
110 110  
111   -La moyenne pondérée avec probabilité permet de construire une solution en utilisant comme valeurs de pondération pour chaque solution connue les distances normalisées entre le cas cible et les $nl$ cas plus proches comme indique l'équation \ref{gen00}, ainsi la solution globale est construite à partir des solutions proposées par les $nl$ algorithmes selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions associées aux cas les plus proches du cas cible pour construire une réponse plus appropriée d'accord avec l'information historique de la base de données.
  111 +La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}.
  112 +Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution sont ensuite calculés selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible.
112 113  
113 114 \begin{equation}
114 115 \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right)
115 116  
... ... @@ -120,17 +121,14 @@
120 121 \label{gen01}
121 122 \end{equation}
122 123  
123   -La moyenne sans probabilité génère la nouvelle solution en donnant la valeur de chaque dimension
124   -%\colorbox{yellow}{copie ?}
125   -selon la moyenne calculée avec la distribution de probabilité uniforme, en attribuant la même probabilité à toutes les dimensions de toutes les solutions associées aux cas les plus proches du cas cible. Formellement la génération de la solution est calculée selon l'équation \ref{gen2}, où chaque dimension $j$ de la nouvelle solution est calculée de façon similaire.
  124 +La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}.
126 125  
127 126 \begin{equation}
128 127 s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl} s_{i,j}
129 128 \label{gen2}
130 129 \end{equation}
131 130  
132   -La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque j-ème dimension. $X_j$ représente l'ensemble des valeurs ordonnées de toutes les solutions $S$ dans la dimension $j$.
133   -%\colorbox{yellow}{position ?}.
  131 +La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$.
134 132  
135 133 \begin{equation}
136 134 s_{j,w}^m=
137 135  
... ... @@ -141,16 +139,14 @@
141 139 \label{eqgen3}
142 140 \end{equation}
143 141  
144   -La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant aléatoirement l'information des solutions dans chaque j-ème dimension. la solution pour copier l'information dans une dimension $j$ est choisie aléatoirement selon l'inverse normalisé de la distance du cas associé au cas cible.
145   -%\colorbox{yellow}{Il est difficile à comprendre à quel moment intervient l'aléatoire dans ce processus}\\
146   -%\colorbox{yellow}{À ce stade, les équations ne sont plus citées.}
  142 +La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité.
147 143  
148 144 \begin{equation}
149 145 s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right)
150 146 \label{eqgen4}
151 147 \end{equation}
152 148  
153   -"Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement comme le montre formellement l'équation \ref{eqgen5}.
  149 +"Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}.
154 150  
155 151 \begin{equation}
156 152 s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right)
157 153  
158 154  
159 155  
160 156  
... ... @@ -164,50 +160,20 @@
164 160 \label{eqgen6}
165 161 \end{equation}
166 162  
167   -L'interpolation construit une distribution de probabilité continue pour chaque j-ème dimension, en utilisant une fonction d'interpolation linéaire 1D calculée selon l'information des solution connues dans la j-ème dimension correspondant comme est décrit dans de l'équation \ref{eqgen7}.
168   -%\\ \colorbox{yellow}{Pourquoi aléatoire ? Une interpolation ne rend pas un résultat aléatoire}
  163 +L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}.
169 164  
170 165 \begin{equation}
171 166 s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl
172 167 \label{eqgen7}
173 168 \end{equation}
174 169  
175   -Dans l'analyse en composantes principales (PCA), si la dimension de l'espace des solutions $m$ est plus petit que la dimension de l'espace des problèmes $n$, c'est-à-dire $m<n$, alors la description du problème est transposée dans l'espace de description des solutions pour établir une relation entre le problème et sa solution. Le problème et la solution étant ainsi dans le même espace, la moyenne de la distance entre tous les paires problème-solution est calculée. En utilisant la description transposée du nouveau problème et la valeur moyenne de distance précédemment calculée, une solution est générée. %\textcolor{red}{à vérifier} \colorbox{yellow}{Idem, je n'ai pas compris la fin de la dernière phrase.}
  170 +L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre tous les paires problème-solution est calculée et permet de générer une solution par transposition.
176 171  
177   -Pour le calcul de l'analyse en composantes principales est nécessaire calculer la moyenne centrée comme dans l'équation \ref{eqmoyenne1}, après, est calculée la matrice de covariance (équation \ref{covmat}).
  172 +La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problème en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée.
178 173  
179   -\colorbox{yellow}{À quoi correspond le processus ci-dessous ?}
  174 +L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$.
180 175  
181   -\begin{equation}
182   -X_c=X-\frac{1}{N} \sum_{i=1}^N X_i
183   -\label{eqmoyenne1}
184   -\end{equation}
185   -
186   -\begin{equation}
187   -C_x=\frac{1}{n-1}XX^T=\frac{1}{n-1} \left(
188   -\begin{matrix}
189   -x_1x_1^T&x_1x_2^T&...&x_1x_m^T\\
190   -x_2x_1^T&x_2x_2^T&...&x_2x_m^T\\
191   -\vdots&\vdots&\ddots&\vdots\\
192   -x_mx_1^T&x_mx_2^T&...&x_mx_m^T\\
193   -\end{matrix}
194   -\right) \in \mathbb{R}^{mxm}
195   -\label{covmat}
196   -\end{equation}
197   -
198   -\begin{equation}
199   -C_x v = \lambda v
200   -\end{equation}
201   -
202   -Choisir les $k$ premier composantes principales
203   -$W_k=\{v_1, v_2,...v_k\}$, faire la projection des $k$ composantes $Z=XW_k$, pour finalement calculer les distances entre les problèmes transposés et les solutions associées $d_j^m=distance(Z_j,s_j)$ et les utiliser pour calculer la nouvelle solution comme spécifié dans l'équation \ref{eqPCA}.
204   -
205   -\begin{equation}
206   - s_{w,j}^m=Z_{w,j}^m+\frac{1}{m}\sum_{i=1}^m d_{i,j}
207   - \label{eqPCA}
208   -\end{equation}
209   -
210   -La marche aléatoire consiste à choisir une solution et changer ses valeurs dans une dimension aléatoire avec un pas aléatoire. Le pas est une valeur aléatoire générée avec une distribution de probabilité normal de moyenne 0 et variance 1.
  176 +La marche aléatoire consiste à choisir une solution et changer ses valeurs dans une composante aléatoire avec un pas aléatoire. Le pas est une valeur aléatoire générée avec une distribution de probabilité normal de moyenne 0 et variance 1.
211 177 \\
212 178 \colorbox{yellow}{Je ne comprends pas ce qui est aléatoire. Le choix de la dimension ? Le pas ?}\\
213 179 \colorbox{yellow}{Éviter les petits et grands, si nécessaire, donner plutôt un ordre de grandeur ou un intervalle.}
... ... @@ -265,7 +231,7 @@
265 231  
266 232 \subsection{Résultats}
267 233  
268   -Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$.
  234 +Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$.
269 235 %\colorbox{yellow}{À quoi correspondent ces valeurs ? Unités ?}
270 236  
271 237 \begin{table}[!ht]
272 238  
... ... @@ -286,10 +252,10 @@
286 252 DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\
287 253 \end{tabular}
288 254 \caption{Description des bases de données évaluées. (* après codification comme \textit{String})}
289   -\label{tabBases}
  255 +\label{tabBases2}
290 256 \end{table}
291 257  
292   -L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}. Tous les algorithmes ont été exécutés 100 fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec 10 blocs, c'est-à-dire $k=10$. %\colorbox{yellow}{À quoi correspond ce k ? Unité ?}
  258 +L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés 100 fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec 10 blocs, c'est-à-dire $k=10$. %\colorbox{yellow}{À quoi correspond ce k ? Unité ?}
293 259  
294 260 \begin{table}[!ht]
295 261 \centering
... ... @@ -378,8 +344,7 @@
378 344  
379 345 De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certaines problèmes dans chaque pile
380 346 %\textcolor{red}{sûr?}
381   -et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables, une variance faible peut suggérer que l'algorithme tend à converger vers les solutions
382   - %\colorbox{yellow}{C'est bien ça ?} \textcolor{red}{variance faible =?}.
  347 +et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables \colorbox{yellow}{C'est bien ça ?} \textcolor{red}{variance faible =?}.
383 348  
384 349 \subsection{Conclusion}
385 350  
... ... @@ -696,7 +661,8 @@
696 661  
697 662 Les tableaux \ref{tabRes1} et \ref{tabRes2} présentent respectivement les RMSE et les MAE obtenues pour chaque jeu de données et chaque algorithme testé.
698 663  
699   -La figure \ref{figBox} représente graphiquement la dispersion globale, la médiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA génère parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est très faible. De plus, la convergence est proche de la valeur réelle et même meilleure que celle de la plupart des autres algorithmes testés. Il est également possible de remarquer que les valeurs aberrantes sont plus élevées que les valeurs réelles.\textcolor{red}{plus élevées??, pourquoi?}
  664 +La figure \ref{figBox} représente graphiquement la dispersion globale, la médiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA génère parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est très faible. De plus, la convergence est proche de la valeur réelle et même meilleure que celle de la plupart des autres algorithmes testés. Il est également possible de remarquer que les valeurs aberrantes sont plus élevées que les valeurs réelles, peut être parce que les algorithmes utilisés explorent l'espace de recherche alors ces valeurs sont produit d'une variabilité naturelle des algorithmes dans l'espace des solutions, qui peuvent donner de la 'créativité' au moment de générer de nouvelles solutions.
  665 +%\textcolor{red}{plus élevées??, pourquoi?}
700 666  
701 667 \begin{figure}[!ht]
702 668 \includegraphics[width=\textwidth]{Figures/boxplot2.png}
1   -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 23 JUN 2025 19:59
  1 +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 27 JUN 2025 14:17
2 2 entering extended mode
3 3 restricted \write18 enabled.
4 4 %&-line parsing enabled.
5 5  
6 6  
7 7  
8 8  
9 9  
10 10  
11 11  
12 12  
13 13  
14 14  
... ... @@ -1658,60 +1658,58 @@
1658 1658 Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 106.
1659 1659 (pdftex.def) Requested size: 427.43153pt x 340.20406pt.
1660 1660 [56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic
1661   -S.png>]
1662   -Overfull \hbox (26.8546pt too wide) in paragraph at lines 176--180
1663   -[][][][][][]
1664   - []
1665   -
1666   -[58]
  1661 +S.png>] [58]
1667 1662 <./Figures/Stacking2.png, id=1127, 743.77875pt x 414.54875pt>
1668 1663 File: ./Figures/Stacking2.png Graphic file (type png)
1669 1664 <use ./Figures/Stacking2.png>
1670   -Package pdftex.def Info: ./Figures/Stacking2.png used on input line 194.
  1665 +Package pdftex.def Info: ./Figures/Stacking2.png used on input line 191.
1671 1666 (pdftex.def) Requested size: 427.43153pt x 238.23717pt.
1672 1667  
1673   -Underfull \hbox (badness 1168) in paragraph at lines 199--201
1674   -\T1/phv/m/n/10.95 mo-dèle d'em-pi-le-ment. Chaque mo-dèle dé-crit ci-dessus gé-
1675   -nère une so-lu-tion can-
1676   - []
  1668 +Underfull \hbox (badness 10000) in paragraph at lines 202--204
1677 1669  
1678   -
1679   -Underfull \hbox (badness 1776) in paragraph at lines 199--201
1680   -\T1/phv/m/n/10.95 di-date $\OML/txmi/m/it/10.95 s[] \OT1/txr/m/n/10.95 = \OML/t
1681   -xmi/m/it/10.95 MS[]\OT1/txr/m/n/10.95 ((\OML/txmi/m/it/10.95 s[]\OT1/txr/m/n/10
1682   -.95 )[])$\T1/phv/m/n/10.95 . Vient en-suite la construc-tion de l'en-semble d'u
1683   -ni-fi-ca-
1684 1670 []
1685 1671  
1686   -
1687   -Underfull \hbox (badness 10000) in paragraph at lines 206--208
1688   -
1689   - []
1690   -
1691 1672 [59 <./Figures/Stacking2.png>]
1692 1673 <Figures/FW.png, id=1142, 456.70625pt x 342.27875pt>
1693 1674 File: Figures/FW.png Graphic file (type png)
1694 1675 <use Figures/FW.png>
1695   -Package pdftex.def Info: Figures/FW.png used on input line 221.
  1676 +Package pdftex.def Info: Figures/FW.png used on input line 217.
1696 1677 (pdftex.def) Requested size: 427.43153pt x 320.34758pt.
1697   - [60 <./Figures/FW.png>] [61]
1698   -<./Figures/boxplot.png, id=1165, 1994.45125pt x 959.585pt>
  1678 +
  1679 +
  1680 +LaTeX Warning: Reference `tabBases2' on page 60 undefined on input line 230.
  1681 +
  1682 +[60 <./Figures/FW.png>]
  1683 +
  1684 +LaTeX Warning: Reference `tabAlgs2' on page 61 undefined on input line 254.
  1685 +
  1686 +
  1687 +LaTeX Warning: Reference `tabRes1_2' on page 61 undefined on input line 272.
  1688 +
  1689 +
  1690 +LaTeX Warning: Reference `tabRes2_2' on page 61 undefined on input line 272.
  1691 +
  1692 +
  1693 +LaTeX Warning: Reference `figBox2' on page 61 undefined on input line 320.
  1694 +
  1695 +[61]
  1696 +<./Figures/boxplot.png, id=1156, 1994.45125pt x 959.585pt>
1699 1697 File: ./Figures/boxplot.png Graphic file (type png)
1700 1698 <use ./Figures/boxplot.png>
1701   -Package pdftex.def Info: ./Figures/boxplot.png used on input line 329.
  1699 +Package pdftex.def Info: ./Figures/boxplot.png used on input line 323.
1702 1700 (pdftex.def) Requested size: 427.43153pt x 205.64786pt.
1703 1701 [62]
1704   -Underfull \hbox (badness 10000) in paragraph at lines 351--352
  1702 +Underfull \hbox (badness 10000) in paragraph at lines 342--343
1705 1703  
1706 1704 []
1707 1705  
1708 1706  
1709   -Underfull \hbox (badness 10000) in paragraph at lines 351--352
  1707 +Underfull \hbox (badness 10000) in paragraph at lines 342--343
1710 1708  
1711 1709 []
1712 1710  
1713 1711  
1714   -Underfull \hbox (badness 2564) in paragraph at lines 353--353
  1712 +Underfull \hbox (badness 2564) in paragraph at lines 344--344
1715 1713 [][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tèmes multi-
1716 1714 []
1717 1715  
1718 1716  
1719 1717  
1720 1718  
1721 1719  
1722 1720  
... ... @@ -1722,24 +1720,27 @@
1722 1720 []
1723 1721  
1724 1722 [63 <./Figures/boxplot.png>]
1725   -<Figures/NCBR.png, id=1180, 653.44125pt x 445.665pt>
  1723 +<Figures/NCBR.png, id=1170, 653.44125pt x 445.665pt>
1726 1724 File: Figures/NCBR.png Graphic file (type png)
1727 1725 <use Figures/NCBR.png>
1728   -Package pdftex.def Info: Figures/NCBR.png used on input line 363.
  1726 +Package pdftex.def Info: Figures/NCBR.png used on input line 354.
1729 1727 (pdftex.def) Requested size: 427.43153pt x 291.5149pt.
1730 1728 [64 <./Figures/NCBR.png>]
1731   -<Figures/FlowCBR.png, id=1189, 450.68375pt x 822.07124pt>
  1729 +<Figures/FlowCBR.png, id=1179, 450.68375pt x 822.07124pt>
1732 1730 File: Figures/FlowCBR.png Graphic file (type png)
1733 1731 <use Figures/FlowCBR.png>
1734   -Package pdftex.def Info: Figures/FlowCBR.png used on input line 392.
  1732 +Package pdftex.def Info: Figures/FlowCBR.png used on input line 383.
1735 1733 (pdftex.def) Requested size: 270.41232pt x 493.24655pt.
1736 1734  
1737   -Underfull \hbox (badness 1107) in paragraph at lines 435--436
  1735 +Underfull \hbox (badness 1107) in paragraph at lines 426--427
1738 1736 []\T1/phv/m/n/10.95 Cette sec-tion pré-sente de ma-nière plus dé-taillée les co
1739 1737 m-por-te-ments des agents
1740 1738 []
1741 1739  
1742 1740  
  1741 +Underfull \vbox (badness 10000) has occurred while \output is active []
  1742 +
  1743 +
1743 1744 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
1744 1745 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
1745 1746 S ESCBR \T1/phv/m/n/10.95 65
1746 1747  
... ... @@ -1749,10 +1750,10 @@
1749 1750 Underfull \vbox (badness 2111) has occurred while \output is active []
1750 1751  
1751 1752 [66 <./Figures/FlowCBR.png>]
1752   -<Figures/agent.png, id=1204, 352.31625pt x 402.50375pt>
  1753 +<Figures/agent.png, id=1194, 352.31625pt x 402.50375pt>
1753 1754 File: Figures/agent.png Graphic file (type png)
1754 1755 <use Figures/agent.png>
1755   -Package pdftex.def Info: Figures/agent.png used on input line 476.
  1756 +Package pdftex.def Info: Figures/agent.png used on input line 467.
1756 1757 (pdftex.def) Requested size: 246.61969pt x 281.7507pt.
1757 1758  
1758 1759 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
1759 1760  
... ... @@ -1761,10 +1762,10 @@
1761 1762 []
1762 1763  
1763 1764 [67]
1764   -<Figures/BayesianEvolution.png, id=1214, 626.34pt x 402.50375pt>
  1765 +<Figures/BayesianEvolution.png, id=1204, 626.34pt x 402.50375pt>
1765 1766 File: Figures/BayesianEvolution.png Graphic file (type png)
1766 1767 <use Figures/BayesianEvolution.png>
1767   -Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 489.
  1768 +Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 480.
1768 1769  
1769 1770 (pdftex.def) Requested size: 313.16922pt x 201.25137pt.
1770 1771 [68 <./Figures/agent.png>]
1771 1772  
1772 1773  
1773 1774  
... ... @@ -1774,20 +1775,20 @@
1774 1775 []
1775 1776  
1776 1777 [69 <./Figures/BayesianEvolution.png>]
1777   -Underfull \hbox (badness 10000) in paragraph at lines 534--534
  1778 +Underfull \hbox (badness 10000) in paragraph at lines 525--525
1778 1779 []|\T1/phv/m/n/8 Input.
1779 1780 []
1780 1781  
1781 1782  
1782   -Underfull \hbox (badness 10000) in paragraph at lines 534--535
  1783 +Underfull \hbox (badness 10000) in paragraph at lines 525--526
1783 1784 []|\T1/phv/m/n/8 Output
1784 1785 []
1785 1786  
1786 1787 [70]
1787   -<Figures/boxplot2.png, id=1241, 1615.03375pt x 835.12pt>
  1788 +<Figures/boxplot2.png, id=1235, 1615.03375pt x 835.12pt>
1788 1789 File: Figures/boxplot2.png Graphic file (type png)
1789 1790 <use Figures/boxplot2.png>
1790   -Package pdftex.def Info: Figures/boxplot2.png used on input line 667.
  1791 +Package pdftex.def Info: Figures/boxplot2.png used on input line 658.
1791 1792 (pdftex.def) Requested size: 427.43153pt x 221.01265pt.
1792 1793 )
1793 1794 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
1794 1795  
1795 1796  
1796 1797  
... ... @@ -1827,23 +1828,23 @@
1827 1828 Package hyperref Info: bookmark level for unknown algorithm defaults to 0 on in
1828 1829 put line 131.
1829 1830 [76]
1830   -<./Figures/dataset.png, id=1302, 15.13687pt x 8.08058pt>
  1831 +<./Figures/dataset.png, id=1296, 15.13687pt x 8.08058pt>
1831 1832 File: ./Figures/dataset.png Graphic file (type png)
1832 1833 <use ./Figures/dataset.png>
1833 1834 Package pdftex.def Info: ./Figures/dataset.png used on input line 152.
1834 1835 (pdftex.def) Requested size: 427.43153pt x 228.35583pt.
1835 1836 [77 <./Figures/dataset.png>]
1836   -<./Figures/comp2.png, id=1314, 14.98512pt x 7.33133pt>
  1837 +<./Figures/comp2.png, id=1308, 14.98512pt x 7.33133pt>
1837 1838 File: ./Figures/comp2.png Graphic file (type png)
1838 1839 <use ./Figures/comp2.png>
1839 1840 Package pdftex.def Info: ./Figures/comp2.png used on input line 186.
1840 1841 (pdftex.def) Requested size: 427.43153pt x 209.34462pt.
1841   -<./Figures/comp3.png, id=1316, 14.98512pt x 7.33133pt>
  1842 +<./Figures/comp3.png, id=1310, 14.98512pt x 7.33133pt>
1842 1843 File: ./Figures/comp3.png Graphic file (type png)
1843 1844 <use ./Figures/comp3.png>
1844 1845 Package pdftex.def Info: ./Figures/comp3.png used on input line 194.
1845 1846 (pdftex.def) Requested size: 427.43153pt x 209.34462pt.
1846   -<./Figures/comp4.png, id=1318, 14.9377pt x 7.31236pt>
  1847 +<./Figures/comp4.png, id=1312, 14.9377pt x 7.31236pt>
1847 1848 File: ./Figures/comp4.png Graphic file (type png)
1848 1849 <use ./Figures/comp4.png>
1849 1850 Package pdftex.def Info: ./Figures/comp4.png used on input line 202.
... ... @@ -1854,7 +1855,7 @@
1854 1855 []
1855 1856  
1856 1857 [79 <./Figures/comp3.png>]
1857   -<./Figures/metric.png, id=1341, 16.95784pt x 7.68225pt>
  1858 +<./Figures/metric.png, id=1335, 16.95784pt x 7.68225pt>
1858 1859 File: ./Figures/metric.png Graphic file (type png)
1859 1860 <use ./Figures/metric.png>
1860 1861 Package pdftex.def Info: ./Figures/metric.png used on input line 243.
... ... @@ -1864,7 +1865,7 @@
1864 1865  
1865 1866 []
1866 1867  
1867   -<./Figures/metric2.png, id=1354, 16.48363pt x 7.66327pt>
  1868 +<./Figures/metric2.png, id=1348, 16.48363pt x 7.66327pt>
1868 1869 File: ./Figures/metric2.png Graphic file (type png)
1869 1870 <use ./Figures/metric2.png>
1870 1871 Package pdftex.def Info: ./Figures/metric2.png used on input line 302.
... ... @@ -1884,7 +1885,7 @@
1884 1885  
1885 1886 [83]
1886 1887 [84] [85] [86]
1887   -<Figures/Model.png, id=1444, 367.3725pt x 302.12875pt>
  1888 +<Figures/Model.png, id=1438, 367.3725pt x 302.12875pt>
1888 1889 File: Figures/Model.png Graphic file (type png)
1889 1890 <use Figures/Model.png>
1890 1891 Package pdftex.def Info: Figures/Model.png used on input line 502.
1891 1892  
1892 1893  
... ... @@ -1895,18 +1896,18 @@
1895 1896 []
1896 1897  
1897 1898 [90]
1898   -<Figures/kEvol_TS.jpg, id=1493, 742.775pt x 557.08125pt>
  1899 +<Figures/kEvol_TS.jpg, id=1488, 742.775pt x 557.08125pt>
1899 1900 File: Figures/kEvol_TS.jpg Graphic file (type jpg)
1900 1901 <use Figures/kEvol_TS.jpg>
1901 1902 Package pdftex.def Info: Figures/kEvol_TS.jpg used on input line 675.
1902 1903 (pdftex.def) Requested size: 427.43153pt x 320.58275pt.
1903   -<Figures/GradesEv.jpg, id=1497, 740.7675pt x 557.08125pt>
  1904 +<Figures/GradesEv.jpg, id=1492, 740.7675pt x 557.08125pt>
1904 1905 File: Figures/GradesEv.jpg Graphic file (type jpg)
1905 1906 <use Figures/GradesEv.jpg>
1906 1907 Package pdftex.def Info: Figures/GradesEv.jpg used on input line 688.
1907 1908 (pdftex.def) Requested size: 427.43153pt x 321.44128pt.
1908 1909 [91]
1909   -<Figures/LevelsEv.jpg, id=1510, 742.775pt x 557.08125pt>
  1910 +<Figures/LevelsEv.jpg, id=1505, 742.775pt x 557.08125pt>
1910 1911 File: Figures/LevelsEv.jpg Graphic file (type jpg)
1911 1912 <use Figures/LevelsEv.jpg>
1912 1913 Package pdftex.def Info: Figures/LevelsEv.jpg used on input line 697.
... ... @@ -1925,7 +1926,7 @@
1925 1926 Underfull \vbox (badness 10000) has occurred while \output is active []
1926 1927  
1927 1928 [94 <./Figures/LevelsEv.jpg>]
1928   -<Figures/ModelHawkes.png, id=1530, 397.485pt x 382.42876pt>
  1929 +<Figures/ModelHawkes.png, id=1525, 397.485pt x 382.42876pt>
1929 1930 File: Figures/ModelHawkes.png Graphic file (type png)
1930 1931 <use Figures/ModelHawkes.png>
1931 1932 Package pdftex.def Info: Figures/ModelHawkes.png used on input line 756.
1932 1933  
... ... @@ -1937,13 +1938,13 @@
1937 1938 []
1938 1939  
1939 1940 [95 <./Figures/ModelHawkes.png>] [96]
1940   -<./Figures/stabilityBoxplot1.png, id=1557, 742.775pt x 520.94624pt>
  1941 +<./Figures/stabilityBoxplot1.png, id=1552, 742.775pt x 520.94624pt>
1941 1942 File: ./Figures/stabilityBoxplot1.png Graphic file (type png)
1942 1943 <use ./Figures/stabilityBoxplot1.png>
1943 1944 Package pdftex.def Info: ./Figures/stabilityBoxplot1.png used on input line 84
1944 1945 5.
1945 1946 (pdftex.def) Requested size: 427.43153pt x 299.78818pt.
1946   -<./Figures/stabilityBoxplot2.png, id=1558, 742.775pt x 520.94624pt>
  1947 +<./Figures/stabilityBoxplot2.png, id=1553, 742.775pt x 520.94624pt>
1947 1948 File: ./Figures/stabilityBoxplot2.png Graphic file (type png)
1948 1949 <use ./Figures/stabilityBoxplot2.png>
1949 1950 Package pdftex.def Info: ./Figures/stabilityBoxplot2.png used on input line 84
1950 1951  
... ... @@ -1958,12 +1959,12 @@
1958 1959  
1959 1960  
1960 1961 [98 <./Figures/stabilityBoxplot1.png> <./Figures/stabilityBoxplot2.png>]
1961   -<Figures/Var.png, id=1578, 1408.26125pt x 749.80125pt>
  1962 +<Figures/Var.png, id=1573, 1408.26125pt x 749.80125pt>
1962 1963 File: Figures/Var.png Graphic file (type png)
1963 1964 <use Figures/Var.png>
1964 1965 Package pdftex.def Info: Figures/Var.png used on input line 882.
1965 1966 (pdftex.def) Requested size: 427.43153pt x 227.57355pt.
1966   -<Figures/VarH.png, id=1579, 1408.26125pt x 749.80125pt>
  1967 +<Figures/VarH.png, id=1574, 1408.26125pt x 749.80125pt>
1967 1968 File: Figures/VarH.png Graphic file (type png)
1968 1969 <use Figures/VarH.png>
1969 1970 Package pdftex.def Info: Figures/VarH.png used on input line 888.
1970 1971  
1971 1972  
1972 1973  
... ... @@ -1974,12 +1975,16 @@
1974 1975  
1975 1976 (./chapters/Conclusions.tex
1976 1977 Chapitre 8.
1977   -[101
1978 1978  
  1979 +Underfull \vbox (badness 1147) has occurred while \output is active []
1979 1980  
  1981 + [101
1980 1982  
1981 1983  
1982   -]) [102]
  1984 +
  1985 +
  1986 +])
  1987 +[102]
1983 1988 \openout2 = `./chapters/Publications.aux'.
1984 1989  
1985 1990 (./chapters/Publications.tex
... ... @@ -2074,7 +2079,7 @@
2074 2079 ) [111
2075 2080  
2076 2081 ]
2077   -<spimufcphdthesis-backpage.pdf, id=1646, 597.432pt x 844.83629pt>
  2082 +<spimufcphdthesis-backpage.pdf, id=1641, 597.432pt x 844.83629pt>
2078 2083 File: spimufcphdthesis-backpage.pdf Graphic file (type pdf)
2079 2084 <use spimufcphdthesis-backpage.pdf>
2080 2085 Package pdftex.def Info: spimufcphdthesis-backpage.pdf used on input line 392.
2081 2086  
... ... @@ -2096,10 +2101,10 @@
2096 2101 (rerunfilecheck) Checksum: DABF564812292D7B0491E94798B578EA;23881.
2097 2102 )
2098 2103 Here is how much of TeX's memory you used:
2099   - 21513 strings out of 476038
2100   - 369108 string characters out of 5790170
  2104 + 21518 strings out of 476038
  2105 + 369160 string characters out of 5790170
2101 2106 1902785 words of memory out of 5000000
2102   - 40941 multiletter control sequences out of 15000+600000
  2107 + 40946 multiletter control sequences out of 15000+600000
2103 2108 619032 words of font info for 151 fonts, out of 8000000 for 9000
2104 2109 1141 hyphenation exceptions out of 8191
2105 2110 126i,17n,133p,1979b,754s stack positions out of 10000i,1000n,20000p,200000b,200000s
2106 2111  
... ... @@ -2130,10 +2135,10 @@
2130 2135 lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/
2131 2136 uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf
2132 2137 b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb>
2133   -Output written on main.pdf (120 pages, 7822201 bytes).
  2138 +Output written on main.pdf (120 pages, 7822282 bytes).
2134 2139 PDF statistics:
2135   - 1815 PDF objects out of 2073 (max. 8388607)
2136   - 1551 compressed objects within 16 object streams
  2140 + 1810 PDF objects out of 2073 (max. 8388607)
  2141 + 1546 compressed objects within 16 object streams
2137 2142 456 named destinations out of 1000 (max. 500000)
2138 2143 983 words of extra memory for PDF output out of 10000 (max. 10000000)

No preview for this file type

main.synctex.gz View file @ 605eb2f

No preview for this file type