Commit 605eb2f6616dc1b526fa48a89412ea6dfb546ddb
1 parent
8b3d8d42cf
Exists in
main
version correct to chapter 5 and corrections to do in chapter 6
Showing 8 changed files with 775 additions and 808 deletions Side-by-side Diff
.DS_Store
View file @
605eb2f
chapters/Conclusions.tex
View file @
605eb2f
1 | 1 | \chapter{Conclusions et Perspectives} |
2 | 2 | |
3 | 3 | \section{Conclusion générale} |
4 | + | |
5 | +Étant donné l'importance des modules de recommandation dans le EIAH pour améliorer le système, le faire plus dynamique et aider l'apprenant dans son processus d'apprentissage et acquisition de la connaissance, il est nécessaire de trouver des stratégies et algorithmes adaptés et intégrables qui permettent de exploiter et analyser toute l'information récolté pour le système sur l'évolution de l'apprenant et ses possibles lacunes ainsi comme des algorithmes capables de proposer des alternatives de parcours dynamiques et diverses pour chaque cas en visant la réussite prédéfinie par l'apprenant et le professeur. | |
6 | + | |
7 | +C'est ainsi que les outils de IA et apprentissage automatique se trouvent au centre des possibles solutions dans cette problématique, car ils permettent de travailler avec des données structurées selon un contexte déterminé, explorer et exploiter les espaces ou sont définis ces données, analyser et extraire l'information utile pour connaître les comportements, tendances, . | |
8 | + | |
4 | 9 | Les contributions réalisées dans ce travail ont permis d'améliorer l'environnement informatique d'apprentissage humain AI-VT, en proposant des recommandations dynamiques et plus adaptées à chaque apprenant. |
5 | 10 | |
6 | 11 | \section{Perspectives} |
chapters/ESCBR.aux
View file @
605eb2f
... | ... | @@ -49,17 +49,17 @@ |
49 | 49 | \newlabel{fig:FW}{{6.7}{60}{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }{figure.caption.29}{}} |
50 | 50 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}\protected@file@percent } |
51 | 51 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}\protected@file@percent } |
52 | -\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des bases de données évaluées. (* après codification comme \textit {String})\relax }}{61}{table.caption.30}\protected@file@percent } | |
53 | -\newlabel{tabBases}{{6.2}{61}{Description des bases de données évaluées. (* après codification comme \textit {String})\relax }{table.caption.30}{}} | |
52 | +\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de données évaluées.\relax }}{61}{table.caption.30}\protected@file@percent } | |
53 | +\newlabel{tabBases2}{{6.2}{61}{Description des jeux de données évaluées.\relax }{table.caption.30}{}} | |
54 | 54 | \@writefile{lot}{\contentsline {table}{\numberline {6.3}{\ignorespaces Liste des algorithmes évalués\relax }}{61}{table.caption.31}\protected@file@percent } |
55 | -\newlabel{tabAlgs}{{6.3}{61}{Liste des algorithmes évalués\relax }{table.caption.31}{}} | |
56 | -\@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés\relax }}{61}{table.caption.32}\protected@file@percent } | |
57 | -\newlabel{tabRes1}{{6.4}{61}{RMSE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés\relax }{table.caption.32}{}} | |
58 | -\@writefile{lot}{\contentsline {table}{\numberline {6.5}{\ignorespaces MAE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés\relax }}{62}{table.caption.33}\protected@file@percent } | |
59 | -\newlabel{tabRes2}{{6.5}{62}{MAE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés\relax }{table.caption.33}{}} | |
55 | +\newlabel{tabAlgs2}{{6.3}{61}{Liste des algorithmes évalués\relax }{table.caption.31}{}} | |
56 | +\@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{61}{table.caption.32}\protected@file@percent } | |
57 | +\newlabel{tabRes1_2}{{6.4}{61}{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.32}{}} | |
58 | +\@writefile{lot}{\contentsline {table}{\numberline {6.5}{\ignorespaces MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{62}{table.caption.33}\protected@file@percent } | |
59 | +\newlabel{tabRes2_2}{{6.5}{62}{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.33}{}} | |
60 | 60 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}\protected@file@percent } |
61 | 61 | \@writefile{lof}{\contentsline {figure}{\numberline {6.8}{\ignorespaces Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }}{63}{figure.caption.34}\protected@file@percent } |
62 | -\newlabel{figBox}{{6.8}{63}{Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }{figure.caption.34}{}} | |
62 | +\newlabel{figBox2}{{6.8}{63}{Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }{figure.caption.34}{}} | |
63 | 63 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}\protected@file@percent } |
64 | 64 | \@writefile{toc}{\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}\protected@file@percent } |
65 | 65 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.1}Modèle Proposé}{64}{subsection.6.3.1}\protected@file@percent } |
chapters/ESCBR.tex
View file @
605eb2f
... | ... | @@ -109,7 +109,7 @@ |
109 | 109 | \end{figure} |
110 | 110 | |
111 | 111 | La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}. |
112 | -Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution sont ensuite calculés selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. | |
112 | +Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. | |
113 | 113 | |
114 | 114 | \begin{equation} |
115 | 115 | \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) |
116 | 116 | |
117 | 117 | |
... | ... | @@ -167,16 +167,13 @@ |
167 | 167 | \label{eqgen7} |
168 | 168 | \end{equation} |
169 | 169 | |
170 | -L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre tous les paires problème-solution est calculée et permet de générer une solution par transposition. | |
170 | +L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition. | |
171 | 171 | |
172 | -La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problème en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. | |
172 | +La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. | |
173 | 173 | |
174 | 174 | L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. |
175 | 175 | |
176 | -La marche aléatoire consiste à choisir une solution et changer ses valeurs dans une composante aléatoire avec un pas aléatoire. Le pas est une valeur aléatoire générée avec une distribution de probabilité normal de moyenne 0 et variance 1. | |
177 | -\\ | |
178 | -\colorbox{yellow}{Je ne comprends pas ce qui est aléatoire. Le choix de la dimension ? Le pas ?}\\ | |
179 | -\colorbox{yellow}{Éviter les petits et grands, si nécessaire, donner plutôt un ordre de grandeur ou un intervalle.} | |
176 | +La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $\Delta$ est ajouté à sa valeur. La valeur de $\Delta$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$. | |
180 | 177 | |
181 | 178 | \begin{equation} |
182 | 179 | k \sim \left(\frac{1}{nl}\right) |
... | ... | @@ -197,7 +194,6 @@ |
197 | 194 | \end{figure} |
198 | 195 | |
199 | 196 | La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième modèle d'empilement. Chaque modèle décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution. |
200 | -\colorbox{yellow}{J'ai ré-écrit le paragraphe ci-dessus selon ma compréhension. Est-ce exact ?} | |
201 | 197 | |
202 | 198 | \subsubsection{Révision} |
203 | 199 | |
... | ... | @@ -223,7 +219,7 @@ |
223 | 219 | \label{fig:FW} |
224 | 220 | \end{figure} |
225 | 221 | |
226 | -Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée aléatoirement parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée. | |
222 | +Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée. | |
227 | 223 | |
228 | 224 | \subsubsection{Mémorisation} |
229 | 225 | |
... | ... | @@ -231,7 +227,7 @@ |
231 | 227 | |
232 | 228 | \subsection{Résultats} |
233 | 229 | |
234 | -Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | |
230 | +Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | |
235 | 231 | %\colorbox{yellow}{À quoi correspondent ces valeurs ? Unités ?} |
236 | 232 | |
237 | 233 | \begin{table}[!ht] |
238 | 234 | |
239 | 235 | |
... | ... | @@ -248,14 +244,14 @@ |
248 | 244 | DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ |
249 | 245 | DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ |
250 | 246 | DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ |
251 | -DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
252 | -DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
247 | +DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\ | |
248 | +DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\ | |
253 | 249 | \end{tabular} |
254 | -\caption{Description des bases de données évaluées. (* après codification comme \textit{String})} | |
255 | -\label{tabBases} | |
250 | +\caption{Description des jeux de données évaluées.} | |
251 | +\label{tabBases2} | |
256 | 252 | \end{table} |
257 | 253 | |
258 | -L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}. Tous les algorithmes ont été exécutés 100 fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec 10 blocs, c'est-à-dire $k=10$. %\colorbox{yellow}{À quoi correspond ce k ? Unité ?} | |
254 | +L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs. | |
259 | 255 | |
260 | 256 | \begin{table}[!ht] |
261 | 257 | \centering |
262 | 258 | |
... | ... | @@ -270,10 +266,10 @@ |
270 | 266 | A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\ |
271 | 267 | \end{tabular} |
272 | 268 | \caption{Liste des algorithmes évalués} |
273 | -\label{tabAlgs} | |
269 | +\label{tabAlgs2} | |
274 | 270 | \end{table} |
275 | 271 | |
276 | -Le tableau \ref{tabRes1} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données. | |
272 | +Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données. | |
277 | 273 | |
278 | 274 | \begin{table}[!ht] |
279 | 275 | \footnotesize |
... | ... | @@ -294,8 +290,8 @@ |
294 | 290 | \hline |
295 | 291 | Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\ |
296 | 292 | \end{tabular} |
297 | -\caption{RMSE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés} | |
298 | -\label{tabRes1} | |
293 | +\caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | |
294 | +\label{tabRes1_2} | |
299 | 295 | \end{table} |
300 | 296 | |
301 | 297 | \begin{table}[!ht] |
302 | 298 | |
303 | 299 | |
... | ... | @@ -317,18 +313,16 @@ |
317 | 313 | \hline |
318 | 314 | Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\ |
319 | 315 | \end{tabular} |
320 | -\caption{MAE calculées sur les dix jeux de données sélectionnés obtenues après exécution des dix algorithmes de régression considérés} | |
321 | -\label{tabRes2} | |
316 | +\caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | |
317 | +\label{tabRes2_2} | |
322 | 318 | \end{table} |
323 | 319 | |
324 | -La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox}. Nous pouvons voir que l'algorithme proposé génère plus de valeurs aberrantes que les autres algorithmes, parce que les algorithmes exécutés peuvent avoir tendance à privilégier l'exploration de l'espace des solutions en cherchant à générer des solutions novatrices | |
325 | -%\textcolor{red}{pourquoi?} | |
326 | -, mais la variance est faible et la convergence est proche de la valeur réelle, meilleure que la plupart des algorithmes comparés. | |
320 | +La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés. | |
327 | 321 | |
328 | 322 | \begin{figure} |
329 | 323 | \includegraphics[width=\textwidth]{./Figures/boxplot.png} |
330 | 324 | \caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives} |
331 | -\label{figBox} | |
325 | +\label{figBox2} | |
332 | 326 | \end{figure} |
333 | 327 | |
334 | 328 | \subsection{Discussion} |
335 | 329 | |
336 | 330 | |
337 | 331 | |
... | ... | @@ -337,18 +331,15 @@ |
337 | 331 | |
338 | 332 | On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire). |
339 | 333 | |
340 | -Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (Random forest et Gradient Boosting) %\colorbox{yellow}{rappeler ici entre parenthèses les noms de ces algorithmes de boosting} | |
341 | -sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place. | |
334 | +Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place. | |
342 | 335 | |
343 | -Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. Les tests ont été effectués avec la fonction intuitive qui fournit une plus grande probabilité de sélection et d'évolution à la solution associée aux voisins les plus proches, mais il est possible de compléter l'évaluation avec d'autres termes pertinents et d'améliorer ainsi les résultats.\textcolor{red}{je ne comprends pas} \colorbox{yellow}{Idem} | |
336 | +Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique. | |
344 | 337 | |
345 | -De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certaines problèmes dans chaque pile | |
346 | -%\textcolor{red}{sûr?} | |
347 | -et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables \colorbox{yellow}{C'est bien ça ?} \textcolor{red}{variance faible =?}. | |
338 | +De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certaines problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables. | |
348 | 339 | |
349 | 340 | \subsection{Conclusion} |
350 | 341 | |
351 | -Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et le modèle d'empilement que nous avons baptisé ESCBR. Ce modèle ne nécessite pas d'entrainement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR avec d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\ | |
342 | +Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et le modèle d'empilement que nous avons baptisé ESCBR. Ce modèle ne nécessite pas d'entrainement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\ | |
352 | 343 | |
353 | 344 | \section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR} |
354 | 345 |
chapters/ESCBR0.tex
View file @
605eb2f
... | ... | @@ -8,15 +8,15 @@ |
8 | 8 | |
9 | 9 | Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche. |
10 | 10 | |
11 | -Le système de raisonnement à partir de cas ne nécessite pas d'entrainement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée, la fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus, la définition formelle se trouve dans la section 6.2.1.3. | |
11 | +Le système de raisonnement à partir de cas ne nécessite pas d'entrainement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. | |
12 | 12 | %\colorbox{yellow}{Il faut expliquer en quelques mots ce que fait cette fonction objectif}\\ |
13 | -Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus avec la métrique RMSE, ce nouvel algorithme se classe parmi les six meilleurs. Avec la métrique MAE il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement saitsfaisants. | |
13 | +Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement saitsfaisants. | |
14 | 14 | |
15 | 15 | Les méthodes d'ensemble permettent de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs modèles exécutés indépendamment. Certaines de ces méthodes utilisent des modèles différents et des ensembles de données différents tandis que d'autres utilisent les mêmes modèles avec des paramètres différents. La combinaison des résultats provenant de multiples modèles peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette méthode d'ensemble en la combinant à des outils d'apprentissage automatique. |
16 | 16 | |
17 | -Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des modèles linéaires et non linéaires complexes. Mais s'il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} et le \textit{Bagging} \cite{Liang}. Le \textit{Stacking} est un type de méta-modèle d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses techniques d'apprentissage automatique pour surmonter les limites des modèles individuels. Plusieurs études démontrent que l'association de ces techniques permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement de modèles ou d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. | |
17 | +Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des modèles linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est un type de méta-modèle d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses techniques d'apprentissage automatique pour surmonter les limites des modèles individuels. Plusieurs études démontrent que l'association de ces techniques permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement de modèles ou d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. | |
18 | 18 | |
19 | -La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. | |
19 | +La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. | |
20 | 20 | |
21 | 21 | Le raisonnement Bayésien clos ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. |
22 | 22 | |
... | ... | @@ -99,7 +99,7 @@ |
99 | 99 | \label{figSolRep} |
100 | 100 | \end{figure} |
101 | 101 | |
102 | -Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, ACP (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération. | |
102 | +Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération. | |
103 | 103 | |
104 | 104 | \begin{figure}[!ht] |
105 | 105 | \centering |
... | ... | @@ -108,7 +108,8 @@ |
108 | 108 | \label{figAuto} |
109 | 109 | \end{figure} |
110 | 110 | |
111 | -La moyenne pondérée avec probabilité permet de construire une solution en utilisant comme valeurs de pondération pour chaque solution connue les distances normalisées entre le cas cible et les $nl$ cas plus proches comme indique l'équation \ref{gen00}, ainsi la solution globale est construite à partir des solutions proposées par les $nl$ algorithmes selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions associées aux cas les plus proches du cas cible pour construire une réponse plus appropriée d'accord avec l'information historique de la base de données. | |
111 | +La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}. | |
112 | +Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution sont ensuite calculés selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. | |
112 | 113 | |
113 | 114 | \begin{equation} |
114 | 115 | \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) |
115 | 116 | |
... | ... | @@ -120,17 +121,14 @@ |
120 | 121 | \label{gen01} |
121 | 122 | \end{equation} |
122 | 123 | |
123 | -La moyenne sans probabilité génère la nouvelle solution en donnant la valeur de chaque dimension | |
124 | -%\colorbox{yellow}{copie ?} | |
125 | -selon la moyenne calculée avec la distribution de probabilité uniforme, en attribuant la même probabilité à toutes les dimensions de toutes les solutions associées aux cas les plus proches du cas cible. Formellement la génération de la solution est calculée selon l'équation \ref{gen2}, où chaque dimension $j$ de la nouvelle solution est calculée de façon similaire. | |
124 | +La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}. | |
126 | 125 | |
127 | 126 | \begin{equation} |
128 | 127 | s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl} s_{i,j} |
129 | 128 | \label{gen2} |
130 | 129 | \end{equation} |
131 | 130 | |
132 | -La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque j-ème dimension. $X_j$ représente l'ensemble des valeurs ordonnées de toutes les solutions $S$ dans la dimension $j$. | |
133 | -%\colorbox{yellow}{position ?}. | |
131 | +La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$. | |
134 | 132 | |
135 | 133 | \begin{equation} |
136 | 134 | s_{j,w}^m= |
137 | 135 | |
... | ... | @@ -141,16 +139,14 @@ |
141 | 139 | \label{eqgen3} |
142 | 140 | \end{equation} |
143 | 141 | |
144 | -La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant aléatoirement l'information des solutions dans chaque j-ème dimension. la solution pour copier l'information dans une dimension $j$ est choisie aléatoirement selon l'inverse normalisé de la distance du cas associé au cas cible. | |
145 | -%\colorbox{yellow}{Il est difficile à comprendre à quel moment intervient l'aléatoire dans ce processus}\\ | |
146 | -%\colorbox{yellow}{À ce stade, les équations ne sont plus citées.} | |
142 | +La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité. | |
147 | 143 | |
148 | 144 | \begin{equation} |
149 | 145 | s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right) |
150 | 146 | \label{eqgen4} |
151 | 147 | \end{equation} |
152 | 148 | |
153 | -"Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement comme le montre formellement l'équation \ref{eqgen5}. | |
149 | +"Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}. | |
154 | 150 | |
155 | 151 | \begin{equation} |
156 | 152 | s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) |
157 | 153 | |
158 | 154 | |
159 | 155 | |
160 | 156 | |
... | ... | @@ -164,50 +160,20 @@ |
164 | 160 | \label{eqgen6} |
165 | 161 | \end{equation} |
166 | 162 | |
167 | -L'interpolation construit une distribution de probabilité continue pour chaque j-ème dimension, en utilisant une fonction d'interpolation linéaire 1D calculée selon l'information des solution connues dans la j-ème dimension correspondant comme est décrit dans de l'équation \ref{eqgen7}. | |
168 | -%\\ \colorbox{yellow}{Pourquoi aléatoire ? Une interpolation ne rend pas un résultat aléatoire} | |
163 | +L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}. | |
169 | 164 | |
170 | 165 | \begin{equation} |
171 | 166 | s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl |
172 | 167 | \label{eqgen7} |
173 | 168 | \end{equation} |
174 | 169 | |
175 | -Dans l'analyse en composantes principales (PCA), si la dimension de l'espace des solutions $m$ est plus petit que la dimension de l'espace des problèmes $n$, c'est-à-dire $m<n$, alors la description du problème est transposée dans l'espace de description des solutions pour établir une relation entre le problème et sa solution. Le problème et la solution étant ainsi dans le même espace, la moyenne de la distance entre tous les paires problème-solution est calculée. En utilisant la description transposée du nouveau problème et la valeur moyenne de distance précédemment calculée, une solution est générée. %\textcolor{red}{à vérifier} \colorbox{yellow}{Idem, je n'ai pas compris la fin de la dernière phrase.} | |
170 | +L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre tous les paires problème-solution est calculée et permet de générer une solution par transposition. | |
176 | 171 | |
177 | -Pour le calcul de l'analyse en composantes principales est nécessaire calculer la moyenne centrée comme dans l'équation \ref{eqmoyenne1}, après, est calculée la matrice de covariance (équation \ref{covmat}). | |
172 | +La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problème en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. | |
178 | 173 | |
179 | -\colorbox{yellow}{À quoi correspond le processus ci-dessous ?} | |
174 | +L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. | |
180 | 175 | |
181 | -\begin{equation} | |
182 | -X_c=X-\frac{1}{N} \sum_{i=1}^N X_i | |
183 | -\label{eqmoyenne1} | |
184 | -\end{equation} | |
185 | - | |
186 | -\begin{equation} | |
187 | -C_x=\frac{1}{n-1}XX^T=\frac{1}{n-1} \left( | |
188 | -\begin{matrix} | |
189 | -x_1x_1^T&x_1x_2^T&...&x_1x_m^T\\ | |
190 | -x_2x_1^T&x_2x_2^T&...&x_2x_m^T\\ | |
191 | -\vdots&\vdots&\ddots&\vdots\\ | |
192 | -x_mx_1^T&x_mx_2^T&...&x_mx_m^T\\ | |
193 | -\end{matrix} | |
194 | -\right) \in \mathbb{R}^{mxm} | |
195 | -\label{covmat} | |
196 | -\end{equation} | |
197 | - | |
198 | -\begin{equation} | |
199 | -C_x v = \lambda v | |
200 | -\end{equation} | |
201 | - | |
202 | -Choisir les $k$ premier composantes principales | |
203 | -$W_k=\{v_1, v_2,...v_k\}$, faire la projection des $k$ composantes $Z=XW_k$, pour finalement calculer les distances entre les problèmes transposés et les solutions associées $d_j^m=distance(Z_j,s_j)$ et les utiliser pour calculer la nouvelle solution comme spécifié dans l'équation \ref{eqPCA}. | |
204 | - | |
205 | -\begin{equation} | |
206 | - s_{w,j}^m=Z_{w,j}^m+\frac{1}{m}\sum_{i=1}^m d_{i,j} | |
207 | - \label{eqPCA} | |
208 | -\end{equation} | |
209 | - | |
210 | -La marche aléatoire consiste à choisir une solution et changer ses valeurs dans une dimension aléatoire avec un pas aléatoire. Le pas est une valeur aléatoire générée avec une distribution de probabilité normal de moyenne 0 et variance 1. | |
176 | +La marche aléatoire consiste à choisir une solution et changer ses valeurs dans une composante aléatoire avec un pas aléatoire. Le pas est une valeur aléatoire générée avec une distribution de probabilité normal de moyenne 0 et variance 1. | |
211 | 177 | \\ |
212 | 178 | \colorbox{yellow}{Je ne comprends pas ce qui est aléatoire. Le choix de la dimension ? Le pas ?}\\ |
213 | 179 | \colorbox{yellow}{Éviter les petits et grands, si nécessaire, donner plutôt un ordre de grandeur ou un intervalle.} |
... | ... | @@ -265,7 +231,7 @@ |
265 | 231 | |
266 | 232 | \subsection{Résultats} |
267 | 233 | |
268 | -Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | |
234 | +Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | |
269 | 235 | %\colorbox{yellow}{À quoi correspondent ces valeurs ? Unités ?} |
270 | 236 | |
271 | 237 | \begin{table}[!ht] |
272 | 238 | |
... | ... | @@ -286,10 +252,10 @@ |
286 | 252 | DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ |
287 | 253 | \end{tabular} |
288 | 254 | \caption{Description des bases de données évaluées. (* après codification comme \textit{String})} |
289 | -\label{tabBases} | |
255 | +\label{tabBases2} | |
290 | 256 | \end{table} |
291 | 257 | |
292 | -L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}. Tous les algorithmes ont été exécutés 100 fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec 10 blocs, c'est-à-dire $k=10$. %\colorbox{yellow}{À quoi correspond ce k ? Unité ?} | |
258 | +L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés 100 fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec 10 blocs, c'est-à-dire $k=10$. %\colorbox{yellow}{À quoi correspond ce k ? Unité ?} | |
293 | 259 | |
294 | 260 | \begin{table}[!ht] |
295 | 261 | \centering |
... | ... | @@ -378,8 +344,7 @@ |
378 | 344 | |
379 | 345 | De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certaines problèmes dans chaque pile |
380 | 346 | %\textcolor{red}{sûr?} |
381 | -et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables, une variance faible peut suggérer que l'algorithme tend à converger vers les solutions | |
382 | - %\colorbox{yellow}{C'est bien ça ?} \textcolor{red}{variance faible =?}. | |
347 | +et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables \colorbox{yellow}{C'est bien ça ?} \textcolor{red}{variance faible =?}. | |
383 | 348 | |
384 | 349 | \subsection{Conclusion} |
385 | 350 | |
... | ... | @@ -696,7 +661,8 @@ |
696 | 661 | |
697 | 662 | Les tableaux \ref{tabRes1} et \ref{tabRes2} présentent respectivement les RMSE et les MAE obtenues pour chaque jeu de données et chaque algorithme testé. |
698 | 663 | |
699 | -La figure \ref{figBox} représente graphiquement la dispersion globale, la médiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA génère parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est très faible. De plus, la convergence est proche de la valeur réelle et même meilleure que celle de la plupart des autres algorithmes testés. Il est également possible de remarquer que les valeurs aberrantes sont plus élevées que les valeurs réelles.\textcolor{red}{plus élevées??, pourquoi?} | |
664 | +La figure \ref{figBox} représente graphiquement la dispersion globale, la médiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA génère parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est très faible. De plus, la convergence est proche de la valeur réelle et même meilleure que celle de la plupart des autres algorithmes testés. Il est également possible de remarquer que les valeurs aberrantes sont plus élevées que les valeurs réelles, peut être parce que les algorithmes utilisés explorent l'espace de recherche alors ces valeurs sont produit d'une variabilité naturelle des algorithmes dans l'espace des solutions, qui peuvent donner de la 'créativité' au moment de générer de nouvelles solutions. | |
665 | +%\textcolor{red}{plus élevées??, pourquoi?} | |
700 | 666 | |
701 | 667 | \begin{figure}[!ht] |
702 | 668 | \includegraphics[width=\textwidth]{Figures/boxplot2.png} |
main.log
View file @
605eb2f
1 | -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 23 JUN 2025 19:59 | |
1 | +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 27 JUN 2025 14:17 | |
2 | 2 | entering extended mode |
3 | 3 | restricted \write18 enabled. |
4 | 4 | %&-line parsing enabled. |
5 | 5 | |
6 | 6 | |
7 | 7 | |
8 | 8 | |
9 | 9 | |
10 | 10 | |
11 | 11 | |
12 | 12 | |
13 | 13 | |
14 | 14 | |
... | ... | @@ -1658,60 +1658,58 @@ |
1658 | 1658 | Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 106. |
1659 | 1659 | (pdftex.def) Requested size: 427.43153pt x 340.20406pt. |
1660 | 1660 | [56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic |
1661 | -S.png>] | |
1662 | -Overfull \hbox (26.8546pt too wide) in paragraph at lines 176--180 | |
1663 | -[][][][][][] | |
1664 | - [] | |
1665 | - | |
1666 | -[58] | |
1661 | +S.png>] [58] | |
1667 | 1662 | <./Figures/Stacking2.png, id=1127, 743.77875pt x 414.54875pt> |
1668 | 1663 | File: ./Figures/Stacking2.png Graphic file (type png) |
1669 | 1664 | <use ./Figures/Stacking2.png> |
1670 | -Package pdftex.def Info: ./Figures/Stacking2.png used on input line 194. | |
1665 | +Package pdftex.def Info: ./Figures/Stacking2.png used on input line 191. | |
1671 | 1666 | (pdftex.def) Requested size: 427.43153pt x 238.23717pt. |
1672 | 1667 | |
1673 | -Underfull \hbox (badness 1168) in paragraph at lines 199--201 | |
1674 | -\T1/phv/m/n/10.95 mo-dèle d'em-pi-le-ment. Chaque mo-dèle dé-crit ci-dessus gé- | |
1675 | -nère une so-lu-tion can- | |
1676 | - [] | |
1668 | +Underfull \hbox (badness 10000) in paragraph at lines 202--204 | |
1677 | 1669 | |
1678 | - | |
1679 | -Underfull \hbox (badness 1776) in paragraph at lines 199--201 | |
1680 | -\T1/phv/m/n/10.95 di-date $\OML/txmi/m/it/10.95 s[] \OT1/txr/m/n/10.95 = \OML/t | |
1681 | -xmi/m/it/10.95 MS[]\OT1/txr/m/n/10.95 ((\OML/txmi/m/it/10.95 s[]\OT1/txr/m/n/10 | |
1682 | -.95 )[])$\T1/phv/m/n/10.95 . Vient en-suite la construc-tion de l'en-semble d'u | |
1683 | -ni-fi-ca- | |
1684 | 1670 | [] |
1685 | 1671 | |
1686 | - | |
1687 | -Underfull \hbox (badness 10000) in paragraph at lines 206--208 | |
1688 | - | |
1689 | - [] | |
1690 | - | |
1691 | 1672 | [59 <./Figures/Stacking2.png>] |
1692 | 1673 | <Figures/FW.png, id=1142, 456.70625pt x 342.27875pt> |
1693 | 1674 | File: Figures/FW.png Graphic file (type png) |
1694 | 1675 | <use Figures/FW.png> |
1695 | -Package pdftex.def Info: Figures/FW.png used on input line 221. | |
1676 | +Package pdftex.def Info: Figures/FW.png used on input line 217. | |
1696 | 1677 | (pdftex.def) Requested size: 427.43153pt x 320.34758pt. |
1697 | - [60 <./Figures/FW.png>] [61] | |
1698 | -<./Figures/boxplot.png, id=1165, 1994.45125pt x 959.585pt> | |
1678 | + | |
1679 | + | |
1680 | +LaTeX Warning: Reference `tabBases2' on page 60 undefined on input line 230. | |
1681 | + | |
1682 | +[60 <./Figures/FW.png>] | |
1683 | + | |
1684 | +LaTeX Warning: Reference `tabAlgs2' on page 61 undefined on input line 254. | |
1685 | + | |
1686 | + | |
1687 | +LaTeX Warning: Reference `tabRes1_2' on page 61 undefined on input line 272. | |
1688 | + | |
1689 | + | |
1690 | +LaTeX Warning: Reference `tabRes2_2' on page 61 undefined on input line 272. | |
1691 | + | |
1692 | + | |
1693 | +LaTeX Warning: Reference `figBox2' on page 61 undefined on input line 320. | |
1694 | + | |
1695 | +[61] | |
1696 | +<./Figures/boxplot.png, id=1156, 1994.45125pt x 959.585pt> | |
1699 | 1697 | File: ./Figures/boxplot.png Graphic file (type png) |
1700 | 1698 | <use ./Figures/boxplot.png> |
1701 | -Package pdftex.def Info: ./Figures/boxplot.png used on input line 329. | |
1699 | +Package pdftex.def Info: ./Figures/boxplot.png used on input line 323. | |
1702 | 1700 | (pdftex.def) Requested size: 427.43153pt x 205.64786pt. |
1703 | 1701 | [62] |
1704 | -Underfull \hbox (badness 10000) in paragraph at lines 351--352 | |
1702 | +Underfull \hbox (badness 10000) in paragraph at lines 342--343 | |
1705 | 1703 | |
1706 | 1704 | [] |
1707 | 1705 | |
1708 | 1706 | |
1709 | -Underfull \hbox (badness 10000) in paragraph at lines 351--352 | |
1707 | +Underfull \hbox (badness 10000) in paragraph at lines 342--343 | |
1710 | 1708 | |
1711 | 1709 | [] |
1712 | 1710 | |
1713 | 1711 | |
1714 | -Underfull \hbox (badness 2564) in paragraph at lines 353--353 | |
1712 | +Underfull \hbox (badness 2564) in paragraph at lines 344--344 | |
1715 | 1713 | [][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tèmes multi- |
1716 | 1714 | [] |
1717 | 1715 | |
1718 | 1716 | |
1719 | 1717 | |
1720 | 1718 | |
1721 | 1719 | |
1722 | 1720 | |
... | ... | @@ -1722,24 +1720,27 @@ |
1722 | 1720 | [] |
1723 | 1721 | |
1724 | 1722 | [63 <./Figures/boxplot.png>] |
1725 | -<Figures/NCBR.png, id=1180, 653.44125pt x 445.665pt> | |
1723 | +<Figures/NCBR.png, id=1170, 653.44125pt x 445.665pt> | |
1726 | 1724 | File: Figures/NCBR.png Graphic file (type png) |
1727 | 1725 | <use Figures/NCBR.png> |
1728 | -Package pdftex.def Info: Figures/NCBR.png used on input line 363. | |
1726 | +Package pdftex.def Info: Figures/NCBR.png used on input line 354. | |
1729 | 1727 | (pdftex.def) Requested size: 427.43153pt x 291.5149pt. |
1730 | 1728 | [64 <./Figures/NCBR.png>] |
1731 | -<Figures/FlowCBR.png, id=1189, 450.68375pt x 822.07124pt> | |
1729 | +<Figures/FlowCBR.png, id=1179, 450.68375pt x 822.07124pt> | |
1732 | 1730 | File: Figures/FlowCBR.png Graphic file (type png) |
1733 | 1731 | <use Figures/FlowCBR.png> |
1734 | -Package pdftex.def Info: Figures/FlowCBR.png used on input line 392. | |
1732 | +Package pdftex.def Info: Figures/FlowCBR.png used on input line 383. | |
1735 | 1733 | (pdftex.def) Requested size: 270.41232pt x 493.24655pt. |
1736 | 1734 | |
1737 | -Underfull \hbox (badness 1107) in paragraph at lines 435--436 | |
1735 | +Underfull \hbox (badness 1107) in paragraph at lines 426--427 | |
1738 | 1736 | []\T1/phv/m/n/10.95 Cette sec-tion pré-sente de ma-nière plus dé-taillée les co |
1739 | 1737 | m-por-te-ments des agents |
1740 | 1738 | [] |
1741 | 1739 | |
1742 | 1740 | |
1741 | +Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1742 | + | |
1743 | + | |
1743 | 1744 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active |
1744 | 1745 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN |
1745 | 1746 | S ESCBR \T1/phv/m/n/10.95 65 |
1746 | 1747 | |
... | ... | @@ -1749,10 +1750,10 @@ |
1749 | 1750 | Underfull \vbox (badness 2111) has occurred while \output is active [] |
1750 | 1751 | |
1751 | 1752 | [66 <./Figures/FlowCBR.png>] |
1752 | -<Figures/agent.png, id=1204, 352.31625pt x 402.50375pt> | |
1753 | +<Figures/agent.png, id=1194, 352.31625pt x 402.50375pt> | |
1753 | 1754 | File: Figures/agent.png Graphic file (type png) |
1754 | 1755 | <use Figures/agent.png> |
1755 | -Package pdftex.def Info: Figures/agent.png used on input line 476. | |
1756 | +Package pdftex.def Info: Figures/agent.png used on input line 467. | |
1756 | 1757 | (pdftex.def) Requested size: 246.61969pt x 281.7507pt. |
1757 | 1758 | |
1758 | 1759 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active |
1759 | 1760 | |
... | ... | @@ -1761,10 +1762,10 @@ |
1761 | 1762 | [] |
1762 | 1763 | |
1763 | 1764 | [67] |
1764 | -<Figures/BayesianEvolution.png, id=1214, 626.34pt x 402.50375pt> | |
1765 | +<Figures/BayesianEvolution.png, id=1204, 626.34pt x 402.50375pt> | |
1765 | 1766 | File: Figures/BayesianEvolution.png Graphic file (type png) |
1766 | 1767 | <use Figures/BayesianEvolution.png> |
1767 | -Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 489. | |
1768 | +Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 480. | |
1768 | 1769 | |
1769 | 1770 | (pdftex.def) Requested size: 313.16922pt x 201.25137pt. |
1770 | 1771 | [68 <./Figures/agent.png>] |
1771 | 1772 | |
1772 | 1773 | |
1773 | 1774 | |
... | ... | @@ -1774,20 +1775,20 @@ |
1774 | 1775 | [] |
1775 | 1776 | |
1776 | 1777 | [69 <./Figures/BayesianEvolution.png>] |
1777 | -Underfull \hbox (badness 10000) in paragraph at lines 534--534 | |
1778 | +Underfull \hbox (badness 10000) in paragraph at lines 525--525 | |
1778 | 1779 | []|\T1/phv/m/n/8 Input. |
1779 | 1780 | [] |
1780 | 1781 | |
1781 | 1782 | |
1782 | -Underfull \hbox (badness 10000) in paragraph at lines 534--535 | |
1783 | +Underfull \hbox (badness 10000) in paragraph at lines 525--526 | |
1783 | 1784 | []|\T1/phv/m/n/8 Output |
1784 | 1785 | [] |
1785 | 1786 | |
1786 | 1787 | [70] |
1787 | -<Figures/boxplot2.png, id=1241, 1615.03375pt x 835.12pt> | |
1788 | +<Figures/boxplot2.png, id=1235, 1615.03375pt x 835.12pt> | |
1788 | 1789 | File: Figures/boxplot2.png Graphic file (type png) |
1789 | 1790 | <use Figures/boxplot2.png> |
1790 | -Package pdftex.def Info: Figures/boxplot2.png used on input line 667. | |
1791 | +Package pdftex.def Info: Figures/boxplot2.png used on input line 658. | |
1791 | 1792 | (pdftex.def) Requested size: 427.43153pt x 221.01265pt. |
1792 | 1793 | ) |
1793 | 1794 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active |
1794 | 1795 | |
1795 | 1796 | |
1796 | 1797 | |
... | ... | @@ -1827,23 +1828,23 @@ |
1827 | 1828 | Package hyperref Info: bookmark level for unknown algorithm defaults to 0 on in |
1828 | 1829 | put line 131. |
1829 | 1830 | [76] |
1830 | -<./Figures/dataset.png, id=1302, 15.13687pt x 8.08058pt> | |
1831 | +<./Figures/dataset.png, id=1296, 15.13687pt x 8.08058pt> | |
1831 | 1832 | File: ./Figures/dataset.png Graphic file (type png) |
1832 | 1833 | <use ./Figures/dataset.png> |
1833 | 1834 | Package pdftex.def Info: ./Figures/dataset.png used on input line 152. |
1834 | 1835 | (pdftex.def) Requested size: 427.43153pt x 228.35583pt. |
1835 | 1836 | [77 <./Figures/dataset.png>] |
1836 | -<./Figures/comp2.png, id=1314, 14.98512pt x 7.33133pt> | |
1837 | +<./Figures/comp2.png, id=1308, 14.98512pt x 7.33133pt> | |
1837 | 1838 | File: ./Figures/comp2.png Graphic file (type png) |
1838 | 1839 | <use ./Figures/comp2.png> |
1839 | 1840 | Package pdftex.def Info: ./Figures/comp2.png used on input line 186. |
1840 | 1841 | (pdftex.def) Requested size: 427.43153pt x 209.34462pt. |
1841 | -<./Figures/comp3.png, id=1316, 14.98512pt x 7.33133pt> | |
1842 | +<./Figures/comp3.png, id=1310, 14.98512pt x 7.33133pt> | |
1842 | 1843 | File: ./Figures/comp3.png Graphic file (type png) |
1843 | 1844 | <use ./Figures/comp3.png> |
1844 | 1845 | Package pdftex.def Info: ./Figures/comp3.png used on input line 194. |
1845 | 1846 | (pdftex.def) Requested size: 427.43153pt x 209.34462pt. |
1846 | -<./Figures/comp4.png, id=1318, 14.9377pt x 7.31236pt> | |
1847 | +<./Figures/comp4.png, id=1312, 14.9377pt x 7.31236pt> | |
1847 | 1848 | File: ./Figures/comp4.png Graphic file (type png) |
1848 | 1849 | <use ./Figures/comp4.png> |
1849 | 1850 | Package pdftex.def Info: ./Figures/comp4.png used on input line 202. |
... | ... | @@ -1854,7 +1855,7 @@ |
1854 | 1855 | [] |
1855 | 1856 | |
1856 | 1857 | [79 <./Figures/comp3.png>] |
1857 | -<./Figures/metric.png, id=1341, 16.95784pt x 7.68225pt> | |
1858 | +<./Figures/metric.png, id=1335, 16.95784pt x 7.68225pt> | |
1858 | 1859 | File: ./Figures/metric.png Graphic file (type png) |
1859 | 1860 | <use ./Figures/metric.png> |
1860 | 1861 | Package pdftex.def Info: ./Figures/metric.png used on input line 243. |
... | ... | @@ -1864,7 +1865,7 @@ |
1864 | 1865 | |
1865 | 1866 | [] |
1866 | 1867 | |
1867 | -<./Figures/metric2.png, id=1354, 16.48363pt x 7.66327pt> | |
1868 | +<./Figures/metric2.png, id=1348, 16.48363pt x 7.66327pt> | |
1868 | 1869 | File: ./Figures/metric2.png Graphic file (type png) |
1869 | 1870 | <use ./Figures/metric2.png> |
1870 | 1871 | Package pdftex.def Info: ./Figures/metric2.png used on input line 302. |
... | ... | @@ -1884,7 +1885,7 @@ |
1884 | 1885 | |
1885 | 1886 | [83] |
1886 | 1887 | [84] [85] [86] |
1887 | -<Figures/Model.png, id=1444, 367.3725pt x 302.12875pt> | |
1888 | +<Figures/Model.png, id=1438, 367.3725pt x 302.12875pt> | |
1888 | 1889 | File: Figures/Model.png Graphic file (type png) |
1889 | 1890 | <use Figures/Model.png> |
1890 | 1891 | Package pdftex.def Info: Figures/Model.png used on input line 502. |
1891 | 1892 | |
1892 | 1893 | |
... | ... | @@ -1895,18 +1896,18 @@ |
1895 | 1896 | [] |
1896 | 1897 | |
1897 | 1898 | [90] |
1898 | -<Figures/kEvol_TS.jpg, id=1493, 742.775pt x 557.08125pt> | |
1899 | +<Figures/kEvol_TS.jpg, id=1488, 742.775pt x 557.08125pt> | |
1899 | 1900 | File: Figures/kEvol_TS.jpg Graphic file (type jpg) |
1900 | 1901 | <use Figures/kEvol_TS.jpg> |
1901 | 1902 | Package pdftex.def Info: Figures/kEvol_TS.jpg used on input line 675. |
1902 | 1903 | (pdftex.def) Requested size: 427.43153pt x 320.58275pt. |
1903 | -<Figures/GradesEv.jpg, id=1497, 740.7675pt x 557.08125pt> | |
1904 | +<Figures/GradesEv.jpg, id=1492, 740.7675pt x 557.08125pt> | |
1904 | 1905 | File: Figures/GradesEv.jpg Graphic file (type jpg) |
1905 | 1906 | <use Figures/GradesEv.jpg> |
1906 | 1907 | Package pdftex.def Info: Figures/GradesEv.jpg used on input line 688. |
1907 | 1908 | (pdftex.def) Requested size: 427.43153pt x 321.44128pt. |
1908 | 1909 | [91] |
1909 | -<Figures/LevelsEv.jpg, id=1510, 742.775pt x 557.08125pt> | |
1910 | +<Figures/LevelsEv.jpg, id=1505, 742.775pt x 557.08125pt> | |
1910 | 1911 | File: Figures/LevelsEv.jpg Graphic file (type jpg) |
1911 | 1912 | <use Figures/LevelsEv.jpg> |
1912 | 1913 | Package pdftex.def Info: Figures/LevelsEv.jpg used on input line 697. |
... | ... | @@ -1925,7 +1926,7 @@ |
1925 | 1926 | Underfull \vbox (badness 10000) has occurred while \output is active [] |
1926 | 1927 | |
1927 | 1928 | [94 <./Figures/LevelsEv.jpg>] |
1928 | -<Figures/ModelHawkes.png, id=1530, 397.485pt x 382.42876pt> | |
1929 | +<Figures/ModelHawkes.png, id=1525, 397.485pt x 382.42876pt> | |
1929 | 1930 | File: Figures/ModelHawkes.png Graphic file (type png) |
1930 | 1931 | <use Figures/ModelHawkes.png> |
1931 | 1932 | Package pdftex.def Info: Figures/ModelHawkes.png used on input line 756. |
1932 | 1933 | |
... | ... | @@ -1937,13 +1938,13 @@ |
1937 | 1938 | [] |
1938 | 1939 | |
1939 | 1940 | [95 <./Figures/ModelHawkes.png>] [96] |
1940 | -<./Figures/stabilityBoxplot1.png, id=1557, 742.775pt x 520.94624pt> | |
1941 | +<./Figures/stabilityBoxplot1.png, id=1552, 742.775pt x 520.94624pt> | |
1941 | 1942 | File: ./Figures/stabilityBoxplot1.png Graphic file (type png) |
1942 | 1943 | <use ./Figures/stabilityBoxplot1.png> |
1943 | 1944 | Package pdftex.def Info: ./Figures/stabilityBoxplot1.png used on input line 84 |
1944 | 1945 | 5. |
1945 | 1946 | (pdftex.def) Requested size: 427.43153pt x 299.78818pt. |
1946 | -<./Figures/stabilityBoxplot2.png, id=1558, 742.775pt x 520.94624pt> | |
1947 | +<./Figures/stabilityBoxplot2.png, id=1553, 742.775pt x 520.94624pt> | |
1947 | 1948 | File: ./Figures/stabilityBoxplot2.png Graphic file (type png) |
1948 | 1949 | <use ./Figures/stabilityBoxplot2.png> |
1949 | 1950 | Package pdftex.def Info: ./Figures/stabilityBoxplot2.png used on input line 84 |
1950 | 1951 | |
... | ... | @@ -1958,12 +1959,12 @@ |
1958 | 1959 | |
1959 | 1960 | |
1960 | 1961 | [98 <./Figures/stabilityBoxplot1.png> <./Figures/stabilityBoxplot2.png>] |
1961 | -<Figures/Var.png, id=1578, 1408.26125pt x 749.80125pt> | |
1962 | +<Figures/Var.png, id=1573, 1408.26125pt x 749.80125pt> | |
1962 | 1963 | File: Figures/Var.png Graphic file (type png) |
1963 | 1964 | <use Figures/Var.png> |
1964 | 1965 | Package pdftex.def Info: Figures/Var.png used on input line 882. |
1965 | 1966 | (pdftex.def) Requested size: 427.43153pt x 227.57355pt. |
1966 | -<Figures/VarH.png, id=1579, 1408.26125pt x 749.80125pt> | |
1967 | +<Figures/VarH.png, id=1574, 1408.26125pt x 749.80125pt> | |
1967 | 1968 | File: Figures/VarH.png Graphic file (type png) |
1968 | 1969 | <use Figures/VarH.png> |
1969 | 1970 | Package pdftex.def Info: Figures/VarH.png used on input line 888. |
1970 | 1971 | |
1971 | 1972 | |
1972 | 1973 | |
... | ... | @@ -1974,12 +1975,16 @@ |
1974 | 1975 | |
1975 | 1976 | (./chapters/Conclusions.tex |
1976 | 1977 | Chapitre 8. |
1977 | -[101 | |
1978 | 1978 | |
1979 | +Underfull \vbox (badness 1147) has occurred while \output is active [] | |
1979 | 1980 | |
1981 | + [101 | |
1980 | 1982 | |
1981 | 1983 | |
1982 | -]) [102] | |
1984 | + | |
1985 | + | |
1986 | +]) | |
1987 | +[102] | |
1983 | 1988 | \openout2 = `./chapters/Publications.aux'. |
1984 | 1989 | |
1985 | 1990 | (./chapters/Publications.tex |
... | ... | @@ -2074,7 +2079,7 @@ |
2074 | 2079 | ) [111 |
2075 | 2080 | |
2076 | 2081 | ] |
2077 | -<spimufcphdthesis-backpage.pdf, id=1646, 597.432pt x 844.83629pt> | |
2082 | +<spimufcphdthesis-backpage.pdf, id=1641, 597.432pt x 844.83629pt> | |
2078 | 2083 | File: spimufcphdthesis-backpage.pdf Graphic file (type pdf) |
2079 | 2084 | <use spimufcphdthesis-backpage.pdf> |
2080 | 2085 | Package pdftex.def Info: spimufcphdthesis-backpage.pdf used on input line 392. |
2081 | 2086 | |
... | ... | @@ -2096,10 +2101,10 @@ |
2096 | 2101 | (rerunfilecheck) Checksum: DABF564812292D7B0491E94798B578EA;23881. |
2097 | 2102 | ) |
2098 | 2103 | Here is how much of TeX's memory you used: |
2099 | - 21513 strings out of 476038 | |
2100 | - 369108 string characters out of 5790170 | |
2104 | + 21518 strings out of 476038 | |
2105 | + 369160 string characters out of 5790170 | |
2101 | 2106 | 1902785 words of memory out of 5000000 |
2102 | - 40941 multiletter control sequences out of 15000+600000 | |
2107 | + 40946 multiletter control sequences out of 15000+600000 | |
2103 | 2108 | 619032 words of font info for 151 fonts, out of 8000000 for 9000 |
2104 | 2109 | 1141 hyphenation exceptions out of 8191 |
2105 | 2110 | 126i,17n,133p,1979b,754s stack positions out of 10000i,1000n,20000p,200000b,200000s |
2106 | 2111 | |
... | ... | @@ -2130,10 +2135,10 @@ |
2130 | 2135 | lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/ |
2131 | 2136 | uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf |
2132 | 2137 | b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb> |
2133 | -Output written on main.pdf (120 pages, 7822201 bytes). | |
2138 | +Output written on main.pdf (120 pages, 7822282 bytes). | |
2134 | 2139 | PDF statistics: |
2135 | - 1815 PDF objects out of 2073 (max. 8388607) | |
2136 | - 1551 compressed objects within 16 object streams | |
2140 | + 1810 PDF objects out of 2073 (max. 8388607) | |
2141 | + 1546 compressed objects within 16 object streams | |
2137 | 2142 | 456 named destinations out of 1000 (max. 500000) |
2138 | 2143 | 983 words of extra memory for PDF output out of 10000 (max. 10000000) |
main.pdf
View file @
605eb2f
main.synctex.gz
View file @
605eb2f