Commit d5c40fb1603de0971e4b57623b43424cedb5a0c5
1 parent
0c1b5d8d54
Exists in
main
version all ok, corrections to do in general conclusion...
Showing 5 changed files with 39 additions and 39 deletions Inline Diff
chapters/ESCBR.tex
View file @
d5c40fb
\chapter{Le raisonnement à partir de cas (RàPC) pour la régression} | 1 | 1 | \chapter{Le raisonnement à partir de cas (RàPC) pour la régression} | |
\chaptermark{RàPC POUR RÉGRESSION} | 2 | 2 | \chaptermark{RàPC POUR RÉGRESSION} | |
\label{ChapESCBR} | 3 | 3 | \label{ChapESCBR} | |
4 | 4 | |||
\section{Introduction} | 5 | 5 | \section{Introduction} | |
6 | 6 | |||
Ce chapitre est divisé en deux parties. La première partie présente un algorithme fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression. | 7 | 7 | Ce chapitre est divisé en deux parties. La première partie présente un algorithme fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression. | |
L'algorithme présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement Bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{10.1007/978-3-031-63646-2_11}.\\ | 8 | 8 | L'algorithme présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement Bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{10.1007/978-3-031-63646-2_11}.\\ | |
9 | 9 | |||
Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche. | 10 | 10 | Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche. | |
11 | 11 | |||
Le système de raisonnement à partir de cas ne nécessite pas d'entrainement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement satisfaisants. | 12 | 12 | Le système de raisonnement à partir de cas ne nécessite pas d'entrainement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement satisfaisants. | |
13 | 13 | |||
La technique d'ensemble permet de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs algorithmes exécutés indépendamment. Certaines de ces méthodes utilisent des algorithmes différents et des ensembles de données différents tandis que d'autres utilisent les mêmes algorithmes avec des paramètres différents. La combinaison des résultats provenant de multiples algorithmes peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette technique d'ensemble en la combinant à des outils d'apprentissage automatique. | 14 | 14 | La technique d'ensemble permet de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs algorithmes exécutés indépendamment. Certaines de ces méthodes utilisent des algorithmes différents et des ensembles de données différents tandis que d'autres utilisent les mêmes algorithmes avec des paramètres différents. La combinaison des résultats provenant de multiples algorithmes peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette technique d'ensemble en la combinant à des outils d'apprentissage automatique. | |
15 | 15 | |||
Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des algorithmes linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est une technique d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses algorithmes d'apprentissage automatique pour surmonter les limites des algorithmes individuels. Plusieurs études démontrent que l'association de ces algorithmes permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. | 16 | 16 | Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des algorithmes linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est une technique d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses algorithmes d'apprentissage automatique pour surmonter les limites des algorithmes individuels. Plusieurs études démontrent que l'association de ces algorithmes permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. | |
17 | 17 | |||
La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. | 18 | 18 | La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. | |
19 | 19 | |||
Le raisonnement Bayésien clos ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. | 20 | 20 | Le raisonnement Bayésien clos ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. | |
21 | 21 | |||
\section{Apprentissage par empilement et raisonnement à partir de cas} | 22 | 22 | \section{Apprentissage par empilement et raisonnement à partir de cas} | |
23 | 23 | |||
Cette section présente la première version de l'algorithme que nous avons conçu pour résoudre des problèmes de régression. Celui-ci est fondé sur le raisonnement à partir de cas et l'empilement. | 24 | 24 | Cette section présente la première version de l'algorithme que nous avons conçu pour résoudre des problèmes de régression. Celui-ci est fondé sur le raisonnement à partir de cas et l'empilement. | |
25 | 25 | |||
\subsection{Algorithme Proposé} | 26 | 26 | \subsection{Algorithme Proposé} | |
27 | 27 | |||
L'algorithme proposé, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondé sur le paradigme générique du RàPC combiné à plusieurs algorithmes de recherche de voisins et de génération de solutions. Ces algorithmes ont été intégrés selon une variation de l'empilement en deux étapes itératives. Cette intégration donne à l'algorithme la capacité de s'adapter à différents types de problèmes, d'éviter les biais et le surentraînement. Les résultats de l'exécution des niveaux d'empilement stockent dans la mémoire des conteneurs de connaissances du système de RàPC des informations qui aident non seulement à l'apprentissage de l'algorithme au fil des itérations, mais facilitent également la génération de solutions à divers problèmes sur différents ensembles de données sans nécessité d'entraînement préalable. La conception itérative en deux cycles améliore la capacité du système de RàPC à travailler et à s'adapter à des problèmes dynamiques en cours d'exécution, comme le montre la figure \ref{figNCBR1}. | 28 | 28 | L'algorithme proposé, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondé sur le paradigme générique du RàPC combiné à plusieurs algorithmes de recherche de voisins et de génération de solutions. Ces algorithmes ont été intégrés selon une variation de l'empilement en deux étapes itératives. Cette intégration donne à l'algorithme la capacité de s'adapter à différents types de problèmes, d'éviter les biais et le surentraînement. Les résultats de l'exécution des niveaux d'empilement stockent dans la mémoire des conteneurs de connaissances du système de RàPC des informations qui aident non seulement à l'apprentissage de l'algorithme au fil des itérations, mais facilitent également la génération de solutions à divers problèmes sur différents ensembles de données sans nécessité d'entraînement préalable. La conception itérative en deux cycles améliore la capacité du système de RàPC à travailler et à s'adapter à des problèmes dynamiques en cours d'exécution, comme le montre la figure \ref{figNCBR1}. | |
29 | 29 | |||
\begin{figure}[!ht] | 30 | 30 | \begin{figure}[!ht] | |
\centering | 31 | 31 | \centering | |
\includegraphics[width=\textwidth]{./Figures/NCBR0.png} | 32 | 32 | \includegraphics[width=\textwidth]{./Figures/NCBR0.png} | |
\caption{Les deux cycles proposés pour le RàPC} | 33 | 33 | \caption{Les deux cycles proposés pour le RàPC} | |
\label{figNCBR1} | 34 | 34 | \label{figNCBR1} | |
\end{figure} | 35 | 35 | \end{figure} | |
36 | 36 | |||
L'étape de récupération utilise les algorithmes de recherche et le jeu de données de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problème cible. Puis l'étape de réutilisation utilise les algorithmes de génération de solutions (conteneur $C2$). L'étape de révision évalue ensuite les solutions générées et permet d'en générer de nouvelles itérativement en fonction des paramètres stockés dans le conteneur $C4$. Vient ensuite l'étape de révision prenant en considération la solution sélectionnée. Faisant suite à cette révision, l'étape de renouvellement met à jour les paramètres et les données du conteneur. Enfin, dans l'étape de capitalisation, la base de cas est mise à jour avec l'intégration du nouveau cas. Les flux d'information de l'algorithme proposé sont présentés sur la figure~\ref{figFlowCBR0}, tandis que le tableau~\ref{tabVarPar} présente l'ensemble des variables et paramètres de l'algorithme proposé. | 37 | 37 | L'étape de récupération utilise les algorithmes de recherche et le jeu de données de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problème cible. Puis l'étape de réutilisation utilise les algorithmes de génération de solutions (conteneur $C2$). L'étape de révision évalue ensuite les solutions générées et permet d'en générer de nouvelles itérativement en fonction des paramètres stockés dans le conteneur $C4$. Vient ensuite l'étape de révision prenant en considération la solution sélectionnée. Faisant suite à cette révision, l'étape de renouvellement met à jour les paramètres et les données du conteneur. Enfin, dans l'étape de capitalisation, la base de cas est mise à jour avec l'intégration du nouveau cas. Les flux d'information de l'algorithme proposé sont présentés sur la figure~\ref{figFlowCBR0}, tandis que le tableau~\ref{tabVarPar} présente l'ensemble des variables et paramètres de l'algorithme proposé. | |
38 | 38 | |||
\begin{figure}[!ht] | 39 | 39 | \begin{figure}[!ht] | |
\centering | 40 | 40 | \centering | |
\includegraphics[scale=0.6]{./Figures/FlowCBR0.png} | 41 | 41 | \includegraphics[scale=0.6]{./Figures/FlowCBR0.png} | |
\caption{Flux du \textit{Stacking} RàPC} | 42 | 42 | \caption{Flux du \textit{Stacking} RàPC} | |
\label{figFlowCBR0} | 43 | 43 | \label{figFlowCBR0} | |
\end{figure} | 44 | 44 | \end{figure} | |
45 | 45 | |||
\begin{table}[!ht] | 46 | 46 | \begin{table}[!ht] | |
\centering | 47 | 47 | \centering | |
\begin{tabular}{cccc} | 48 | 48 | \begin{tabular}{cccc} | |
ID&Type&Description&Domain\\ | 49 | 49 | ID&Type&Description&Domain\\ | |
\hline | 50 | 50 | \hline | |
$it$&p&Nombre d'itérations&$\mathbb{N}, it>0$\\ | 51 | 51 | $it$&p&Nombre d'itérations&$\mathbb{N}, it>0$\\ | |
$np$&p&Nombre de processus&$\mathbb{N}, np>2$\\ | 52 | 52 | $np$&p&Nombre de processus&$\mathbb{N}, np>2$\\ | |
$nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\ | 53 | 53 | $nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\ | |
$ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\ | 54 | 54 | $ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\ | |
$n$&v&Dimension de l'espace du problème&$\mathbb{N}, n>0$\\ | 55 | 55 | $n$&v&Dimension de l'espace du problème&$\mathbb{N}, n>0$\\ | |
$m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\ | 56 | 56 | $m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\ | |
$z$&v&Taille du jeu de données&$\mathbb{N}, z>0$\\ | 57 | 57 | $z$&v&Taille du jeu de données&$\mathbb{N}, z>0$\\ | |
$p$&v&Description du problème&$\mathbb{R} ^ n$\\ | 58 | 58 | $p$&v&Description du problème&$\mathbb{R} ^ n$\\ | |
$s$&v&Description de la solution&$\mathbb{R} ^ m$\\ | 59 | 59 | $s$&v&Description de la solution&$\mathbb{R} ^ m$\\ | |
$r_a$&v&Nombre d'algorithmes pour l'étape retrouver&$\mathbb{N}, r_a>2$\\ | 60 | 60 | $r_a$&v&Nombre d'algorithmes pour l'étape retrouver&$\mathbb{N}, r_a>2$\\ | |
$r_b$&v&Nombre d'algorithmes pour l'étape de réutilisation&$\mathbb{N}, r_b>2$\\ | 61 | 61 | $r_b$&v&Nombre d'algorithmes pour l'étape de réutilisation&$\mathbb{N}, r_b>2$\\ | |
$at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\ | 62 | 62 | $at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\ | |
$nl_i$&v&Nombre de voisins locaux pour l'algorithme $i$&$\mathbb{N}, nl_i \le nl$\\ | 63 | 63 | $nl_i$&v&Nombre de voisins locaux pour l'algorithme $i$&$\mathbb{N}, nl_i \le nl$\\ | |
$g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\ | 64 | 64 | $g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\ | |
$v$&v&Évaluation de la meilleure solution globale&$\mathbb{R}$\\ | 65 | 65 | $v$&v&Évaluation de la meilleure solution globale&$\mathbb{R}$\\ | |
$d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\ | 66 | 66 | $d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\ | |
$MP(x_1^z,x_2,a)$&f&Fonction pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\ | 67 | 67 | $MP(x_1^z,x_2,a)$&f&Fonction pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\ | |
$MS(x_1^m)$&f&Fonction pour réutiliser avec $x_1$ &$\mathbb{R}^m$\\ | 68 | 68 | $MS(x_1^m)$&f&Fonction pour réutiliser avec $x_1$ &$\mathbb{R}^m$\\ | |
$f_s(p^n,s^m)$&f&Évaluation des solutions&$\mathbb{R}$\\ | 69 | 69 | $f_s(p^n,s^m)$&f&Évaluation des solutions&$\mathbb{R}$\\ | |
\end{tabular} | 70 | 70 | \end{tabular} | |
\caption{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)} | 71 | 71 | \caption{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)} | |
\label{tabVarPar} | 72 | 72 | \label{tabVarPar} | |
\end{table} | 73 | 73 | \end{table} | |
74 | 74 | |||
\subsubsection{Rechercher} | 75 | 75 | \subsubsection{Rechercher} | |
La première étape de l'algorithme consiste à trouver les cas les plus similaires à un nouveau cas (appelé \textit{cas cible}). Pour ce faire, l'empilement de différents processus présenté sur la figure \ref{figSta1} est utilisé. Au niveau-0, chaque processus sélectionne et exécute un algorithme de recherche de voisins différents choisi parmi $r_a$ algorithmes dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi aléatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les résultats sont unifiés en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont été mis en œuvre pour l'étape de récupération : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation. | 76 | 76 | La première étape de l'algorithme consiste à trouver les cas les plus similaires à un nouveau cas (appelé \textit{cas cible}). Pour ce faire, l'empilement de différents processus présenté sur la figure \ref{figSta1} est utilisé. Au niveau-0, chaque processus sélectionne et exécute un algorithme de recherche de voisins différents choisi parmi $r_a$ algorithmes dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi aléatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les résultats sont unifiés en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont été mis en œuvre pour l'étape de récupération : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation. | |
77 | 77 | |||
\begin{figure} | 78 | 78 | \begin{figure} | |
\centering | 79 | 79 | \centering | |
\includegraphics[width=\textwidth]{./Figures/Stacking1.png} | 80 | 80 | \includegraphics[width=\textwidth]{./Figures/Stacking1.png} | |
\caption{\textit{Stacking} pour chercher les plus proches voisins} | 81 | 81 | \caption{\textit{Stacking} pour chercher les plus proches voisins} | |
\label{figSta1} | 82 | 82 | \label{figSta1} | |
\end{figure} | 83 | 83 | \end{figure} | |
84 | 84 | |||
Formellement, le premier empilement proposé fonctionne avec deux paramètres : %\textcolor{red}{quels sont les 2 paramètres?} | 85 | 85 | Formellement, le premier empilement proposé fonctionne avec deux paramètres : %\textcolor{red}{quels sont les 2 paramètres?} | |
un jeu de données de $z$ cas où un cas est composé de la description du problème et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de générer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exécuté, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est généré. Au niveau-1, un ensemble global est créé à l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le résultat du premier empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches. | 86 | 86 | un jeu de données de $z$ cas où un cas est composé de la description du problème et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de générer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exécuté, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est généré. Au niveau-1, un ensemble global est créé à l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le résultat du premier empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches. | |
87 | 87 | |||
\subsubsection{Réutiliser} | 88 | 88 | \subsubsection{Réutiliser} | |
89 | 89 | |||
Une fois la liste globale des cas similaires établie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisées pour générer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations représentés sur la figure \ref{figAuto}. La génération est effectuée avec un deuxième empilement de différents processus. Cet empilement est représenté sur la figure \ref{figSta2}. Au niveau-0, chaque processus sélectionne et exécute un algorithme de génération différent à partir des algorithmes $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions générées sont stockées dans une mémoire globale. Toutes les solutions connues et générées sont représentées avec la même structure comme le montre la figure \ref{figSolRep}. | 90 | 90 | Une fois la liste globale des cas similaires établie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisées pour générer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations représentés sur la figure \ref{figAuto}. La génération est effectuée avec un deuxième empilement de différents processus. Cet empilement est représenté sur la figure \ref{figSta2}. Au niveau-0, chaque processus sélectionne et exécute un algorithme de génération différent à partir des algorithmes $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions générées sont stockées dans une mémoire globale. Toutes les solutions connues et générées sont représentées avec la même structure comme le montre la figure \ref{figSolRep}. | |
91 | 91 | |||
\begin{figure}[!ht] | 92 | 92 | \begin{figure}[!ht] | |
\centering | 93 | 93 | \centering | |
\includegraphics[scale=1]{./Figures/SolRep.png} | 94 | 94 | \includegraphics[scale=1]{./Figures/SolRep.png} | |
\caption{Représentation des solutions connues et générées} | 95 | 95 | \caption{Représentation des solutions connues et générées} | |
\label{figSolRep} | 96 | 96 | \label{figSolRep} | |
\end{figure} | 97 | 97 | \end{figure} | |
98 | 98 | |||
Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération. | 99 | 99 | Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération. | |
100 | 100 | |||
\begin{figure}[!ht] | 101 | 101 | \begin{figure}[!ht] | |
\centering | 102 | 102 | \centering | |
\includegraphics[width=\textwidth]{./Figures/AutomaticS.png} | 103 | 103 | \includegraphics[width=\textwidth]{./Figures/AutomaticS.png} | |
\caption{Génération et vérification automatique des solutions} | 104 | 104 | \caption{Génération et vérification automatique des solutions} | |
\label{figAuto} | 105 | 105 | \label{figAuto} | |
\end{figure} | 106 | 106 | \end{figure} | |
107 | 107 | |||
La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}. | 108 | 108 | La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}. | |
Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. | 109 | 109 | Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. | |
110 | 110 | |||
\begin{equation} | 111 | 111 | \begin{equation} | |
\alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) | 112 | 112 | \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) | |
\label{gen00} | 113 | 113 | \label{gen00} | |
\end{equation} | 114 | 114 | \end{equation} | |
115 | 115 | |||
\begin{equation} | 116 | 116 | \begin{equation} | |
s^m_{j,w}=\sum_{i=0}^{nl-1} \alpha_j s_{i,j} | 117 | 117 | s^m_{j,w}=\sum_{i=0}^{nl-1} \alpha_j s_{i,j} | |
\label{gen01} | 118 | 118 | \label{gen01} | |
\end{equation} | 119 | 119 | \end{equation} | |
120 | 120 | |||
La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}. | 121 | 121 | La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}. | |
122 | 122 | |||
\begin{equation} | 123 | 123 | \begin{equation} | |
s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl-1} s_{i,j} | 124 | 124 | s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl-1} s_{i,j} | |
\label{gen2} | 125 | 125 | \label{gen2} | |
\end{equation} | 126 | 126 | \end{equation} | |
127 | 127 | |||
La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$. | 128 | 128 | La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$. | |
129 | 129 | |||
\begin{equation} | 130 | 130 | \begin{equation} | |
s_{j,w}^m= | 131 | 131 | s_{j,w}^m= | |
\begin{cases} | 132 | 132 | \begin{cases} | |
x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\ | 133 | 133 | x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\ | |
\frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\ | 134 | 134 | \frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\ | |
\end{cases} | 135 | 135 | \end{cases} | |
\label{eqgen3} | 136 | 136 | \label{eqgen3} | |
\end{equation} | 137 | 137 | \end{equation} | |
138 | 138 | |||
La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité. | 139 | 139 | La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité. | |
140 | 140 | |||
\begin{equation} | 141 | 141 | \begin{equation} | |
s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right) | 142 | 142 | s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right) | |
\label{eqgen4} | 143 | 143 | \label{eqgen4} | |
\end{equation} | 144 | 144 | \end{equation} | |
145 | 145 | |||
"Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}. | 146 | 146 | "Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}. | |
147 | 147 | |||
\begin{equation} | 148 | 148 | \begin{equation} | |
s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) | 149 | 149 | s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) | |
\label{eqgen5} | 150 | 150 | \label{eqgen5} | |
\end{equation} | 151 | 151 | \end{equation} | |
152 | 152 | |||
Le vote permet de copier l'information la plus fréquente de toutes \ref{eqgen6}. | 153 | 153 | Le vote permet de copier l'information la plus fréquente de toutes \ref{eqgen6}. | |
154 | 154 | |||
\begin{equation} | 155 | 155 | \begin{equation} | |
s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl | 156 | 156 | s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl | |
\label{eqgen6} | 157 | 157 | \label{eqgen6} | |
\end{equation} | 158 | 158 | \end{equation} | |
159 | 159 | |||
L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}. | 160 | 160 | L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}. | |
161 | 161 | |||
\begin{equation} | 162 | 162 | \begin{equation} | |
s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl | 163 | 163 | s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl | |
\label{eqgen7} | 164 | 164 | \label{eqgen7} | |
\end{equation} | 165 | 165 | \end{equation} | |
166 | 166 | |||
L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition. | 167 | 167 | L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition. | |
168 | 168 | |||
La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. | 169 | 169 | La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. | |
170 | 170 | |||
L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. | 171 | 171 | L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. | |
172 | 172 | |||
La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $\Delta$ est ajouté à sa valeur. La valeur de $\Delta$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$. | 173 | 173 | La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $\Delta$ est ajouté à sa valeur. La valeur de $\Delta$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$. | |
174 | 174 | |||
\begin{equation} | 175 | 175 | \begin{equation} | |
k \sim \left(\frac{1}{nl}\right) | 176 | 176 | k \sim \left(\frac{1}{nl}\right) | |
\end{equation} | 177 | 177 | \end{equation} | |
178 | 178 | |||
\begin{equation} | 179 | 179 | \begin{equation} | |
s_{w,j}^m=\begin{cases} | 180 | 180 | s_{w,j}^m=\begin{cases} | |
s_{j,k}^m+\mathcal{N}(0,1)& si \; (\mathcal{U}_{int}(0,10))\%2=0\\ | 181 | 181 | s_{j,k}^m+X_1& si \; (X_2)\%2=0\\ | |
s_{j,k}^m-\mathcal{N}(0,1)&sinon | 182 | 182 | s_{j,k}^m-X_1&sinon | |
\end{cases} | 183 | 183 | \end{cases};X_1 \sim \mathcal{N}(0,1), X_2 \sim \mathcal{U}_{int}(0,10) | |
\end{equation} | 184 | 184 | \end{equation} | |
185 | 185 | |||
\begin{figure} | 186 | 186 | \begin{figure} | |
\centering | 187 | 187 | \centering | |
\includegraphics[width=\textwidth]{./Figures/Stacking2.png} | 188 | 188 | \includegraphics[width=\textwidth]{./Figures/Stacking2.png} | |
\caption{\textit{Stacking} pour la génération de solutions} | 189 | 189 | \caption{\textit{Stacking} pour la génération de solutions} | |
\label{figSta2} | 190 | 190 | \label{figSta2} | |
\end{figure} | 191 | 191 | \end{figure} | |
192 | 192 | |||
La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième empilement. Chaque algorithme décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution. | 193 | 193 | La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième empilement. Chaque algorithme décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution. | |
194 | 194 | |||
\subsubsection{Révision} | 195 | 195 | \subsubsection{Révision} | |
196 | 196 | |||
Dans cette phase, le problème de l'évaluation automatique d'une solution candidate est transformé en un problème d'optimisation, où la fonction objectif est \ref{eqOpt}. Ce problème revient à calculer la moyenne géométrique ou encore à résoudre le problème de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, résoudre ce problème revient à calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problème en deux dimensions. Sur cette figure, le point rouge représente une solution possible minimisant la somme des distances entre ce point et tous les autres points définis dans l'espace. | 197 | 197 | Dans cette phase, le problème de l'évaluation automatique d'une solution candidate est transformé en un problème d'optimisation, où la fonction objectif est \ref{eqOpt}. Ce problème revient à calculer la moyenne géométrique ou encore à résoudre le problème de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, résoudre ce problème revient à calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problème en deux dimensions. Sur cette figure, le point rouge représente une solution possible minimisant la somme des distances entre ce point et tous les autres points définis dans l'espace. | |
198 | 198 | |||
La fonction objectif \ref{eqOpt} établit un rapport entre la distance de la solution générée $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur aléatoire de \textit{drift} d'une part, et la distance entre le problème cible $p^n_w$ et les $x$ problèmes connus $p^n_x$ d'autre part. Ici, la difficulté à trouver le point optimal réside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dépend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problème et solution) pour valider et générer l'ensemble de solutions proposées.\\ | 199 | 199 | La fonction objectif \ref{eqOpt} établit un rapport entre la distance de la solution générée $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur aléatoire de \textit{drift} d'une part, et la distance entre le problème cible $p^n_w$ et les $x$ problèmes connus $p^n_x$ d'autre part. Ici, la difficulté à trouver le point optimal réside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dépend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problème et solution) pour valider et générer l'ensemble de solutions proposées.\\ | |
200 | 200 | |||
\begin{equation} | 201 | 201 | \begin{equation} | |
\lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+rn(0,d(p_w^n, p_i^n))))}{d(p_w^n,p_x^n)^2} \right) | 202 | 202 | \lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+X)))}{d(p_w^n,p_x^n)^2} \right); \; X \sim \mathcal{N}(0,d(p_w^n, p_x^n) | |
\label{eqOpt0} | 203 | 203 | \label{eqOpt0} | |
\end{equation} | 204 | 204 | \end{equation} | |
205 | 205 | |||
\begin{equation} | 206 | 206 | \begin{equation} | |
min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right) | 207 | 207 | min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right) | |
\label{eqOpt} | 208 | 208 | \label{eqOpt} | |
\end{equation} | 209 | 209 | \end{equation} | |
210 | 210 | |||
\begin{figure}[!ht] | 211 | 211 | \begin{figure}[!ht] | |
\centering | 212 | 212 | \centering | |
\includegraphics[width=\textwidth]{Figures/FW.png} | 213 | 213 | \includegraphics[width=\textwidth]{Figures/FW.png} | |
\caption{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda_1,..,\lambda_7$) et point rouge solution au problème)} | 214 | 214 | \caption{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda_1,..,\lambda_7$) et point rouge solution au problème)} | |
\label{fig:FW} | 215 | 215 | \label{fig:FW} | |
\end{figure} | 216 | 216 | \end{figure} | |
217 | 217 | |||
Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée. | 218 | 218 | Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée. | |
219 | 219 | |||
\subsubsection{Mémorisation} | 220 | 220 | \subsubsection{Mémorisation} | |
221 | 221 | |||
L'étape de mémorisation consiste simplement à prendre la meilleure solution proposée et à déterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrée dans la base de connaissances. | 222 | 222 | L'étape de mémorisation consiste simplement à prendre la meilleure solution proposée et à déterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrée dans la base de connaissances. | |
223 | 223 | |||
\subsection{Résultats} | 224 | 224 | \subsection{Résultats} | |
225 | 225 | |||
Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | 226 | 226 | Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | |
227 | 227 | |||
\begin{table}[!ht] | 228 | 228 | \begin{table}[!ht] | |
\tiny | 229 | 229 | \tiny | |
\centering | 230 | 230 | \centering | |
\begin{tabular}{llccccc} | 231 | 231 | \begin{tabular}{llccccc} | |
ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\ | 232 | 232 | ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\ | |
\hline | 233 | 233 | \hline | |
DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | 234 | 234 | DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | 235 | 235 | DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 236 | 236 | DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | 237 | 237 | DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | 238 | 238 | DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 239 | 239 | DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 240 | 240 | DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 241 | 241 | DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\ | 242 | 242 | DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\ | |
DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\ | 243 | 243 | DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\ | |
\end{tabular} | 244 | 244 | \end{tabular} | |
\caption{Description des jeux de données évaluées.} | 245 | 245 | \caption{Description des jeux de données évaluées.} | |
\label{tabBases2} | 246 | 246 | \label{tabBases2} | |
\end{table} | 247 | 247 | \end{table} | |
248 | 248 | |||
L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs. | 249 | 249 | L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs. | |
250 | 250 | |||
\begin{table}[!ht] | 251 | 251 | \begin{table}[!ht] | |
\centering | 252 | 252 | \centering | |
\footnotesize | 253 | 253 | \footnotesize | |
\begin{tabular}{ll|ll} | 254 | 254 | \begin{tabular}{ll|ll} | |
ID&Algorithme&ID&Algorithme\\ | 255 | 255 | ID&Algorithme&ID&Algorithme\\ | |
\hline | 256 | 256 | \hline | |
A1&Linear Regression&A6&Polinomial Regression\\ | 257 | 257 | A1&Linear Regression&A6&Polinomial Regression\\ | |
A2&K-Nearest Neighbor&A7&Ridge Regression\\ | 258 | 258 | A2&K-Nearest Neighbor&A7&Ridge Regression\\ | |
A3&Decision Tree&A8&Lasso Regression\\ | 259 | 259 | A3&Decision Tree&A8&Lasso Regression\\ | |
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | 260 | 260 | A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | |
A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\ | 261 | 261 | A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\ | |
\end{tabular} | 262 | 262 | \end{tabular} | |
\caption{Liste des algorithmes évalués} | 263 | 263 | \caption{Liste des algorithmes évalués} | |
\label{tabAlgs2} | 264 | 264 | \label{tabAlgs2} | |
\end{table} | 265 | 265 | \end{table} | |
266 | 266 | |||
Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données. | 267 | 267 | Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données. | |
268 | 268 | |||
\begin{table}[!ht] | 269 | 269 | \begin{table}[!ht] | |
\footnotesize | 270 | 270 | \footnotesize | |
\centering | 271 | 271 | \centering | |
\begin{tabular}{c|ccccccccccc} | 272 | 272 | \begin{tabular}{c|ccccccccccc} | |
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | 273 | 273 | Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
\hline | 274 | 274 | \hline | |
DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\ | 275 | 275 | DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\ | |
DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\ | 276 | 276 | DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\ | |
DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\ | 277 | 277 | DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\ | |
DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\ | 278 | 278 | DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\ | |
DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\ | 279 | 279 | DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\ | |
DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\ | 280 | 280 | DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\ | |
DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\ | 281 | 281 | DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\ | |
DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\ | 282 | 282 | DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\ | |
DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\ | 283 | 283 | DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\ | |
DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\ | 284 | 284 | DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\ | |
\hline | 285 | 285 | \hline | |
Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\ | 286 | 286 | Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\ | |
\end{tabular} | 287 | 287 | \end{tabular} | |
\caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | 288 | 288 | \caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | |
\label{tabRes1_2} | 289 | 289 | \label{tabRes1_2} | |
\end{table} | 290 | 290 | \end{table} | |
291 | 291 | |||
\begin{table}[!ht] | 292 | 292 | \begin{table}[!ht] | |
\footnotesize | 293 | 293 | \footnotesize | |
\centering | 294 | 294 | \centering | |
\begin{tabular}{c|ccccccccccc} | 295 | 295 | \begin{tabular}{c|ccccccccccc} | |
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | 296 | 296 | Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
\hline | 297 | 297 | \hline | |
DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\ | 298 | 298 | DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\ | |
DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\ | 299 | 299 | DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\ | |
DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\ | 300 | 300 | DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\ | |
DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\ | 301 | 301 | DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\ | |
DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\ | 302 | 302 | DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\ | |
DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\ | 303 | 303 | DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\ | |
DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\ | 304 | 304 | DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\ | |
DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\ | 305 | 305 | DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\ | |
DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\ | 306 | 306 | DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\ | |
DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\ | 307 | 307 | DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\ | |
\hline | 308 | 308 | \hline | |
Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\ | 309 | 309 | Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\ | |
\end{tabular} | 310 | 310 | \end{tabular} | |
\caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | 311 | 311 | \caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | |
\label{tabRes2_2} | 312 | 312 | \label{tabRes2_2} | |
\end{table} | 313 | 313 | \end{table} | |
314 | 314 | |||
La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés. | 315 | 315 | La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés. | |
316 | 316 | |||
\begin{figure} | 317 | 317 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/boxplot.png} | 318 | 318 | \includegraphics[width=\textwidth]{./Figures/boxplot.png} | |
\caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives} | 319 | 319 | \caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives} | |
\label{figBox2} | 320 | 320 | \label{figBox2} | |
\end{figure} | 321 | 321 | \end{figure} | |
322 | 322 | |||
\subsection{Discussion} | 323 | 323 | \subsection{Discussion} | |
324 | 324 | |||
De par ses performances, ESCBR se révèle compétitif par rapport à certains des neuf autres algorithmes testés pour la prédiction dans les problèmes de régression. En particulier, dans ce travail, nous avons effectué les tests sur dix jeux de données aux caractéristiques variées, telles que le nombre d'instances, le nombre de caractéristiques, le domaine des variables d'entrée, les dimensions de la variable de sortie et le domaine d'application. Cela démontre la polyvalence de l'algorithme proposé et son applicabilité à différentes configurations. Étant donné la nature exploratoire et stochastique d'ESCBR, il présente une grande diversité de solutions générant plusieurs valeurs aberrantes. Malgré cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois élevées, mais celles de la médiane restent faibles, la médiane atténuant les disparités. | 325 | 325 | De par ses performances, ESCBR se révèle compétitif par rapport à certains des neuf autres algorithmes testés pour la prédiction dans les problèmes de régression. En particulier, dans ce travail, nous avons effectué les tests sur dix jeux de données aux caractéristiques variées, telles que le nombre d'instances, le nombre de caractéristiques, le domaine des variables d'entrée, les dimensions de la variable de sortie et le domaine d'application. Cela démontre la polyvalence de l'algorithme proposé et son applicabilité à différentes configurations. Étant donné la nature exploratoire et stochastique d'ESCBR, il présente une grande diversité de solutions générant plusieurs valeurs aberrantes. Malgré cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois élevées, mais celles de la médiane restent faibles, la médiane atténuant les disparités. | |
326 | 326 | |||
On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire). | 327 | 327 | On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire). | |
328 | 328 | |||
Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place. | 329 | 329 | Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place. | |
330 | 330 | |||
Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique. | 331 | 331 | Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique. | |
332 | 332 | |||
De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certaines problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables. | 333 | 333 | De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certaines problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables. | |
334 | 334 | |||
\subsection{Conclusion} | 335 | 335 | \subsection{Conclusion} | |
336 | 336 | |||
Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et une technique d'empilement que nous avons baptisé ESCBR. Cet algorithme ne nécessite pas d'entrainement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\ | 337 | 337 | Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et une technique d'empilement que nous avons baptisé ESCBR. Cet algorithme ne nécessite pas d'entrainement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\ | |
338 | 338 | |||
\section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR} | 339 | 339 | \section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR} | |
340 | 340 | |||
La méthode ESCBR que nous avons proposée dans la section précédente est fondée sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposées par des processus intelligents et concurrents pour en générer une, nous nous sommes tout naturellement tournés vers la possibilité d'inclure des agents dans le processus de décision. L'une des ambitions des systèmes multi-agents consiste en effet à faire émerger une intelligence collective capable de fournir une solution. Cette section présente donc l'évolution d'ESCBR en ESCBR-SMA. | 341 | 341 | La méthode ESCBR que nous avons proposée dans la section précédente est fondée sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposées par des processus intelligents et concurrents pour en générer une, nous nous sommes tout naturellement tournés vers la possibilité d'inclure des agents dans le processus de décision. L'une des ambitions des systèmes multi-agents consiste en effet à faire émerger une intelligence collective capable de fournir une solution. Cette section présente donc l'évolution d'ESCBR en ESCBR-SMA. | |
342 | 342 | |||
\subsection{Algorithme Proposé} | 343 | 343 | \subsection{Algorithme Proposé} | |
344 | 344 | |||
L'algorithme ESCBR-SMA est fondé sur le paradigme du RàPC et incorpore divers algorithmes de recherche de voisins et de génération de solutions. Ceux-ci sont intégrés à l'aide d'une variante de la technique d'empilement en deux étapes itératives, exécutées par des agents qui exploitent indépendamment les algorithmes définis dans les conteneurs de connaissances de la révision et de la réutilisation du cycle classique du RàPC. Les agents possèdent une mémoire locale qui leur permet d'ajuster et de développer leur recherche de voisins, en générant des solutions à chaque itération. Chaque agent a un comportement individuel autorisant l'échange d'informations avec les autres agents. La figure \ref{figNCBR} décrit le processus de décision et les comportements des agents au sein du système élargi. | 345 | 345 | L'algorithme ESCBR-SMA est fondé sur le paradigme du RàPC et incorpore divers algorithmes de recherche de voisins et de génération de solutions. Ceux-ci sont intégrés à l'aide d'une variante de la technique d'empilement en deux étapes itératives, exécutées par des agents qui exploitent indépendamment les algorithmes définis dans les conteneurs de connaissances de la révision et de la réutilisation du cycle classique du RàPC. Les agents possèdent une mémoire locale qui leur permet d'ajuster et de développer leur recherche de voisins, en générant des solutions à chaque itération. Chaque agent a un comportement individuel autorisant l'échange d'informations avec les autres agents. La figure \ref{figNCBR} décrit le processus de décision et les comportements des agents au sein du système élargi. | |
346 | 346 | |||
\begin{figure}[!ht] | 347 | 347 | \begin{figure}[!ht] | |
\centering | 348 | 348 | \centering | |
\includegraphics[width=\textwidth]{Figures/NCBR.png} | 349 | 349 | \includegraphics[width=\textwidth]{Figures/NCBR.png} | |
\caption{Deux cycles du système ESCBR-SMA proposé} | 350 | 350 | \caption{Deux cycles du système ESCBR-SMA proposé} | |
\label{figNCBR} | 351 | 351 | \label{figNCBR} | |
\end{figure} | 352 | 352 | \end{figure} | |
353 | 353 | |||
Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problème au cours de la première étape puis, au cours de la seconde, génère une solution en se référant à la liste des solutions obtenues au cours de la première étape. À chaque itération, les agents peuvent choisir parmi trois comportements programmés : la recherche de problèmes voisins, la génération de solutions ou l'échange d'informations avec un autre agent. L'exécution de ces trois comportements programmés est asynchrone. En revanche, la création et la sélection de la liste des voisins se font de manière synchronisée. | 354 | 354 | Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problème au cours de la première étape puis, au cours de la seconde, génère une solution en se référant à la liste des solutions obtenues au cours de la première étape. À chaque itération, les agents peuvent choisir parmi trois comportements programmés : la recherche de problèmes voisins, la génération de solutions ou l'échange d'informations avec un autre agent. L'exécution de ces trois comportements programmés est asynchrone. En revanche, la création et la sélection de la liste des voisins se font de manière synchronisée. | |
355 | 355 | |||
Les étapes d'extraction, de réutilisation, de révision et de conservation restent conformes au RàPC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles étapes : | 356 | 356 | Les étapes d'extraction, de réutilisation, de révision et de conservation restent conformes au RàPC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles étapes : | |
\begin{itemize} | 357 | 357 | \begin{itemize} | |
\item durant la phase de reconfiguration, les agents mettent à jour les valeurs de leurs paramètres locaux afin d'améliorer la qualité de la solution proposée lors de l'itération suivante, | 358 | 358 | \item durant la phase de reconfiguration, les agents mettent à jour les valeurs de leurs paramètres locaux afin d'améliorer la qualité de la solution proposée lors de l'itération suivante, | |
\item durant la phase d'échange, les agents échangent des informations pour améliorer leurs processus internes de recherche et de génération, | 359 | 359 | \item durant la phase d'échange, les agents échangent des informations pour améliorer leurs processus internes de recherche et de génération, | |
\item enfin, l'étape de révision met à jour les valeurs des paramètres globaux de l'algorithme. | 360 | 360 | \item enfin, l'étape de révision met à jour les valeurs des paramètres globaux de l'algorithme. | |
\end{itemize} | 361 | 361 | \end{itemize} | |
362 | 362 | |||
Le flux complet de l'algorithme proposé est décrit sur la figure \ref{figFlowCBR}. | 363 | 363 | Le flux complet de l'algorithme proposé est décrit sur la figure \ref{figFlowCBR}. | |
364 | 364 | |||
En premier lieu, ESCBR-SMA crée $n$ agents. Lors de l'initialisation, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, et initialisent également les vecteurs bayésiens correspondants. Tous les agents travaillent avec le même ensemble de données. | 365 | 365 | En premier lieu, ESCBR-SMA crée $n$ agents. Lors de l'initialisation, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, et initialisent également les vecteurs bayésiens correspondants. Tous les agents travaillent avec le même ensemble de données. | |
366 | 366 | |||
Les agents exécutent en parallèle l'algorithme de récupération sélectionné, à partir des problèmes similaires trouvés ; chaque agent extrait les solutions et exécute l'algorithme spécifique de génération d'une nouvelle solution. | 367 | 367 | Les agents exécutent en parallèle l'algorithme de récupération sélectionné, à partir des problèmes similaires trouvés ; chaque agent extrait les solutions et exécute l'algorithme spécifique de génération d'une nouvelle solution. | |
Toutes les solutions proposées par les agents sont évaluées à l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvée à ce stade. | 368 | 368 | Toutes les solutions proposées par les agents sont évaluées à l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvée à ce stade. | |
369 | 369 | |||
Au cours de l'étape suivante, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, puis ils mettent à jour les vecteurs bayésiens en fonction des résultats obtenus avec la fonction objectif. | 370 | 370 | Au cours de l'étape suivante, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, puis ils mettent à jour les vecteurs bayésiens en fonction des résultats obtenus avec la fonction objectif. | |
371 | 371 | |||
Lors de l'itération suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de récupération et de réutilisation, ne changer que l'algorithme de réutilisation ou échanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit aléatoirement une action pour tenter d'améliorer la solution candidate. | 372 | 372 | Lors de l'itération suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de récupération et de réutilisation, ne changer que l'algorithme de réutilisation ou échanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit aléatoirement une action pour tenter d'améliorer la solution candidate. | |
373 | 373 | |||
ESCBR-SMA utilise l'ensemble des variables et paramètres du tableau \ref{tabVarPar} ainsi que ceux consignés dans le tableau \ref{tabVarPar2}. Le système multi-agents est composé d'un nombre variable d'agents, tous homogènes mais dotés de processus cognitifs internes indépendants et stochastiques. | 374 | 374 | ESCBR-SMA utilise l'ensemble des variables et paramètres du tableau \ref{tabVarPar} ainsi que ceux consignés dans le tableau \ref{tabVarPar2}. Le système multi-agents est composé d'un nombre variable d'agents, tous homogènes mais dotés de processus cognitifs internes indépendants et stochastiques. | |
375 | 375 | |||
\begin{figure}[!ht] | 376 | 376 | \begin{figure}[!ht] | |
\centering | 377 | 377 | \centering | |
\includegraphics[scale=0.6]{Figures/FlowCBR.png} | 378 | 378 | \includegraphics[scale=0.6]{Figures/FlowCBR.png} | |
\caption{Flux du \textit{Stacking} du RàPC (* : tâche effectuée par chaque agent)} | 379 | 379 | \caption{Flux du \textit{Stacking} du RàPC (* : tâche effectuée par chaque agent)} | |
\label{figFlowCBR} | 380 | 380 | \label{figFlowCBR} | |
\end{figure} | 381 | 381 | \end{figure} | |
382 | 382 | |||
\begin{table}[!ht] | 383 | 383 | \begin{table}[!ht] | |
\footnotesize | 384 | 384 | \footnotesize | |
\centering | 385 | 385 | \centering | |
\begin{tabular}{cccc} | 386 | 386 | \begin{tabular}{cccc} | |
ID&Type&Description&Domain\\ | 387 | 387 | ID&Type&Description&Domain\\ | |
\hline | 388 | 388 | \hline | |
$p_w$&v&Description du nouveau problème&$\mathbb{R} ^ n$\\ | 389 | 389 | $p_w$&v&Description du nouveau problème&$\mathbb{R} ^ n$\\ | |
$s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\ | 390 | 390 | $s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\ | |
$n_{rt}$&v&Nombre d'algorithmes pour l'étape de rétrouver&$\mathbb{Z}$\\ | 391 | 391 | $n_{rt}$&v&Nombre d'algorithmes pour l'étape de rétrouver&$\mathbb{Z}$\\ | |
$n_{rs}$&v&Nombre d'algorithmes de réutilisation&$\mathbb{Z}$\\ | 392 | 392 | $n_{rs}$&v&Nombre d'algorithmes de réutilisation&$\mathbb{Z}$\\ | |
$rn(x,y)$&f& | 393 | 393 | $rn(x,y)$&f& | |
394 | 394 | |||
\begin{tabular}{@{}c@{}}Valeur aléatoire avec distribution normale\\ $x$ moyenne, $y$ écart-type | 395 | 395 | \begin{tabular}{@{}c@{}}Valeur aléatoire avec distribution normale\\ $x$ moyenne, $y$ écart-type | |
\end{tabular} | 396 | 396 | \end{tabular} | |
397 | 397 | |||
&$\mathbb{R}_+$\\ | 398 | 398 | &$\mathbb{R}_+$\\ | |
$rnp(x,y)$&f& | 399 | 399 | $rnp(x,y)$&f& | |
400 | 400 | |||
\begin{tabular}{@{}c@{}}Valeur aléatoire discrète, $x$ nombre d'options \\ $y$ vecteur discret de probabilités | 401 | 401 | \begin{tabular}{@{}c@{}}Valeur aléatoire discrète, $x$ nombre d'options \\ $y$ vecteur discret de probabilités | |
\end{tabular} | 402 | 402 | \end{tabular} | |
&$\mathbb{Z}$\\ | 403 | 403 | &$\mathbb{Z}$\\ | |
\end{tabular} | 404 | 404 | \end{tabular} | |
\caption{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)} | 405 | 405 | \caption{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)} | |
\label{tabVarPar2} | 406 | 406 | \label{tabVarPar2} | |
\end{table} | 407 | 407 | \end{table} | |
408 | 408 | |||
\subsubsection{Algorithmes} | 409 | 409 | \subsubsection{Algorithmes} | |
410 | 410 | |||
Cette section présente de manière plus détaillée les comportements des agents d'ESCBR-SMA. | 411 | 411 | Cette section présente de manière plus détaillée les comportements des agents d'ESCBR-SMA. | |
412 | 412 | |||
Lors de la première étape de l'empilement, chaque agent peut sélectionner l'un des algorithmes suivants pour rechercher des problèmes similaires au problème cible : KNN (\textit{K-Nearest Neighbor}), \textit{KMeans}, GMM (\textit{Gaussian Mixture Model}), \textit{FuzzyC} et KNN pondéré. | 413 | 413 | Lors de la première étape de l'empilement, chaque agent peut sélectionner l'un des algorithmes suivants pour rechercher des problèmes similaires au problème cible : KNN (\textit{K-Nearest Neighbor}), \textit{KMeans}, GMM (\textit{Gaussian Mixture Model}), \textit{FuzzyC} et KNN pondéré. | |
414 | 414 | |||
Lors de la deuxième étape de l'empilement, les agents peuvent choisir un algorithme parmi les algorithmes explicités dans la section 6.2.1.2. | 415 | 415 | Lors de la deuxième étape de l'empilement, les agents peuvent choisir un algorithme parmi les algorithmes explicités dans la section 6.2.1.2. | |
416 | 416 | |||
\subsubsection{Structure des agents} | 417 | 417 | \subsubsection{Structure des agents} | |
418 | 418 | |||
Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'adopter un comportement indépendant et différent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nécessaires à l'exécution de l'ensemble du processus. | 419 | 419 | Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'adopter un comportement indépendant et différent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nécessaires à l'exécution de l'ensemble du processus. | |
420 | 420 | |||
Chaque agent peut exécuter trois actions différentes : | 421 | 421 | Chaque agent peut exécuter trois actions différentes : | |
\begin{itemize} | 422 | 422 | \begin{itemize} | |
\item « Récupérer et réutiliser », | 423 | 423 | \item « Récupérer et réutiliser », | |
\item « Réutiliser » et | 424 | 424 | \item « Réutiliser » et | |
\item « Échanger ». | 425 | 425 | \item « Échanger ». | |
\end{itemize} | 426 | 426 | \end{itemize} | |
427 | 427 | |||
Chaque agent accède aux valeurs de huit variables qui lui sont propres : | 428 | 428 | Chaque agent accède aux valeurs de huit variables qui lui sont propres : | |
\begin{itemize} | 429 | 429 | \begin{itemize} | |
\item le nombre de voisins définissant le nombre de problèmes similaires au nouveau problème posé que l'agent doit rechercher dans la base de connaissances, | 430 | 430 | \item le nombre de voisins définissant le nombre de problèmes similaires au nouveau problème posé que l'agent doit rechercher dans la base de connaissances, | |
\item la liste des voisins les plus proches consigne les agents avec lesquels des informations peuvent être échangées, | 431 | 431 | \item la liste des voisins les plus proches consigne les agents avec lesquels des informations peuvent être échangées, | |
\item l'identifiant de l'algorithme de récupération que l'agent exécutera pour trouver les problèmes similaires au problème cible, | 432 | 432 | \item l'identifiant de l'algorithme de récupération que l'agent exécutera pour trouver les problèmes similaires au problème cible, | |
\item l'identifiant de l'algorithme de réutilisation que l'agent exécutera pour générer une solution candidate au cas cible, | 433 | 433 | \item l'identifiant de l'algorithme de réutilisation que l'agent exécutera pour générer une solution candidate au cas cible, | |
\item la description de la solution générée, | 434 | 434 | \item la description de la solution générée, | |
\item l'évaluation de la solution renseignant sur la qualité de la solution générée et calculée selon une fonction d'optimisation (équations \ref{eqOpt1} et \ref{eqOpt2}), | 435 | 435 | \item l'évaluation de la solution renseignant sur la qualité de la solution générée et calculée selon une fonction d'optimisation (équations \ref{eqOpt1} et \ref{eqOpt2}), | |
\item le vecteur bayésien nécessaire aux algorithmes de récupération contenant les valeurs de probabilité, et | 436 | 436 | \item le vecteur bayésien nécessaire aux algorithmes de récupération contenant les valeurs de probabilité, et | |
\item le vecteur bayésien nécessaire aux algorithmes de réutilisation contenant les valeurs de probabilité. | 437 | 437 | \item le vecteur bayésien nécessaire aux algorithmes de réutilisation contenant les valeurs de probabilité. | |
\end{itemize} | 438 | 438 | \end{itemize} | |
439 | 439 | |||
\begin{equation} | 440 | 440 | \begin{equation} | |
min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right) | 441 | 441 | min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right) | |
\label{eqOpt1} | 442 | 442 | \label{eqOpt1} | |
\end{equation} | 443 | 443 | \end{equation} | |
444 | 444 | |||
\begin{equation} | 445 | 445 | \begin{equation} | |
s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n)) | 446 | 446 | s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n)) | |
\label{eqOpt2} | 447 | 447 | \label{eqOpt2} | |
\end{equation} | 448 | 448 | \end{equation} | |
449 | 449 | |||
\begin{figure}[!ht] | 450 | 450 | \begin{figure}[!ht] | |
\centering | 451 | 451 | \centering | |
\includegraphics[scale=0.7]{Figures/agent.png} | 452 | 452 | \includegraphics[scale=0.7]{Figures/agent.png} | |
\caption{Structure interne des agents} | 453 | 453 | \caption{Structure interne des agents} | |
\label{figAgent} | 454 | 454 | \label{figAgent} | |
\end{figure} | 455 | 455 | \end{figure} | |
456 | 456 | |||
\subsubsection{Apprentissage des agents} | 457 | 457 | \subsubsection{Apprentissage des agents} | |
458 | 458 | |||
Tous les agents considèrent un vecteur bayésien de probabilité pour la phase de récupération (conteneur $C3$ de la figure \ref{figNCBR}) et un vecteur bayésien de probabilité pour la phase de réutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurés avec une probabilité uniforme pour tous les algorithmes de récupération et de réutilisation (probabilité \textit{a priori}). À chaque itération, les vecteurs sont mis à jour selon l'équation bayésienne \ref{eqBay} en utilisant les meilleurs résultats du même agent comme paramètre de vraisemblance. L'agent apprend ainsi de son expérience et sélectionne les algorithmes les plus aptes à fournir les meilleures réponses au regard de l'objectif défini. | 459 | 459 | Tous les agents considèrent un vecteur bayésien de probabilité pour la phase de récupération (conteneur $C3$ de la figure \ref{figNCBR}) et un vecteur bayésien de probabilité pour la phase de réutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurés avec une probabilité uniforme pour tous les algorithmes de récupération et de réutilisation (probabilité \textit{a priori}). À chaque itération, les vecteurs sont mis à jour selon l'équation bayésienne \ref{eqBay} en utilisant les meilleurs résultats du même agent comme paramètre de vraisemblance. L'agent apprend ainsi de son expérience et sélectionne les algorithmes les plus aptes à fournir les meilleures réponses au regard de l'objectif défini. | |
460 | 460 | |||
Par conséquent, d'un point de vue plus global au niveau du SMA, l'apprentissage est fondé sur un raisonnement bayésien où les vecteurs de récupération et de réutilisation évoluent. Un exemple d'évolution est présenté sur la figure \ref{fig:bayev}. Au cours d'une itération, si un algorithme a contribué à la construction de la meilleure solution, il reçoit un point pour chaque agent qui l'a utilisé. Ces informations sont stockées dans un vecteur normalisé qui est ensuite utilisé comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilités dans l'équation bayésienne \ref{eqBay} (dans cette équation, $P(B)$ est le terme de normalisation global). | 461 | 461 | Par conséquent, d'un point de vue plus global au niveau du SMA, l'apprentissage est fondé sur un raisonnement bayésien où les vecteurs de récupération et de réutilisation évoluent. Un exemple d'évolution est présenté sur la figure \ref{fig:bayev}. Au cours d'une itération, si un algorithme a contribué à la construction de la meilleure solution, il reçoit un point pour chaque agent qui l'a utilisé. Ces informations sont stockées dans un vecteur normalisé qui est ensuite utilisé comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilités dans l'équation bayésienne \ref{eqBay} (dans cette équation, $P(B)$ est le terme de normalisation global). | |
462 | 462 | |||
\begin{figure} | 463 | 463 | \begin{figure} | |
\centering | 464 | 464 | \centering | |
\includegraphics[scale=0.5]{Figures/BayesianEvolution.png} | 465 | 465 | \includegraphics[scale=0.5]{Figures/BayesianEvolution.png} | |
\caption{Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse} | 466 | 466 | \caption{Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse} | |
\label{fig:bayev} | 467 | 467 | \label{fig:bayev} | |
\end{figure} | 468 | 468 | \end{figure} | |
469 | 469 | |||
\begin{equation} | 470 | 470 | \begin{equation} | |
P(A|B)=\frac{P(B|A)P(A)}{P(B)} | 471 | 471 | P(A|B)=\frac{P(B|A)P(A)}{P(B)} | |
\label{eqBay} | 472 | 472 | \label{eqBay} | |
\end{equation} | 473 | 473 | \end{equation} | |
474 | 474 | |||
La fonction $rnp$ de l'équation \ref{eqRta} choisit l'algorithme de recherche $a_{rt}$ de l'étape $rt$. | 475 | 475 | La fonction $rnp$ de l'équation \ref{eqRta} choisit l'algorithme de recherche $a_{rt}$ de l'étape $rt$. | |
Cette fonction prend en paramètres l'ensemble des algorithmes possibles $n_{rt}$ et une probabilité associée $P(A|B)_{rt}$. $P(A|B)_{rt}$ représente la probabilité que l'algorithme de recherche associé fournisse la solution optimale à l'étape $rt$. | 476 | 476 | Cette fonction prend en paramètres l'ensemble des algorithmes possibles $n_{rt}$ et une probabilité associée $P(A|B)_{rt}$. $P(A|B)_{rt}$ représente la probabilité que l'algorithme de recherche associé fournisse la solution optimale à l'étape $rt$. | |
477 | 477 | |||
\begin{equation} | 478 | 478 | \begin{equation} | |
a_{rt}=rnp(n_{rt},P(A|B)_{rt}) | 479 | 479 | a_{rt}=rnp(n_{rt},P(A|B)_{rt}) | |
\label{eqRta} | 480 | 480 | \label{eqRta} | |
\end{equation} | 481 | 481 | \end{equation} | |
482 | 482 | |||
La fonction $rnp$ est de nouveau utilisée pour choisir l'algorithme de réutilisation $a_{rs}$ (équation \ref{eqRsa}). | 483 | 483 | La fonction $rnp$ est de nouveau utilisée pour choisir l'algorithme de réutilisation $a_{rs}$ (équation \ref{eqRsa}). | |
484 | 484 | |||
\begin{equation} | 485 | 485 | \begin{equation} | |
a_{rs}=rnp(n_{rs},P(A|B)_{rs}) | 486 | 486 | a_{rs}=rnp(n_{rs},P(A|B)_{rs}) | |
\label{eqRsa} | 487 | 487 | \label{eqRsa} | |
\end{equation} | 488 | 488 | \end{equation} | |
489 | 489 | |||
Le processus d'apprentissage est réalisé individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents échangent les informations qu'ils ont calculées, les optimisations locales qu'ils ont réalisées, ainsi que les algorithmes et les paramètres qu'ils ont utilisés. | 490 | 490 | Le processus d'apprentissage est réalisé individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents échangent les informations qu'ils ont calculées, les optimisations locales qu'ils ont réalisées, ainsi que les algorithmes et les paramètres qu'ils ont utilisés. | |
491 | 491 | |||
\subsubsection{Échanges entre les agents} | 492 | 492 | \subsubsection{Échanges entre les agents} | |
493 | 493 | |||
Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itération en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramètres menant aux meilleurs résultats et d'effectuer des actions rétrospectivement. Les informations modifables sont choisies aléatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de récupération, de l'algorithme de réutilisation ou même des vecteurs bayésiens. | 494 | 494 | Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itération en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramètres menant aux meilleurs résultats et d'effectuer des actions rétrospectivement. Les informations modifables sont choisies aléatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de récupération, de l'algorithme de réutilisation ou même des vecteurs bayésiens. | |
495 | 495 | |||
\subsection{Résultats} | 496 | 496 | \subsection{Résultats} | |
497 | 497 | |||
Des expérimentations sur onze jeux de données relatifs à des problèmes de régression et présentant des caractéristiques différentes ont été réalisées. Les jeux de données et leurs caractéristiques sont consignés dans le tableau \ref{tabBases}. Les valeurs des paramètres d'ESCBR-SMA sont les suivantes : $it=100$ itérations, $np=50$ agents, $nl=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-0} et $ng=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-1}. | 498 | 498 | Des expérimentations sur onze jeux de données relatifs à des problèmes de régression et présentant des caractéristiques différentes ont été réalisées. Les jeux de données et leurs caractéristiques sont consignés dans le tableau \ref{tabBases}. Les valeurs des paramètres d'ESCBR-SMA sont les suivantes : $it=100$ itérations, $np=50$ agents, $nl=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-0} et $ng=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-1}. | |
499 | 499 | |||
Le tableau \ref{AlgsPar} présente les valeurs des paramètres de tous les autres algorithmes. | 500 | 500 | Le tableau \ref{AlgsPar} présente les valeurs des paramètres de tous les autres algorithmes. | |
501 | 501 | |||
\begin{table}[!ht] | 502 | 502 | \begin{table}[!ht] | |
\scriptsize | 503 | 503 | \scriptsize | |
\centering | 504 | 504 | \centering | |
\begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}} | 505 | 505 | \begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}} | |
ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\ | 506 | 506 | ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\ | |
\hline | 507 | 507 | \hline | |
DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | 508 | 508 | DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | 509 | 509 | DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 510 | 510 | DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | 511 | 511 | DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | 512 | 512 | DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 513 | 513 | DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 514 | 514 | DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 515 | 515 | DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ | 516 | 516 | DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ | 517 | 517 | DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\ | 518 | 518 | DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\ | |
\end{tabular} | 519 | 519 | \end{tabular} | |
\caption{Description des jeux de données évalués.} | 520 | 520 | \caption{Description des jeux de données évalués.} | |
\label{tabBases} | 521 | 521 | \label{tabBases} | |
\end{table} | 522 | 522 | \end{table} | |
523 | 523 | |||
\begin{table}[!ht] | 524 | 524 | \begin{table}[!ht] | |
\centering | 525 | 525 | \centering |
chapters/TS.tex
View file @
d5c40fb
\chapter{Système de Recommandation dans AI-VT} | 1 | 1 | \chapter{Système de Recommandation dans AI-VT} | |
2 | 2 | |||
\section{Introduction} | 3 | 3 | \section{Introduction} | |
4 | 4 | |||
L'un des principaux modules d'un EIAH est le système de recommandation visant à trouver les faiblesses et à réviser la séance d'entraînement proposée initialement par celui-ci. Ce type de module permet donc au système de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants. Certains auteurs n'hésitent pas à considérer que l'efficacité d'un EIAH dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce type de module fondé sur la recommandation \cite{Liu2023}. | 5 | 5 | L'un des principaux modules d'un EIAH est le système de recommandation visant à trouver les faiblesses et à réviser la séance d'entraînement proposée initialement par celui-ci. Ce type de module permet donc au système de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants. Certains auteurs n'hésitent pas à considérer que l'efficacité d'un EIAH dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce type de module fondé sur la recommandation \cite{Liu2023}. | |
6 | 6 | |||
Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les acquis, compétences, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices. Dans ces systèmes, l'adaptation peut être de deux types : l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et/ou l'adaptation du parcours qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}. | 7 | 7 | Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les acquis, compétences, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices. Dans ces systèmes, l'adaptation peut être de deux types : l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et/ou l'adaptation du parcours qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}. | |
8 | 8 | |||
Parmi les algorithmes les plus prometteurs pouvant aider à proposer des recommandations, nous avons identifié l'algorithme d'échantillonnage de Thompson (TS). Il s'agit d'un algorithme probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement. À l'instant $t$, TS choisit l'action $a_t$ d'un ensemble $A$ d'actions possibles, et obtient une récompense pour celle-ci. À $t+1$, une action $a_{t+1}$ est sélectionnée en tenant compte de la récompense précédente. L'objectif consiste à maximiser la récompense. Selon le principe bayésien, cette maximisation itérative est opérée en suivant une distribution de probabilité évoluant à chaque itération. Cette évolution peut être calculée selon la variante de Bernoulli où la récompense n'a que deux valeurs possibles 0 ou 1 (échec ou succès), ou selon une distribution \textit{Beta} définie sur l'intervalle $[0, 1]$ et calculée en fonction de deux valeurs $\alpha$ et $\beta$ \cite{9870279}. | 9 | 9 | Parmi les algorithmes les plus prometteurs pouvant aider à proposer des recommandations, nous avons identifié l'algorithme d'échantillonnage de Thompson (TS). Il s'agit d'un algorithme probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement. À l'instant $t$, TS choisit l'action $a_t$ d'un ensemble $A$ d'actions possibles, et obtient une récompense pour celle-ci. À $t+1$, une action $a_{t+1}$ est sélectionnée en tenant compte de la récompense précédente. L'objectif consiste à maximiser la récompense. Selon le principe bayésien, cette maximisation itérative est opérée en suivant une distribution de probabilité évoluant à chaque itération. Cette évolution peut être calculée selon la variante de Bernoulli où la récompense n'a que deux valeurs possibles 0 ou 1 (échec ou succès), ou selon une distribution \textit{Beta} définie sur l'intervalle $[0, 1]$ et calculée en fonction de deux valeurs $\alpha$ et $\beta$ \cite{9870279}. | |
10 | 10 | |||
Ce chapitre est divisé en trois parties, la première partie présente un algorithme délivrant des recommandations en fonction des résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans \cite{Soto2}. Cet algorithme permet l'adaptation automatique en temps réel d'une séance prédéterminée dans l'EIAH AI-VT. Nous considérons qu'elle intervient durant la phase de révision du cycle classique du raisonnement à partir de cas (RàPC). L'algorithme proposé est stochastique et il a été testé selon trois scénarios différents. Les résultats montrent de quelle manière AI-VT peut proposer des recommandations pertinentes selon les faiblesses identifiées de l'apprenant. | 11 | 11 | Ce chapitre est divisé en trois parties, la première partie présente un algorithme délivrant des recommandations en fonction des résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans \cite{Soto2}. Cet algorithme permet l'adaptation automatique en temps réel d'une séance prédéterminée dans l'EIAH AI-VT. Nous considérons qu'elle intervient durant la phase de révision du cycle classique du raisonnement à partir de cas (RàPC). L'algorithme proposé est stochastique et il a été testé selon trois scénarios différents. Les résultats montrent de quelle manière AI-VT peut proposer des recommandations pertinentes selon les faiblesses identifiées de l'apprenant. | |
12 | 12 | |||
La deuxième partie de ce chapitre montre l'intégration de tous les algorithmes présentés dans les chapitres précédents à AI-VT. L'algorithme intégré est appliqué au système AI-VT sur des données générées et des données réelles. Plusieurs types de test sont exécutés pour montrer que l'algorithme final permet en effet d'améliorer les capacités d'identification et d'adaptation. Les performances de ce nouveau algorithme sont comparées à celles d'autres algorithmes. Enfin, l'évolution de l'acquisition des connaissances induites par ces nouveaux algorithmes de recommandation stochastiques est analysée dans cette deuxième partie du présent chapitre. | 13 | 13 | La deuxième partie de ce chapitre montre l'intégration de tous les algorithmes présentés dans les chapitres précédents à AI-VT. L'algorithme intégré est appliqué au système AI-VT sur des données générées et des données réelles. Plusieurs types de test sont exécutés pour montrer que l'algorithme final permet en effet d'améliorer les capacités d'identification et d'adaptation. Les performances de ce nouveau algorithme sont comparées à celles d'autres algorithmes. Enfin, l'évolution de l'acquisition des connaissances induites par ces nouveaux algorithmes de recommandation stochastiques est analysée dans cette deuxième partie du présent chapitre. | |
14 | 14 | |||
Pour terminer, dans la troisième partie de ce chapitre, nous présentons une évolution de ce système de recommandation intégrant le processus de Hawkes. L'intérêt de ce dernier réside dans le fait qu'il utilise une courbe d'oubli, nous permettant ainsi de tenir compte du fait que certaines connaissances et certains mécanismes doivent être rappelés aux apprenants. Cette troisième partie intègre une étude des performances du système de recommandation incluant ce processus stochastique de Hawkes. | 15 | 15 | Pour terminer, dans la troisième partie de ce chapitre, nous présentons une évolution de ce système de recommandation intégrant le processus de Hawkes. L'intérêt de ce dernier réside dans le fait qu'il utilise une courbe d'oubli, nous permettant ainsi de tenir compte du fait que certaines connaissances et certains mécanismes doivent être rappelés aux apprenants. Cette troisième partie intègre une étude des performances du système de recommandation incluant ce processus stochastique de Hawkes. | |
16 | 16 | |||
\section{Système de recommandation stochastique fondé sur l'échantillonnage de Thompson} | 17 | 17 | \section{Système de recommandation stochastique fondé sur l'échantillonnage de Thompson} | |
\sectionmark{Système de recommandation fondé sur TS} | 18 | 18 | \sectionmark{Système de recommandation fondé sur TS} | |
19 | 19 | |||
\subsection{Algorithme Proposé} | 20 | 20 | \subsection{Algorithme Proposé} | |
21 | 21 | |||
L'algorithme proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT. Puis il adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. | 22 | 22 | L'algorithme proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT. Puis il adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. | |
23 | 23 | |||
La famille de distributions de probabilité Beta est utilisée pour définir dynamiquement le niveau de complexité (équation \ref{eqBeta}) à proposer à l'apprenant. Cet algorithme permet de recommander des niveaux de complexité non contigus et dans lesquels des lacunes ont été détectées. Les paramètres initiaux des distributions de probabilité peuvent forcer le système à recommander des niveaux de complexité contigus (juste inférieur ou supérieur). | 24 | 24 | La famille de distributions de probabilité Beta est utilisée pour définir dynamiquement le niveau de complexité (équation \ref{eqBeta}) à proposer à l'apprenant. Cet algorithme permet de recommander des niveaux de complexité non contigus et dans lesquels des lacunes ont été détectées. Les paramètres initiaux des distributions de probabilité peuvent forcer le système à recommander des niveaux de complexité contigus (juste inférieur ou supérieur). | |
25 | 25 | |||
\begin{equation} | 26 | 26 | \begin{equation} | |
B(x, \alpha, \beta) = | 27 | 27 | Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} | |
\begin{cases} | 28 | 28 | \label{eqBeta} | |
\frac{x^{\alpha-1}(1-x)^{\beta - 1}}{\int_0^1 u^{\alpha - 1}(1-u)^{\beta - 1}du} & si \; x \in [0, 1] \\ | 29 | |||
0&sinon | 30 | |||
\end{cases} | 31 | |||
\label{eqBeta} | 32 | |||
\end{equation} | 33 | 29 | \end{equation} | |
34 | 30 | |||
\begin{table}[!ht] | 35 | 31 | \begin{table}[!ht] | |
\centering | 36 | 32 | \centering | |
\begin{tabular}{ccc} | 37 | 33 | \begin{tabular}{ccc} | |
ID&Description&Domaine\\ | 38 | 34 | ID&Description&Domaine\\ | |
\hline | 39 | 35 | \hline | |
$c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\ | 40 | 36 | $c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\ | |
$g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\ | 41 | 37 | $g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\ | |
$g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\ | 42 | 38 | $g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\ | |
$s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\ | 43 | 39 | $s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\ | |
$s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\ | 44 | 40 | $s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\ | |
$\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\ | 45 | 41 | $\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\ | |
$t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\ | 46 | 42 | $t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\ | |
$g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\ | 47 | 43 | $g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\ | |
$ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\ | 48 | 44 | $ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\ | |
$t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\ | 49 | 45 | $t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\ | |
$ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\ | 50 | 46 | $ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\ | |
$\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\ | 51 | 47 | $\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\ | |
$\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\ | 52 | 48 | $\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\ | |
$\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\ | 53 | 49 | $\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\ | |
$\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\ | 54 | 50 | $\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\ | |
$G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\ | 55 | 51 | $G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\ | |
$x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\ | 56 | 52 | $x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\ | |
$n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\\ | 57 | 53 | $n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\\ | |
$ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\ | 58 | 54 | $ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\ | |
$y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\ | 59 | 55 | $y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\ | |
$r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\ | 60 | 56 | $r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\ | |
$sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\ | 61 | 57 | $sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\ | |
\end{tabular} | 62 | 58 | \end{tabular} | |
\caption{Variables et paramètres du système de recommandation proposé} | 63 | 59 | \caption{Variables et paramètres du système de recommandation proposé} | |
\label{tabPar} | 64 | 60 | \label{tabPar} | |
\end{table} | 65 | 61 | \end{table} | |
66 | 62 | |||
Le tableau \ref{tabPar} présente les variables de l'algorithme de recommandation. Nous avons considéré que les notes $g_c$ obtenues au niveau de complexité $c$ tiennent compte du temps de réponse. C'est la raison pour laquelle, nous avons défini le grade de l'apprenant $ng_c$ au niveau de complexité $c$. Ce grade calculé selon l'équation \ref{eqsGT}, tient compte d'un poids de pénalisation temporelle $\lambda$. | 67 | 63 | Le tableau \ref{tabPar} présente les variables de l'algorithme de recommandation. Nous avons considéré que les notes $g_c$ obtenues au niveau de complexité $c$ tiennent compte du temps de réponse. C'est la raison pour laquelle, nous avons défini le grade de l'apprenant $ng_c$ au niveau de complexité $c$. Ce grade calculé selon l'équation \ref{eqsGT}, tient compte d'un poids de pénalisation temporelle $\lambda$. | |
68 | 64 | |||
\begin{equation} | 69 | 65 | \begin{equation} | |
ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right) | 70 | 66 | ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right) | |
\label{eqsGT} | 71 | 67 | \label{eqsGT} | |
\end{equation} | 72 | 68 | \end{equation} | |
73 | 69 | |||
Dans cet algorithme, la variable de seuil de grade $g_t$ détermine la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les niveaux de complexité des exercices proposés à l'apprenant sont calculés par récompense inverse selon les équations \ref{eqgtc} et \ref{eqltc}. Chaque niveau de complexité est associé à une distribution de probabilité Beta avec des valeurs initiales $\alpha$ et $\beta$ prédéfinies. | 74 | 70 | Dans cet algorithme, la variable de seuil de grade $g_t$ détermine la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les niveaux de complexité des exercices proposés à l'apprenant sont calculés par récompense inverse selon les équations \ref{eqgtc} et \ref{eqltc}. Chaque niveau de complexité est associé à une distribution de probabilité Beta avec des valeurs initiales $\alpha$ et $\beta$ prédéfinies. | |
75 | 71 | |||
\begin{equation} | 76 | 72 | \begin{equation} | |
ng_c \ge g_t \rightarrow | 77 | 73 | ng_c \ge g_t \rightarrow | |
\begin{cases} | 78 | 74 | \begin{cases} | |
\beta_c=\beta_c+\Delta_s\\ | 79 | 75 | \beta_c=\beta_c+\Delta_s\\ | |
\beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\ | 80 | 76 | \beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\ | |
\alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2} | 81 | 77 | \alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2} | |
\end{cases} | 82 | 78 | \end{cases} | |
\label{eqgtc} | 83 | 79 | \label{eqgtc} | |
\end{equation} | 84 | 80 | \end{equation} | |
85 | 81 | |||
\begin{equation} | 86 | 82 | \begin{equation} | |
ng_c < g_t \rightarrow | 87 | 83 | ng_c < g_t \rightarrow | |
\begin{cases} | 88 | 84 | \begin{cases} | |
\alpha_c=\alpha_c+\Delta_s\\ | 89 | 85 | \alpha_c=\alpha_c+\Delta_s\\ | |
\alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\ | 90 | 86 | \alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\ | |
\beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2} | 91 | 87 | \beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2} | |
\end{cases} | 92 | 88 | \end{cases} | |
\label{eqltc} | 93 | 89 | \label{eqltc} | |
\end{equation} | 94 | 90 | \end{equation} | |
95 | 91 | |||
Pour chaque niveau de complexité $c$, $Beta(\alpha_c, \beta_c)$ fournit une distribution de probabilité $\theta_c$ dont nous calculons l'espérance $\mathbb{E}[\theta_c]$. Le nouveau niveau de complexité $ncl$ correspond à l'espérance maximale obtenue. | 96 | 92 | Pour chaque niveau de complexité $c$, $Beta(\alpha_c, \beta_c)$ fournit une distribution de probabilité $\theta_c$ dont nous calculons l'espérance $\mathbb{E}[\theta_c]$. Le nouveau niveau de complexité $ncl$ correspond à l'espérance maximale obtenue. | |
97 | 93 | |||
Le détail des pas d'exécution de l'algorithme proposé sont dans l'algorithme \ref{alg2}. | 98 | 94 | Le détail des pas d'exécution de l'algorithme proposé sont dans l'algorithme \ref{alg2}. | |
99 | 95 | |||
\begin{algorithm} | 100 | 96 | \begin{algorithm} | |
\caption{Algorithme de recommandation stochastique} | 101 | 97 | \caption{Algorithme de recommandation stochastique} | |
\begin{algorithmic} | 102 | 98 | \begin{algorithmic} | |
\State Initialisation de la distribution de probabilité | 103 | 99 | \State Initialisation de la distribution de probabilité | |
\For {\textbf{each} question $q$} | 104 | 100 | \For {\textbf{each} question $q$} | |
\State Soit le niveau de complexité $i$ | 105 | 101 | \State Soit le niveau de complexité $i$ | |
\State $ng_i=g_i- \left(g_i * \lambda * \frac{t_i}{t_m} \right)$ \Comment{eq \ref{eqsGT}} | 106 | 102 | \State $ng_i=g_i- \left(g_i * \lambda * \frac{t_i}{t_m} \right)$ \Comment{eq \ref{eqsGT}} | |
\State Calculs des paramètres $\alpha_i$ et $\beta_i$ \Comment{eq \ref{eqgtc} et eq \ref{eqltc}} | 107 | 103 | \State Calculs des paramètres $\alpha_i$ et $\beta_i$ \Comment{eq \ref{eqgtc} et eq \ref{eqltc}} | |
\State Choisir $\theta_c$ selon la distribution de probabilité Beta \Comment{$\forall c, \theta_c = Beta(\alpha_c, \beta_c)$} | 108 | 104 | \State Choisir $\theta_c$ selon la distribution de probabilité Beta \Comment{$\forall c, \theta_c = Beta(\alpha_c, \beta_c)$} | |
\State $ncl = max(\mathbb{E}[\theta_c]), \forall c$ | 109 | 105 | \State $ncl = max(\mathbb{E}[\theta_c]), \forall c$ | |
\EndFor | 110 | 106 | \EndFor | |
\end{algorithmic} | 111 | 107 | \end{algorithmic} | |
\label{alg2} | 112 | 108 | \label{alg2} | |
\end{algorithm} | 113 | 109 | \end{algorithm} | |
114 | 110 | |||
\subsection{Résultats} | 115 | 111 | \subsection{Résultats} | |
116 | 112 | |||
Le comportement du module de recommandation a été testé avec des données générées contenant les notes et les temps de réponse de mille apprenants pour cinq niveaux de complexité différents. Ces données sont décrites dans le tableau \ref{tabDataSet}. Les notes des apprenants sont générées selon la loi de probabilité logit-normale considérée comme la plus fidèle dans ce contexte par \cite{Arthurs}. | 117 | 113 | Le comportement du module de recommandation a été testé avec des données générées contenant les notes et les temps de réponse de mille apprenants pour cinq niveaux de complexité différents. Ces données sont décrites dans le tableau \ref{tabDataSet}. Les notes des apprenants sont générées selon la loi de probabilité logit-normale considérée comme la plus fidèle dans ce contexte par \cite{Arthurs}. | |
118 | 114 | |||
L'ensemble de données générées résulte d'une simulation des notes obtenues par des apprenants virtuels ayant répondu à quinze questions réparties sur cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants sur les dix premières questions. La difficulté de la complexité est quant à elle simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la manière dont sont réparties les notes selon le niveau de complexité. | 119 | 115 | L'ensemble de données générées résulte d'une simulation des notes obtenues par des apprenants virtuels ayant répondu à quinze questions réparties sur cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants sur les dix premières questions. La difficulté de la complexité est quant à elle simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la manière dont sont réparties les notes selon le niveau de complexité. | |
120 | 116 | |||
\begin{figure} | 121 | 117 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/dataset.png} | 122 | 118 | \includegraphics[width=\textwidth]{./Figures/dataset.png} | |
\caption{Répartition des notes générées selon le niveau de complexité.} | 123 | 119 | \caption{Répartition des notes générées selon le niveau de complexité.} | |
\label{figData} | 124 | 120 | \label{figData} | |
\end{figure} | 125 | 121 | \end{figure} | |
126 | 122 | |||
\begin{table}[!ht] | 127 | 123 | \begin{table}[!ht] | |
\centering | 128 | 124 | \centering | |
\begin{tabular}{ccc} | 129 | 125 | \begin{tabular}{ccc} | |
ID&Description&Domaine\\ | 130 | 126 | ID&Description&Domaine\\ | |
\hline | 131 | 127 | \hline | |
$q_{c}$&Niveau de complexité de une question $q$&$[0, c_n] \in \mathbb{N}$\\ | 132 | 128 | $q_{c}$&Niveau de complexité de une question $q$&$[0, c_n] \in \mathbb{N}$\\ | |
$q_{g,c}$&Note obtenue $g$ pour la question $q$ avec complexité $c$ &$[0,g_m] \in \mathbb{R}$\\ | 133 | 129 | $q_{g,c}$&Note obtenue $g$ pour la question $q$ avec complexité $c$ &$[0,g_m] \in \mathbb{R}$\\ | |
$q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\ | 134 | 130 | $q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\ | |
\end{tabular} | 135 | 131 | \end{tabular} | |
\caption{Description des données utilisées pour l'évaluation.} | 136 | 132 | \caption{Description des données utilisées pour l'évaluation.} | |
\label{tabDataSet} | 137 | 133 | \label{tabDataSet} | |
\end{table} | 138 | 134 | \end{table} | |
139 | 135 | |||
Toutes les valeurs des paramètres pour tester l'algorithme sont dans le tableau \ref{tabgm1}. | 140 | 136 | Toutes les valeurs des paramètres pour tester l'algorithme sont dans le tableau \ref{tabgm1}. | |
141 | 137 | |||
\begin{table}[!ht] | 142 | 138 | \begin{table}[!ht] | |
\centering | 143 | 139 | \centering | |
\begin{tabular}{c|cccccccccccccc} | 144 | 140 | \begin{tabular}{c|cccccccccccccc} | |
ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\ | 145 | 141 | ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\ | |
\hline | 146 | 142 | \hline | |
Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\ | 147 | 143 | Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\ | |
\end{tabular} | 148 | 144 | \end{tabular} | |
\caption{Valeurs des paramètres pour les scénarios évalués} | 149 | 145 | \caption{Valeurs des paramètres pour les scénarios évalués} | |
\label{tabgm1} | 150 | 146 | \label{tabgm1} | |
\end{table} | 151 | 147 | \end{table} | |
152 | 148 | |||
La figure \ref{figCmp2} permet de comparer les résultats obtenus par le module proposé, un système de recommandation déterministe et le système AI-VT initial lors d'un \textit{démarrage à froid} (c'est-à-dire sans données historiques ni informations préalables sur le profil de l'apprenant). Sur les graphiques de cette figure, les numéros des questions posées sont reportées en abscisse selon l'ordre chronologique d'apparition durant la séance d’entraînement, le niveau de complexité de chaque question posée est représenté par une couleur différente, et le nombre d'apprenants ayant eu des questions de ce niveau de complexité sont reportés en ordonnées. Ainsi, le système AI-VT initial (premier graphique de la figure) et le système de recommandation déterministe (deuxième graphique) ont tous deux proposé trois questions de niveau de complexité 0 (le plus faible) à tous les apprenants au démarrage de la séance d'entrainement. Nous pouvons remarquer que le système initial est resté sur ce niveau de complexité durant toute la séance (pour les 15 questions du test), tandis que le système de recommandation déterministe a progressivement mixé les complexités des questions posées. Le système de recommandation stochastique décrit dans ce chapitre a quant à lui mixé ces niveaux de complexité dès la première question. | 153 | 149 | La figure \ref{figCmp2} permet de comparer les résultats obtenus par le module proposé, un système de recommandation déterministe et le système AI-VT initial lors d'un \textit{démarrage à froid} (c'est-à-dire sans données historiques ni informations préalables sur le profil de l'apprenant). Sur les graphiques de cette figure, les numéros des questions posées sont reportées en abscisse selon l'ordre chronologique d'apparition durant la séance d’entraînement, le niveau de complexité de chaque question posée est représenté par une couleur différente, et le nombre d'apprenants ayant eu des questions de ce niveau de complexité sont reportés en ordonnées. Ainsi, le système AI-VT initial (premier graphique de la figure) et le système de recommandation déterministe (deuxième graphique) ont tous deux proposé trois questions de niveau de complexité 0 (le plus faible) à tous les apprenants au démarrage de la séance d'entrainement. Nous pouvons remarquer que le système initial est resté sur ce niveau de complexité durant toute la séance (pour les 15 questions du test), tandis que le système de recommandation déterministe a progressivement mixé les complexités des questions posées. Le système de recommandation stochastique décrit dans ce chapitre a quant à lui mixé ces niveaux de complexité dès la première question. | |
154 | 150 | |||
Ainsi, les systèmes de recommandation permettent de proposer une adaptation progressive du niveau de complexité en fonction des notes obtenues. L'algorithme déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus. La tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. L'algorithme stochastique commence par proposer tous les niveaux de complexité possibles tout en privilégiant le niveau 0. Avec ce système, les transitions sont constantes mais pour un petit nombre d'apprenants. La tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. | 155 | 151 | Ainsi, les systèmes de recommandation permettent de proposer une adaptation progressive du niveau de complexité en fonction des notes obtenues. L'algorithme déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus. La tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. L'algorithme stochastique commence par proposer tous les niveaux de complexité possibles tout en privilégiant le niveau 0. Avec ce système, les transitions sont constantes mais pour un petit nombre d'apprenants. La tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. | |
156 | 152 | |||
\begin{figure} | 157 | 153 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/comp2.png} | 158 | 154 | \includegraphics[width=\textwidth]{./Figures/comp2.png} | |
\caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | 159 | 155 | \caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | |
\label{figCmp2} | 160 | 156 | \label{figCmp2} | |
\end{figure} | 161 | 157 | \end{figure} | |
162 | 158 | |||
Après la génération de la première séance, le système peut continuer avec une deuxième liste d'exercices. Pour cette partie des tests, les trois algorithmes ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir que la première transition du système initial n'intervient qu'entre deux séances. Les transitions sont très lentes, et tous les apprenants doivent suivre un chemin identique même s'ils obtiennent des notes différentes au cours de celle-ci. | 163 | 159 | Après la génération de la première séance, le système peut continuer avec une deuxième liste d'exercices. Pour cette partie des tests, les trois algorithmes ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir que la première transition du système initial n'intervient qu'entre deux séances. Les transitions sont très lentes, et tous les apprenants doivent suivre un chemin identique même s'ils obtiennent des notes différentes au cours de celle-ci. | |
164 | 160 | |||
Pour leur part, les deux autres systèmes de recommandation testés proposent un fonctionnement différent. L'algorithme déterministe présente trois transitions aux questions 3, 5 et 12. Les tendances sont y relativement homogènes et progressives pour le niveau 3, très variables pour le niveau 2 et fortement décroissantes pour le niveau 0. L'algorithme stochastique quant à lui, propose des transitions douces mais il a tendance à toujours privilégier le niveau le plus faible. Nous pouvons observer une prépondérance du niveau 1 avec ce système. Ici, les niveaux 0 et 1 sont décroissants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. | 165 | 161 | Pour leur part, les deux autres systèmes de recommandation testés proposent un fonctionnement différent. L'algorithme déterministe présente trois transitions aux questions 3, 5 et 12. Les tendances sont y relativement homogènes et progressives pour le niveau 3, très variables pour le niveau 2 et fortement décroissantes pour le niveau 0. L'algorithme stochastique quant à lui, propose des transitions douces mais il a tendance à toujours privilégier le niveau le plus faible. Nous pouvons observer une prépondérance du niveau 1 avec ce système. Ici, les niveaux 0 et 1 sont décroissants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. | |
166 | 162 | |||
\begin{figure} | 167 | 163 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/comp3.png} | 168 | 164 | \includegraphics[width=\textwidth]{./Figures/comp3.png} | |
\caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | 169 | 165 | \caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | |
\label{figCmp3} | 170 | 166 | \label{figCmp3} | |
\end{figure} | 171 | 167 | \end{figure} | |
172 | 168 | |||
Les questions de la première et la deuxième séance étant de niveaux 0 et 1, le système a proposé des niveaux de complexité 1 ou 2 pour la troisième séance. La figure \ref{figCmp4} montre que le système initial est très lent à passer d'un niveau à l'autre. La figure \ref{figCmp3} permet de voir la première transition du système initial ne réagissant qu'aux notes obtenues dans les séances précédentes et non à celles de la séance en cours. Dans ce cas, l'algorithme de recommandation déterministe adopte la même stratégie et propose un changement brutal à tous les apprenants autour de la cinquième question. L'algorithme stochastique continue avec des changements progressifs tout en privilégiant le niveau 2. | 173 | 169 | Les questions de la première et la deuxième séance étant de niveaux 0 et 1, le système a proposé des niveaux de complexité 1 ou 2 pour la troisième séance. La figure \ref{figCmp4} montre que le système initial est très lent à passer d'un niveau à l'autre. La figure \ref{figCmp3} permet de voir la première transition du système initial ne réagissant qu'aux notes obtenues dans les séances précédentes et non à celles de la séance en cours. Dans ce cas, l'algorithme de recommandation déterministe adopte la même stratégie et propose un changement brutal à tous les apprenants autour de la cinquième question. L'algorithme stochastique continue avec des changements progressifs tout en privilégiant le niveau 2. | |
174 | 170 | |||
\begin{figure} | 175 | 171 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/comp4.png} | 176 | 172 | \includegraphics[width=\textwidth]{./Figures/comp4.png} | |
\caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | 177 | 173 | \caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | |
\label{figCmp4} | 178 | 174 | \label{figCmp4} | |
\end{figure} | 179 | 175 | \end{figure} | |
180 | 176 | |||
Pour comparer numériquement le système initial, l'algorithme déterministe et l'algorithme de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}). Celles-ci permettent de décrire le système de recommandation idéal si l'objectif de l'apprenant est de suivre un apprentissage standard, c'est à dire le parcours où l'objectif est d'avancer dans l'acquisition de la connaissance et les niveaux de complexité. Une valeur est calculée pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette mesure est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, lui permettant ainsi de renforcer ses connaissances pour ce niveau de complexité. De la même manière, il est attendu que le système de recommandation propose moins d'exercices aux niveaux de complexité pour lesquels les notes moyennes sont élevées, l'étudiant ayant acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées. | 181 | 177 | Pour comparer numériquement le système initial, l'algorithme déterministe et l'algorithme de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}). Celles-ci permettent de décrire le système de recommandation idéal si l'objectif de l'apprenant est de suivre un apprentissage standard, c'est à dire le parcours où l'objectif est d'avancer dans l'acquisition de la connaissance et les niveaux de complexité. Une valeur est calculée pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette mesure est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, lui permettant ainsi de renforcer ses connaissances pour ce niveau de complexité. De la même manière, il est attendu que le système de recommandation propose moins d'exercices aux niveaux de complexité pour lesquels les notes moyennes sont élevées, l'étudiant ayant acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées. | |
182 | 178 | |||
\begin{equation} | 183 | 179 | \begin{equation} | |
%r_c=x+y-2xy | 184 | 180 | %r_c=x+y-2xy | |
%r_c=x^2+y^2-2x^2y^2 | 185 | 181 | %r_c=x^2+y^2-2x^2y^2 | |
rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} | 186 | 182 | rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} | |
\label{eqMetric1} | 187 | 183 | \label{eqMetric1} | |
\end{equation} | 188 | 184 | \end{equation} | |
189 | 185 | |||
\begin{equation} | 190 | 186 | \begin{equation} | |
r=\sum_{c=0}^{c_n-1} rp_c | 191 | 187 | r=\sum_{c=0}^{c_n-1} rp_c | |
\label{eqMetric2} | 192 | 188 | \label{eqMetric2} | |
\end{equation} | 193 | 189 | \end{equation} | |
194 | 190 | |||
Les propriétés de la métrique sont : | 195 | 191 | Les propriétés de la métrique sont : | |
\begin{itemize} | 196 | 192 | \begin{itemize} | |
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$ | 197 | 193 | \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$ | |
\item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$ | 198 | 194 | \item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$ | |
\item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\ | 199 | 195 | \item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\ | |
\end{itemize} | 200 | 196 | \end{itemize} | |
201 | 197 | |||
Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions auxquelles des réponses ont été données dans le niveau de complexité $c$ (équation \ref{eqYc}). Ainsi, plus la valeur de $r$ est élevée, meilleure est la recommandation. | 202 | 198 | Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions auxquelles des réponses ont été données dans le niveau de complexité $c$ (équation \ref{eqYc}). Ainsi, plus la valeur de $r$ est élevée, meilleure est la recommandation. | |
203 | 199 | |||
\begin{equation} | 204 | 200 | \begin{equation} | |
x_{0,c}=\frac{<g_c>_{G_c}}{g_m} | 205 | 201 | x_{0,c}=\frac{<g_c>_{G_c}}{g_m} | |
\label{eqXc} | 206 | 202 | \label{eqXc} | |
\end{equation} | 207 | 203 | \end{equation} | |
208 | 204 | |||
\begin{equation} | 209 | 205 | \begin{equation} | |
x_{1,c}=\frac{ny_c}{n_c} | 210 | 206 | x_{1,c}=\frac{ny_c}{n_c} | |
\label{eqYc} | 211 | 207 | \label{eqYc} | |
\end{equation} | 212 | 208 | \end{equation} | |
213 | 209 | |||
La figure \ref{figMetric} représente la fonction $rp_c(x)$. La valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5. | 214 | 210 | La figure \ref{figMetric} représente la fonction $rp_c(x)$. La valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5. | |
215 | 211 | |||
\begin{figure} | 216 | 212 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/metric.png} | 217 | 213 | \includegraphics[width=\textwidth]{./Figures/metric.png} | |
\caption{Fonction d'évaluation de la qualité de la recommandation pour un parcours standard} | 218 | 214 | \caption{Fonction d'évaluation de la qualité de la recommandation pour un parcours standard} | |
\label{figMetric} | 219 | 215 | \label{figMetric} | |
\end{figure} | 220 | 216 | \end{figure} | |
221 | 217 | |||
Les résultats des calculs de la métrique $rp_c(x)$ établie pour le système initial et les deux algorithmes dans les trois scénarios testés sont présentés dans le tableau \ref{tabRM}. | 222 | 218 | Les résultats des calculs de la métrique $rp_c(x)$ établie pour le système initial et les deux algorithmes dans les trois scénarios testés sont présentés dans le tableau \ref{tabRM}. | |
223 | 219 | |||
\begin{table}[!ht] | 224 | 220 | \begin{table}[!ht] | |
\centering | 225 | 221 | \centering | |
\begin{tabular}{cccccccc} | 226 | 222 | \begin{tabular}{cccccccc} | |
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ | 227 | 223 | &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ | |
\hline | 228 | 224 | \hline | |
Test 1\\ | 229 | 225 | Test 1\\ | |
\hline | 230 | 226 | \hline | |
RàPC&0.5388&-&-&-&-&0.5388&10.776\\ | 231 | 227 | RàPC&0.5388&-&-&-&-&0.5388&10.776\\ | |
DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\ | 232 | 228 | DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\ | |
SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\ | 233 | 229 | SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\ | |
\hline | 234 | 230 | \hline | |
Test 2\\ | 235 | 231 | Test 2\\ | |
\hline | 236 | 232 | \hline | |
RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\ | 237 | 233 | RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\ | |
DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\ | 238 | 234 | DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\ | |
SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\ | 239 | 235 | SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\ | |
\hline | 240 | 236 | \hline | |
Test3\\ | 241 | 237 | Test3\\ | |
\hline | 242 | 238 | \hline | |
RàPC&-&0.8559&0.7377&-&-&1.5936&31.872 | 243 | 239 | RàPC&-&0.8559&0.7377&-&-&1.5936&31.872 | |
\\ | 244 | 240 | \\ | |
DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\ | 245 | 241 | DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\ | |
SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\ | 246 | 242 | SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\ | |
\end{tabular} | 247 | 243 | \end{tabular} | |
\caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)} | 248 | 244 | \caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)} | |
\label{tabRM} | 249 | 245 | \label{tabRM} | |
\end{table} | 250 | 246 | \end{table} | |
251 | 247 | |||
Les équations \ref{eqMetricS1} et \ref{eqMetricS2} permettent de caractériser un apprentissage progressif ou de révision, où l'objectif est de renforcer la connaissance de chaque niveau de complexité avant d'avancer au suivant. Dans ce cas, un score élevé est attribué aux systèmes proposant plus d'exercices dans un niveau de complexité où les notes moyennes sont légèrement insuffisantes (4/10), plus flexibles avec des notes moyennes plus basses, et un petit nombre d'exercices pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent de nombreuses questions dans un niveau de complexité avec des notes moyennes élevées ou faibles. | 252 | 248 | Les équations \ref{eqMetricS1} et \ref{eqMetricS2} permettent de caractériser un apprentissage progressif ou de révision, où l'objectif est de renforcer la connaissance de chaque niveau de complexité avant d'avancer au suivant. Dans ce cas, un score élevé est attribué aux systèmes proposant plus d'exercices dans un niveau de complexité où les notes moyennes sont légèrement insuffisantes (4/10), plus flexibles avec des notes moyennes plus basses, et un petit nombre d'exercices pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent de nombreuses questions dans un niveau de complexité avec des notes moyennes élevées ou faibles. | |
253 | 249 | |||
\begin{equation} | 254 | 250 | \begin{equation} | |
rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} | 255 | 251 | rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} | |
\label{eqMetricS1} | 256 | 252 | \label{eqMetricS1} | |
\end{equation} | 257 | 253 | \end{equation} | |
258 | 254 | |||
\begin{equation} | 259 | 255 | \begin{equation} | |
r=\sum_{c=0}^{c_n-1} rs_c | 260 | 256 | r=\sum_{c=0}^{c_n-1} rs_c | |
\label{eqMetricS2} | 261 | 257 | \label{eqMetricS2} | |
\end{equation} | 262 | 258 | \end{equation} | |
263 | 259 | |||
Les propriétés de la métrique sont : | 264 | 260 | Les propriétés de la métrique sont : | |
\begin{itemize} | 265 | 261 | \begin{itemize} | |
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$ | 266 | 262 | \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$ | |
\item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\ | 267 | 263 | \item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\ | |
\end{itemize} | 268 | 264 | \end{itemize} | |
269 | 265 | |||
La figure \ref{figMetric2} représente la fonction $rs_c(x)$. Comme pour $rp_c$, la valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5. | 270 | 266 | La figure \ref{figMetric2} représente la fonction $rs_c(x)$. Comme pour $rp_c$, la valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5. | |
271 | 267 | |||
Les résultats du calcul des métriques pour le système initial et les deux algorithmes dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}. | 272 | 268 | Les résultats du calcul des métriques pour le système initial et les deux algorithmes dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}. | |
273 | 269 | |||
\begin{figure}[!ht] | 274 | 270 | \begin{figure}[!ht] | |
\centering | 275 | 271 | \centering | |
\includegraphics[width=\textwidth]{./Figures/metric2.png} | 276 | 272 | \includegraphics[width=\textwidth]{./Figures/metric2.png} | |
\caption{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.} | 277 | 273 | \caption{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.} | |
\label{figMetric2} | 278 | 274 | \label{figMetric2} | |
\end{figure} | 279 | 275 | \end{figure} | |
280 | 276 | |||
\begin{table}[!ht] | 281 | 277 | \begin{table}[!ht] | |
\centering | 282 | 278 | \centering | |
\begin{tabular}{cccccccc} | 283 | 279 | \begin{tabular}{cccccccc} | |
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ | 284 | 280 | &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ | |
\hline | 285 | 281 | \hline | |
Séance 1\\ | 286 | 282 | Séance 1\\ | |
\hline | 287 | 283 | \hline | |
RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\\ | 288 | 284 | RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\\ | |
DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\ | 289 | 285 | DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\ | |
SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\ | 290 | 286 | SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\ | |
\hline | 291 | 287 | \hline | |
Séance 2\\ | 292 | 288 | Séance 2\\ | |
\hline | 293 | 289 | \hline | |
RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\\ | 294 | 290 | RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\\ | |
DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\ | 295 | 291 | DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\ | |
SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\ | 296 | 292 | SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\ | |
\hline | 297 | 293 | \hline | |
Séance 3\\ | 298 | 294 | Séance 3\\ | |
\hline | 299 | 295 | \hline | |
RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74 | 300 | 296 | RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74 | |
\\ | 301 | 297 | \\ | |
DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\ | 302 | 298 | DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\ | |
SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\ | 303 | 299 | SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\ | |
\end{tabular} | 304 | 300 | \end{tabular} | |
\caption{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique} | 305 | 301 | \caption{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique} | |
\label{tabRM2} | 306 | 302 | \label{tabRM2} | |
\end{table} | 307 | 303 | \end{table} | |
308 | 304 | |||
En complément, le tableau \ref{tabCS} présente les similarités entre toutes les recommandations faites aux apprenants par les trois systèmes et les trois séances d'entrainement. Pour ce faire, nous avons choisi d'appliquer l'équation \ref{eqCS} permettant de calculer une similarité cosinus entre deux vecteurs $A$ et $B$. | 309 | 305 | En complément, le tableau \ref{tabCS} présente les similarités entre toutes les recommandations faites aux apprenants par les trois systèmes et les trois séances d'entrainement. Pour ce faire, nous avons choisi d'appliquer l'équation \ref{eqCS} permettant de calculer une similarité cosinus entre deux vecteurs $A$ et $B$. | |
310 | 306 | |||
\begin{equation} | 311 | 307 | \begin{equation} | |
sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}} | 312 | 308 | sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}} | |
\label{eqCS} | 313 | 309 | \label{eqCS} | |
\end{equation} | 314 | 310 | \end{equation} | |
315 | 311 | |||
\begin{table}[!ht] | 316 | 312 | \begin{table}[!ht] | |
\centering | 317 | 313 | \centering | |
\begin{tabular}{cccc} | 318 | 314 | \begin{tabular}{cccc} | |
Système de recommandation & Séance 1 & Séance 2 & Séance 3\\ | 319 | 315 | Système de recommandation & Séance 1 & Séance 2 & Séance 3\\ | |
\hline | 320 | 316 | \hline | |
RàPC&1&1&1\\ | 321 | 317 | RàPC&1&1&1\\ | |
DM&0.9540&0.9887&0.9989\\ | 322 | 318 | DM&0.9540&0.9887&0.9989\\ | |
SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\ | 323 | 319 | SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\ | |
\end{tabular} | 324 | 320 | \end{tabular} | |
\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module deterministe, SM - Module stochastique)} | 325 | 321 | \caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module deterministe, SM - Module stochastique)} | |
\label{tabCS} | 326 | 322 | \label{tabCS} | |
\end{table} | 327 | 323 | \end{table} | |
328 | 324 | |||
\subsection{Discussion et Conclusion} | 329 | 325 | \subsection{Discussion et Conclusion} | |
Avec la génération d'exercices par le système de RàPC initial, AI-VT propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, un changement toutes les trois ou quatre séances environ. En effet, le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes intégrant l'un des modules de recommandation testés sont plus dynamiques et les évolutions sont plus rapides. En considérant les notes des apprenants, l'algorithme déterministe suggère des changements de niveaux à un grand nombre d'apprenants de manière soudaine, tandis que l'algorithme stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modules de recommandation proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers. | 330 | 326 | Avec la génération d'exercices par le système de RàPC initial, AI-VT propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, un changement toutes les trois ou quatre séances environ. En effet, le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes intégrant l'un des modules de recommandation testés sont plus dynamiques et les évolutions sont plus rapides. En considérant les notes des apprenants, l'algorithme déterministe suggère des changements de niveaux à un grand nombre d'apprenants de manière soudaine, tandis que l'algorithme stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modules de recommandation proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers. | |
331 | 327 | |||
Les données générées ont permis de simuler diverses situations avec les notes de mille apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations. | 332 | 328 | Les données générées ont permis de simuler diverses situations avec les notes de mille apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations. | |
333 | 329 | |||
Les résultats numériques montrent que les distributions des questions dans une séance par les deux modules de recommandation sont différentes bien que la tendance générale soit similaire. Les modules de recommandation proposés tentent de répartir les questions dans tous les niveaux de complexité définis. Globalement, le module de recommandation stochastique a obtenu un meilleur score. En comparaison du système initial, les modules de recommandation (déterministe et stochastique) proposent 15\% à 68\% d'adaptations de la complexité pour tous les niveaux. Pour cette raison, l'approche stochastique sera préférée à l'approche déterministe dans la suite des travaux de recherche. | 334 | 330 | Les résultats numériques montrent que les distributions des questions dans une séance par les deux modules de recommandation sont différentes bien que la tendance générale soit similaire. Les modules de recommandation proposés tentent de répartir les questions dans tous les niveaux de complexité définis. Globalement, le module de recommandation stochastique a obtenu un meilleur score. En comparaison du système initial, les modules de recommandation (déterministe et stochastique) proposent 15\% à 68\% d'adaptations de la complexité pour tous les niveaux. Pour cette raison, l'approche stochastique sera préférée à l'approche déterministe dans la suite des travaux de recherche. | |
335 | 331 | |||
Selon la métrique de la similarité cosinus, le module de recommandation stochastique augmente la diversité des propositions par rapport au système initial dans les trois séances d'entrainement testées, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de progression des niveaux de compétence des apprenants. La diversité des propositions est une caractéristique essentielle de l'algorithme de recommandation dans ses deux versions. | 336 | 332 | Selon la métrique de la similarité cosinus, le module de recommandation stochastique augmente la diversité des propositions par rapport au système initial dans les trois séances d'entrainement testées, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de progression des niveaux de compétence des apprenants. La diversité des propositions est une caractéristique essentielle de l'algorithme de recommandation dans ses deux versions. | |
337 | 333 | |||
Les modules de recommandation sont un élément essentiel pour certains EIAH car ils aident à guider le processus d'apprentissage individuel. Ils permettent également d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les deux modules de recommandation proposés peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le niveau de complexité le plus adapté. Même si l'ensemble des données générées est une simulation de temps de réponse et de notes fictives d'apprenants fictifs, les tests démontrent la flexibilité et la robustesse des modules de recommandation proposés : les données relatives aux apprenants présentent en effet une grande diversité et obligent le système à s'adapter à différents types de configuration. Par conséquent, il est possible de conclure que les modules de recommandation proposés ont la capacité de fonctionner dans différentes situations et de proposer des chemins alternatifs et personnalisés pour améliorer le processus d'apprentissage global. | 338 | 334 | Les modules de recommandation sont un élément essentiel pour certains EIAH car ils aident à guider le processus d'apprentissage individuel. Ils permettent également d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les deux modules de recommandation proposés peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le niveau de complexité le plus adapté. Même si l'ensemble des données générées est une simulation de temps de réponse et de notes fictives d'apprenants fictifs, les tests démontrent la flexibilité et la robustesse des modules de recommandation proposés : les données relatives aux apprenants présentent en effet une grande diversité et obligent le système à s'adapter à différents types de configuration. Par conséquent, il est possible de conclure que les modules de recommandation proposés ont la capacité de fonctionner dans différentes situations et de proposer des chemins alternatifs et personnalisés pour améliorer le processus d'apprentissage global. | |
339 | 335 | |||
\section{ESCBR-SMA et échantillonnage de Thompson} | 340 | 336 | \section{ESCBR-SMA et échantillonnage de Thompson} | |
\sectionmark{ESCBR-SMA et TS} | 341 | 337 | \sectionmark{ESCBR-SMA et TS} | |
342 | 338 | |||
La section précédente a démontré l'intérêt de l'intégration d'un module de recommandation afin de proposer des exercices d'un niveau de difficulté adapté aux besoins de l'apprenant en fonction des difficultés décelées au cours de la séance d'entraînement. Le système AI-VT initial fondé sur le cycle du raisonnement à partir de cas et ne proposant que des adaptations entre deux séances d’entraînement consécutives, a été supplanté par l'intégration de modules de recommandation utilisés durant la phase de révision du cycle classique du RàPC. Les deux modules de recommandation testés dans la section précédente étaient l'un déterministe, l'autre stochastique. | 343 | 339 | La section précédente a démontré l'intérêt de l'intégration d'un module de recommandation afin de proposer des exercices d'un niveau de difficulté adapté aux besoins de l'apprenant en fonction des difficultés décelées au cours de la séance d'entraînement. Le système AI-VT initial fondé sur le cycle du raisonnement à partir de cas et ne proposant que des adaptations entre deux séances d’entraînement consécutives, a été supplanté par l'intégration de modules de recommandation utilisés durant la phase de révision du cycle classique du RàPC. Les deux modules de recommandation testés dans la section précédente étaient l'un déterministe, l'autre stochastique. | |
344 | 340 | |||
La section précédente a également démontré qu'il était possible et intéressant que les niveaux de complexité des exercices proposés puissent suivre des fonctions permettant de les faire fluctuer de manière progressive au cours de la séance, et ce afin que les apprenants ne soient pas confrontés à des difficultés changeant de manière trop abrupte durant l'entraînement. Cette étude nous amène donc à considérer la résolution de la génération d'une séance d'exercices sous l'angle de la régression. Nous proposons donc dans cette partie de montrer de quelle manière nous avons intégré et vérifié l'intérêt des outils définis dans le chapitre précédent dans l'EIAH AI-VT. | 345 | 341 | La section précédente a également démontré qu'il était possible et intéressant que les niveaux de complexité des exercices proposés puissent suivre des fonctions permettant de les faire fluctuer de manière progressive au cours de la séance, et ce afin que les apprenants ne soient pas confrontés à des difficultés changeant de manière trop abrupte durant l'entraînement. Cette étude nous amène donc à considérer la résolution de la génération d'une séance d'exercices sous l'angle de la régression. Nous proposons donc dans cette partie de montrer de quelle manière nous avons intégré et vérifié l'intérêt des outils définis dans le chapitre précédent dans l'EIAH AI-VT. | |
346 | 342 | |||
\subsection{Concepts Associés} | 347 | 343 | \subsection{Concepts Associés} | |
348 | 344 | |||
Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du module proposé. Le paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances acquises et l'expérience accumulée pour résoudre un problème spécifique. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC suit classiquement un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}. | 349 | 345 | Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du module proposé. Le paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances acquises et l'expérience accumulée pour résoudre un problème spécifique. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC suit classiquement un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}. | |
350 | 346 | |||
L'un des algorithmes les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (\textit{Bayesian Knowledge Tracing}) \cite{ZHANG2018189}. Cet algorithme utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur. $P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour selon les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée. | 351 | 347 | L'un des algorithmes les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (\textit{Bayesian Knowledge Tracing}) \cite{ZHANG2018189}. Cet algorithme utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur. $P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour selon les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée. | |
352 | 348 | |||
\begin{equation} | 353 | 349 | \begin{equation} | |
P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)} | 354 | 350 | P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)} | |
\label{eqbkt1} | 355 | 351 | \label{eqbkt1} | |
\end{equation} | 356 | 352 | \end{equation} | |
357 | 353 | |||
\begin{equation} | 358 | 354 | \begin{equation} | |
P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))} | 359 | 355 | P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))} | |
\label{eqbkt2} | 360 | 356 | \label{eqbkt2} | |
\end{equation} | 361 | 357 | \end{equation} | |
362 | 358 | |||
\begin{equation} | 363 | 359 | \begin{equation} | |
P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w) | 364 | 360 | P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w) | |
\label{eqbkt3} | 365 | 361 | \label{eqbkt3} | |
\end{equation} | 366 | 362 | \end{equation} | |
367 | 363 | |||
Le module de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. Nous nous intéressons ici plus particulièrement à l'échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Beta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}. | 368 | 364 | Le module de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. Nous nous intéressons ici plus particulièrement à l'échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Beta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}. | |
369 | 365 | |||
%\begin{equation} | 370 | 366 | %\begin{equation} | |
% Beta(x,\alpha,\beta)=\begin{cases} | 371 | 367 | % Beta(x,\alpha,\beta)=\begin{cases} | |
% \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\ | 372 | 368 | % \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\ | |
% 0&otherwise | 373 | 369 | % 0&otherwise | |
% \end{cases} | 374 | 370 | % \end{cases} | |
%\end{equation} | 375 | 371 | %\end{equation} | |
376 | 372 | |||
\begin{equation} | 377 | 373 | \begin{equation} | |
Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} | 378 | 374 | Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} | |
\label{fbeta} | 379 | 375 | \label{fbeta} | |
\end{equation} | 380 | 376 | \end{equation} | |
381 | 377 | |||
En utilisant la définition formelle de la fonction $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant certaines variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}). | 382 | 378 | En utilisant la définition formelle de la fonction $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant certaines variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}). | |
383 | 379 | |||
\begin{equation} | 384 | 380 | \begin{equation} | |
\Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx | 385 | 381 | \Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx | |
\label{eqGamma1} | 386 | 382 | \label{eqGamma1} | |
\end{equation} | 387 | 383 | \end{equation} | |
388 | 384 | |||
\begin{equation} | 389 | 385 | \begin{equation} | |
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1} | 390 | 386 | Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1} | |
\label{f2beta} | 391 | 387 | \label{f2beta} | |
\end{equation} | 392 | 388 | \end{equation} | |
393 | 389 | |||
En exprimant les deux intégrales du dénominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue. | 394 | 390 | En exprimant les deux intégrales du dénominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue. | |
395 | 391 | |||
\begin{equation} | 396 | 392 | \begin{equation} | |
\int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv | 397 | 393 | \int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv | |
\label{f3Beta} | 398 | 394 | \label{f3Beta} | |
\end{equation} | 399 | 395 | \end{equation} | |
400 | 396 | |||
$u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$ sont ensuite remplacées par le résultat du Jacobien \ref{eqJac}, menant ainsi à l'expression finale définie par l'équation \ref{f4Beta}. | 401 | 397 | $u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$ sont ensuite remplacées par le résultat du Jacobien \ref{eqJac}, menant ainsi à l'expression finale définie par l'équation \ref{f4Beta}. | |
402 | 398 | |||
\begin{equation} | 403 | 399 | \begin{equation} | |
\left ( | 404 | 400 | \left ( | |
\begin{matrix} | 405 | 401 | \begin{matrix} | |
\frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\ | 406 | 402 | \frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\ | |
\frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\ | 407 | 403 | \frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\ | |
\end{matrix} | 408 | 404 | \end{matrix} | |
\right ) = | 409 | 405 | \right ) = | |
\left ( | 410 | 406 | \left ( | |
\begin{matrix} | 411 | 407 | \begin{matrix} | |
sdt & tds \\ | 412 | 408 | sdt & tds \\ | |
-sdt & (1-t)ds\\ | 413 | 409 | -sdt & (1-t)ds\\ | |
\end{matrix} | 414 | 410 | \end{matrix} | |
\right ) = s \; dtds | 415 | 411 | \right ) = s \; dtds | |
\label{eqJac} | 416 | 412 | \label{eqJac} | |
\end{equation} | 417 | 413 | \end{equation} | |
418 | 414 | |||
\begin{equation} | 419 | 415 | \begin{equation} | |
\int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt | 420 | 416 | \int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt | |
\label{f4Beta} | 421 | 417 | \label{f4Beta} | |
\end{equation} | 422 | 418 | \end{equation} | |
423 | 419 | |||
Viennent ensuite les équations \ref{f5Beta} et \ref{f6Beta} en exprimant les intégrales en fonction des variables de substitution indépendantes $s$ et $t$. | 424 | 420 | Viennent ensuite les équations \ref{f5Beta} et \ref{f6Beta} en exprimant les intégrales en fonction des variables de substitution indépendantes $s$ et $t$. | |
425 | 421 | |||
\begin{equation} | 426 | 422 | \begin{equation} | |
\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | 427 | 423 | \int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | |
\label{f5Beta} | 428 | 424 | \label{f5Beta} | |
\end{equation} | 429 | 425 | \end{equation} | |
430 | 426 | |||
\begin{equation} | 431 | 427 | \begin{equation} | |
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | 432 | 428 | Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | |
}\theta^{\alpha-1}(1-\theta)^{\beta-1} | 433 | 429 | }\theta^{\alpha-1}(1-\theta)^{\beta-1} | |
\label{f6Beta} | 434 | 430 | \label{f6Beta} | |
\end{equation} | 435 | 431 | \end{equation} | |
436 | 432 | |||
Finalement, la famille de fonctions de distribution Beta peut être calculée selon l'équation \ref{f7Beta}. | 437 | 433 | Finalement, la famille de fonctions de distribution Beta peut être calculée selon l'équation \ref{f7Beta}. | |
438 | 434 | |||
\begin{equation} | 439 | 435 | \begin{equation} | |
Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | 440 | 436 | Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | |
} | 441 | 437 | } | |
\label{f7Beta} | 442 | 438 | \label{f7Beta} | |
\end{equation} | 443 | 439 | \end{equation} | |
444 | 440 | |||
L'évolution de l'algorithme de recommandation TS résulte du changement des distributions de probabilité. Il est à noter qu'au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude. | 445 | 441 | L'évolution de l'algorithme de recommandation TS résulte du changement des distributions de probabilité. Il est à noter qu'au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude. | |
446 | 442 | |||
Par ailleurs, l'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'informations nécessaires pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. Bien que largement utilisée, la divergence de Kullback-Liebler (équation \ref{dkl}) présente toutefois l'inconvénient de ne pas être une mesure symétrique car elle ne satisfait pas à l'inégalité triangulaire et n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon. | 447 | 443 | Par ailleurs, l'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'informations nécessaires pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. Bien que largement utilisée, la divergence de Kullback-Liebler (équation \ref{dkl}) présente toutefois l'inconvénient de ne pas être une mesure symétrique car elle ne satisfait pas à l'inégalité triangulaire et n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon. | |
448 | 444 | |||
\begin{equation} | 449 | 445 | \begin{equation} | |
D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx | 450 | 446 | D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx | |
\label{dkl} | 451 | 447 | \label{dkl} | |
\end{equation} | 452 | 448 | \end{equation} | |
453 | 449 | |||
La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler. Une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$. Celle-ci est calculée selon l'équation \ref{djs2}. Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine. | 454 | 450 | La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler. Une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$. Celle-ci est calculée selon l'équation \ref{djs2}. Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine. | |
455 | 451 | |||
%Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\ | 456 | 452 | %Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\ | |
457 | 453 | |||
\begin{equation} | 458 | 454 | \begin{equation} | |
D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x)) | 459 | 455 | D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x)) | |
\label{djs} | 460 | 456 | \label{djs} | |
\end{equation} | 461 | 457 | \end{equation} | |
462 | 458 | |||
\begin{equation} | 463 | 459 | \begin{equation} | |
m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x) | 464 | 460 | m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x) | |
\label{djs2} | 465 | 461 | \label{djs2} | |
\end{equation} | 466 | 462 | \end{equation} | |
467 | 463 | |||
La prédiction utilisée dans le module proposé ici a été présentée dans le chapitre \ref{ChapESCBR}. Il s'agit d'un algorithme d'empilement de raisonnement à partir de cas mettant en œuvre deux niveaux d'intégration. Le module utilise globalement la stratégie d'empilement pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et générer des solutions à différents problèmes génériques. En outre une étape d'évaluation permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. | 468 | 464 | La prédiction utilisée dans le module proposé ici a été présentée dans le chapitre \ref{ChapESCBR}. Il s'agit d'un algorithme d'empilement de raisonnement à partir de cas mettant en œuvre deux niveaux d'intégration. Le module utilise globalement la stratégie d'empilement pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et générer des solutions à différents problèmes génériques. En outre une étape d'évaluation permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. | |
469 | 465 | |||
\subsection{Algorithme Proposé} | 470 | 466 | \subsection{Algorithme Proposé} | |
\label{Sec:TS-ESCBR-SMA} | 471 | 467 | \label{Sec:TS-ESCBR-SMA} | |
472 | 468 | |||
Nous proposons ici une intégration de l'algorithme d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec ESCBR-SMA. Ainsi, le module de recommandation révise la séance en fonction des notes de l'apprenant et ESCBR-SMA effectue une prédiction pour valider l'adaptation générée. | 473 | 469 | Nous proposons ici une intégration de l'algorithme d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec ESCBR-SMA. Ainsi, le module de recommandation révise la séance en fonction des notes de l'apprenant et ESCBR-SMA effectue une prédiction pour valider l'adaptation générée. | |
474 | 470 | |||
L'idée est d'unifier les deux modules en se fondant à la fois sur des informations locales (recommandation fondée sur l'échantillonnage de Thompson (TS) et les informations propres à l'apprenant), et sur des informations globales (cas similaires de la base de connaissances du système de RàPC en suivant le principe du paradoxe de Stein) car le RàPC combine différents observations pour réaliser une estimation. | 475 | 471 | L'idée est d'unifier les deux modules en se fondant à la fois sur des informations locales (recommandation fondée sur l'échantillonnage de Thompson (TS) et les informations propres à l'apprenant), et sur des informations globales (cas similaires de la base de connaissances du système de RàPC en suivant le principe du paradoxe de Stein) car le RàPC combine différents observations pour réaliser une estimation. | |
476 | 472 | |||
L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, où l'on peut voir que les deux algorithmes TS et RàPC sont exécutés en parallèle et indépendamment. Des synchronisations sont faites après obtention des résultats de chaque module. Ces résultats sont unifiés via d'une fonction de pondération. La recommandation finale est calculée selon l'équation \ref{eqMixModels_}. Le \textit{paradoxe de Simpson} est un paradoxe dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés\cite{10.1145/3578337.3605122}. L'unification d'ensembles de données différents peut atténuer ce paradoxe \cite{lei2024analysis}. | 477 | 473 | L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, où l'on peut voir que les deux algorithmes TS et RàPC sont exécutés en parallèle et indépendamment. Des synchronisations sont faites après obtention des résultats de chaque module. Ces résultats sont unifiés via d'une fonction de pondération. La recommandation finale est calculée selon l'équation \ref{eqMixModels_}. Le \textit{paradoxe de Simpson} est un paradoxe dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés\cite{10.1145/3578337.3605122}. L'unification d'ensembles de données différents peut atténuer ce paradoxe \cite{lei2024analysis}. | |
478 | 474 | |||
\begin{figure} | 479 | 475 | \begin{figure} | |
\centering | 480 | 476 | \centering | |
\includegraphics[width=0.7\linewidth]{Figures/Model.png} | 481 | 477 | \includegraphics[width=0.7\linewidth]{Figures/Model.png} | |
\caption{Schéma de l'architecture de l'algorithme proposé} | 482 | 478 | \caption{Schéma de l'architecture de l'algorithme proposé} | |
\label{fig:Amodel} | 483 | 479 | \label{fig:Amodel} | |
\end{figure} | 484 | 480 | \end{figure} | |
485 | 481 | |||
La première étape est l'adaptation avec l'échantillonnage de Thompson. Vient ensuite la prédiction via ECBR-SMA. Enfin, le processus se termine par la prise de décision concernant la suite de la séance à délivrer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé ainsi que les mesures employées. | 486 | 482 | La première étape est l'adaptation avec l'échantillonnage de Thompson. Vient ensuite la prédiction via ECBR-SMA. Enfin, le processus se termine par la prise de décision concernant la suite de la séance à délivrer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé ainsi que les mesures employées. | |
487 | 483 | |||
\begin{table}[!ht] | 488 | 484 | \begin{table}[!ht] | |
\centering | 489 | 485 | \centering | |
\footnotesize | 490 | 486 | \footnotesize | |
\begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c} | 491 | 487 | \begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c} | |
ID&Type&Description&Domain\\ | 492 | 488 | ID&Type&Description&Domain\\ | |
\hline | 493 | 489 | \hline | |
$\alpha$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\ | 494 | 490 | $\alpha$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\ | |
$\beta$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\ | 495 | 491 | $\beta$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\ | |
$t$&p&Numéro de l'itération&$\mathbb{N}$\\ | 496 | 492 | $t$&p&Numéro de l'itération&$\mathbb{N}$\\ | |
$c$&p&Niveau de complexité&$\mathbb{N}$\\ | 497 | 493 | $c$&p&Niveau de complexité&$\mathbb{N}$\\ | |
$x_c$&p&Notes moyennes par niveau de complexité $c$&$\mathbb{R}$\\ | 498 | 494 | $x_c$&p&Notes moyennes par niveau de complexité $c$&$\mathbb{R}$\\ | |
$y_c$&p&Nombre de questions par niveau de complexité $c$&$\mathbb{N}$\\ | 499 | 495 | $y_c$&p&Nombre de questions par niveau de complexité $c$&$\mathbb{N}$\\ | |
$r$&f&Fonction suivie pour la recommandation&$[0,1] \in \mathbb{R}$\\ | 500 | 496 | $r$&f&Fonction suivie pour la recommandation&$[0,1] \in \mathbb{R}$\\ | |
$k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ | 501 | 497 | $k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ | |
$vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\ | 502 | 498 | $vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\ | |
$TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ | 503 | 499 | $TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ | |
$TSN_c$&v&Normalisation de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\ | 504 | 500 | $TSN_c$&v&Normalisation de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\ | |
$ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\ | 505 | 501 | $ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\ | |
$p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\ | 506 | 502 | $p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\ | |
$D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\ | 507 | 503 | $D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\ | |
508 | 504 | |||
\end{tabular} | 509 | 505 | \end{tabular} | |
\caption{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées} | 510 | 506 | \caption{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées} | |
\label{tabvp} | 511 | 507 | \label{tabvp} | |
\end{table} | 512 | 508 | \end{table} | |
513 | 509 | |||
Pour rappel, le processus de recommandation se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le algorithme TS (équation \ref{IntEq1_}). Une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée selon l'équation \ref{IntEq2_}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par ESCBR-SMA (équation \ref{eqMixModels_}). La recommandation finalement proposée est celle dont la valeur est la plus élevée. | 514 | 510 | Pour rappel, le processus de recommandation se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le algorithme TS (équation \ref{IntEq1_}). Une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée selon l'équation \ref{IntEq2_}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par ESCBR-SMA (équation \ref{eqMixModels_}). La recommandation finalement proposée est celle dont la valeur est la plus élevée. | |
515 | 511 | |||
\begin{equation} | 516 | 512 | \begin{equation} | |
TS_c=rand(Beta(\alpha_c, \beta_c)) | 517 | 513 | TS_c=rand(Beta(\alpha_c, \beta_c)) | |
\label{IntEq1_} | 518 | 514 | \label{IntEq1_} | |
\end{equation} | 519 | 515 | \end{equation} | |
520 | 516 | |||
\begin{equation} | 521 | 517 | \begin{equation} | |
TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i} | 522 | 518 | TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i} | |
\label{IntEq2_} | 523 | 519 | \label{IntEq2_} | |
\end{equation} | 524 | 520 | \end{equation} | |
525 | 521 | |||
\begin{equation} | 526 | 522 | \begin{equation} | |
n_c=argmax_c(TSN_c*ESCBR_c) | 527 | 523 | n_c=argmax_c(TSN_c*ESCBR_c) | |
\label{eqMixModels_} | 528 | 524 | \label{eqMixModels_} | |
\end{equation} | 529 | 525 | \end{equation} | |
530 | 526 | |||
\subsection{Résultats et Discussion} | 531 | 527 | \subsection{Résultats et Discussion} | |
532 | 528 | |||
Le principal inconvénient posé par la validation d'un tel système « en situation réelle » est la difficulté à collecter des données et à évaluer des systèmes différents dans des conditions strictement similaires. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulés, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment rendant ainsi les données incomplètes \cite{badier:hal-04092828}. | 533 | 529 | Le principal inconvénient posé par la validation d'un tel système « en situation réelle » est la difficulté à collecter des données et à évaluer des systèmes différents dans des conditions strictement similaires. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulés, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment rendant ainsi les données incomplètes \cite{badier:hal-04092828}. | |
534 | 530 | |||
Pour cette raison, les différentes approches proposées ont été testées sur des données générées : les notes et les temps de réponse de 1000 apprenants fictifs et cinq questions par niveau de complexité. Les notes des apprenants ont été créées en suivant la loi de distribution \textit{logit-normale} que nous avons jugée proche de la réalité de la progression d'un apprentissage \cite{Data}. | 535 | 531 | Pour cette raison, les différentes approches proposées ont été testées sur des données générées : les notes et les temps de réponse de 1000 apprenants fictifs et cinq questions par niveau de complexité. Les notes des apprenants ont été créées en suivant la loi de distribution \textit{logit-normale} que nous avons jugée proche de la réalité de la progression d'un apprentissage \cite{Data}. | |
536 | 532 | |||
Quatre séries de tests ont été effectuées. La première série a été menée sur le système AI-VT intégrant le système de RàPC pour la régression afin de démontrer la capacité de l'algorithme à prédire les notes à différents niveaux de complexité. | 537 | 533 | Quatre séries de tests ont été effectuées. La première série a été menée sur le système AI-VT intégrant le système de RàPC pour la régression afin de démontrer la capacité de l'algorithme à prédire les notes à différents niveaux de complexité. | |
La deuxième série de tests a évalué la progression des connaissances avec TS afin d'analyser la capacité du module à proposer des recommandations personnalisées. Lors de la troisième série de tests, nous avons comparé les algorithmes de recommandation BKT et TS. Enfin, lors de la quatrième série de tests, nous avons comparé TS seul et TS avec ESCBR-SMA. | 538 | 534 | La deuxième série de tests a évalué la progression des connaissances avec TS afin d'analyser la capacité du module à proposer des recommandations personnalisées. Lors de la troisième série de tests, nous avons comparé les algorithmes de recommandation BKT et TS. Enfin, lors de la quatrième série de tests, nous avons comparé TS seul et TS avec ESCBR-SMA. | |
539 | 535 | |||
\subsubsection{Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain} | 540 | 536 | \subsubsection{Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain} | |
541 | 537 | |||
Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d'intéragir au cours de l'exécution et de l'exploration. | 542 | 538 | Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d'intéragir au cours de l'exécution et de l'exploration. | |
543 | 539 | |||
ESCBR-SMA utilise une fonction noyau pour obtenir la meilleure approximation de la solution du problème cible. Dans notre cas, l'obtention de la meilleure solution est un problème NP-Difficile car la formulation est similaire au problème de Fermat-Weber à $N$ dimensions \cite{doi:10.1137/23M1592420}. | 544 | 540 | ESCBR-SMA utilise une fonction noyau pour obtenir la meilleure approximation de la solution du problème cible. Dans notre cas, l'obtention de la meilleure solution est un problème NP-Difficile car la formulation est similaire au problème de Fermat-Weber à $N$ dimensions \cite{doi:10.1137/23M1592420}. | |
545 | 541 | |||
Les différents scénarios du tableau \ref{tab:scenarios} ont été considérés dans un premier temps. Dans le scénario $E_1$, il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario $E_2$ considère les notes de 8 questions et l'objectif est de prédire la note de la neuvième question dans le même niveau de complexité. Le scénario $E_3$ interpole la neuvième note que l'apprenant obtiendrait si la neuvième question était de niveau de complexité supérieur à celui de la huitième question. Cette interpolation est faite sur la base des notes obtenues aux quatre questions précédentes. Le scénario $E_4$ considère 4 questions et le système doit interpoler 2 notes dans un niveau de complexité supérieur. | 546 | 542 | Les différents scénarios du tableau \ref{tab:scenarios} ont été considérés dans un premier temps. Dans le scénario $E_1$, il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario $E_2$ considère les notes de 8 questions et l'objectif est de prédire la note de la neuvième question dans le même niveau de complexité. Le scénario $E_3$ interpole la neuvième note que l'apprenant obtiendrait si la neuvième question était de niveau de complexité supérieur à celui de la huitième question. Cette interpolation est faite sur la base des notes obtenues aux quatre questions précédentes. Le scénario $E_4$ considère 4 questions et le système doit interpoler 2 notes dans un niveau de complexité supérieur. | |
547 | 543 | |||
\begin{table}[!ht] | 548 | 544 | \begin{table}[!ht] | |
\centering | 549 | 545 | \centering | |
\begin{tabular}{ccc} | 550 | 546 | \begin{tabular}{ccc} | |
Scenario&Caractéristiques du problème&Dimension de la solution\\ | 551 | 547 | Scenario&Caractéristiques du problème&Dimension de la solution\\ | |
\hline | 552 | 548 | \hline | |
$E_1$ & 5 & 1\\ | 553 | 549 | $E_1$ & 5 & 1\\ | |
$E_2$ & 15& 1\\ | 554 | 550 | $E_2$ & 15& 1\\ | |
$E_3$ & 9 & 1\\ | 555 | 551 | $E_3$ & 9 & 1\\ | |
$E_4$ & 9 & 2\\ | 556 | 552 | $E_4$ & 9 & 2\\ | |
\end{tabular} | 557 | 553 | \end{tabular} | |
\caption{Description des scénarios} | 558 | 554 | \caption{Description des scénarios} | |
\label{tab:scenarios} | 559 | 555 | \label{tab:scenarios} | |
\end{table} | 560 | 556 | \end{table} | |
561 | 557 | |||
ESCBR-SMA a été comparé aux neuf outils classiquement utilisés pour résoudre la régression consignés dans le tableau \ref{tabAlgs} et selon l'erreur quadratique moyenne (RMSE - \textit{Root Mean Squared Error}), l'erreur médiane absolue (MedAE - \textit{Median Absolute Error}) et l'erreur moyenne absolue (MAE - \textit{Mean Absolute Error}). | 562 | 558 | ESCBR-SMA a été comparé aux neuf outils classiquement utilisés pour résoudre la régression consignés dans le tableau \ref{tabAlgs} et selon l'erreur quadratique moyenne (RMSE - \textit{Root Mean Squared Error}), l'erreur médiane absolue (MedAE - \textit{Median Absolute Error}) et l'erreur moyenne absolue (MAE - \textit{Mean Absolute Error}). | |
563 | 559 | |||
\begin{table}[!ht] | 564 | 560 | \begin{table}[!ht] | |
\centering | 565 | 561 | \centering | |
\footnotesize | 566 | 562 | \footnotesize | |
\begin{tabular}{ll|ll} | 567 | 563 | \begin{tabular}{ll|ll} | |
ID&Algorithm&ID&Algorithm\\ | 568 | 564 | ID&Algorithm&ID&Algorithm\\ | |
\hline | 569 | 565 | \hline | |
A1&Linear Regression&A6&Polinomial Regression\\ | 570 | 566 | A1&Linear Regression&A6&Polinomial Regression\\ | |
A2&K-Nearest Neighbor&A7&Ridge Regression\\ | 571 | 567 | A2&K-Nearest Neighbor&A7&Ridge Regression\\ | |
A3&Decision Tree&A8&Lasso Regression\\ | 572 | 568 | A3&Decision Tree&A8&Lasso Regression\\ | |
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | 573 | 569 | A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | |
A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\\ | 574 | 570 | A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\\ | |
\end{tabular} | 575 | 571 | \end{tabular} | |
\caption{Liste des algorithmes évalués } | 576 | 572 | \caption{Liste des algorithmes évalués } | |
\label{tabAlgs} | 577 | 573 | \label{tabAlgs} | |
\end{table} | 578 | 574 | \end{table} | |
579 | 575 | |||
Le tableau \ref{tab:results} présente les résultats obtenus par les 10 algorithmes sur les quatre scénarios. Ces résultats montrent qu'ESCBR-SMA (A10) et le \textit{Gradient Boosting} (A9) obtiennent toujours les deux meilleurs résultats. Si l'on considère uniquement la RMSE, ESCBR-SMA occupe toujours la première place sauf pour $E_3$ où il est deuxième. Inversement, en considérant l'erreur médiane absolue ou l'erreur moyenne absolue, A10 se classe juste après A9. ESCBR-SMA et le \textit{Gradient Boosting} sont donc efficaces pour interpoler les notes des apprenants. | 580 | 576 | Le tableau \ref{tab:results} présente les résultats obtenus par les 10 algorithmes sur les quatre scénarios. Ces résultats montrent qu'ESCBR-SMA (A10) et le \textit{Gradient Boosting} (A9) obtiennent toujours les deux meilleurs résultats. Si l'on considère uniquement la RMSE, ESCBR-SMA occupe toujours la première place sauf pour $E_3$ où il est deuxième. Inversement, en considérant l'erreur médiane absolue ou l'erreur moyenne absolue, A10 se classe juste après A9. ESCBR-SMA et le \textit{Gradient Boosting} sont donc efficaces pour interpoler les notes des apprenants. | |
581 | 577 | |||
\begin{table}[!ht] | 582 | 578 | \begin{table}[!ht] | |
\centering | 583 | 579 | \centering | |
\footnotesize | 584 | 580 | \footnotesize | |
\begin{tabular}{c|cccccccccc} | 585 | 581 | \begin{tabular}{c|cccccccccc} | |
&\multicolumn{10}{c}{\textbf{Algorithme}}\\ | 586 | 582 | &\multicolumn{10}{c}{\textbf{Algorithme}}\\ | |
\hline | 587 | 583 | \hline | |
& A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | 588 | 584 | & A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
\textbf{Scenario (Metrique)}\\ | 589 | 585 | \textbf{Scenario (Metrique)}\\ | |
\hline | 590 | 586 | \hline | |
$E_1$ (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\ | 591 | 587 | $E_1$ (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\ | |
$E_1$ (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\ | 592 | 588 | $E_1$ (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\ | |
$E_1$ (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\ | 593 | 589 | $E_1$ (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\ | |
\hline | 594 | 590 | \hline | |
$E_2$ (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\ | 595 | 591 | $E_2$ (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\ | |
$E_2$ (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\ | 596 | 592 | $E_2$ (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\ | |
$E_2$ (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\ | 597 | 593 | $E_2$ (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\ | |
\hline | 598 | 594 | \hline | |
$E_3$ (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\ | 599 | 595 | $E_3$ (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\ | |
$E_3$ (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\ | 600 | 596 | $E_3$ (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\ | |
$E_3$ (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\ | 601 | 597 | $E_3$ (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\ | |
\hline | 602 | 598 | \hline | |
$E_4$ (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\ | 603 | 599 | $E_4$ (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\ | |
$E_4$ (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\ | 604 | 600 | $E_4$ (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\ | |
$E_4$ (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\ | 605 | 601 | $E_4$ (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\ | |
\end{tabular} | 606 | 602 | \end{tabular} | |
\caption{Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.} | 607 | 603 | \caption{Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.} | |
\label{tab:results} | 608 | 604 | \label{tab:results} | |
\end{table} | 609 | 605 | \end{table} | |
610 | 606 | |||
\subsubsection{Progression des connaissances} | 611 | 607 | \subsubsection{Progression des connaissances} | |
612 | 608 | |||
L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté au problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). | 613 | 609 | L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté au problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). | |
614 | 610 | |||
%\begin{equation} | 615 | 611 | %\begin{equation} | |
\begin{multline} | 616 | 612 | \begin{multline} | |
k_{t,c}=\frac{1}{2} | 617 | 613 | k_{t,c}=\frac{1}{2} | |
\int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx | 618 | 614 | \int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx | |
\\ | 619 | 615 | \\ | |
+\frac{1}{2} | 620 | 616 | +\frac{1}{2} | |
\int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx | 621 | 617 | \int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx | |
\label{eqprog1} | 622 | 618 | \label{eqprog1} | |
\end{multline} | 623 | 619 | \end{multline} | |
%\end{equation} | 624 | 620 | %\end{equation} | |
625 | 621 | |||
\begin{multline} | 626 | 622 | \begin{multline} | |
m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\ | 627 | 623 | m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\ | |
+\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right ) | 628 | 624 | +\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right ) | |
%\end{equation} | 629 | 625 | %\end{equation} | |
\label{eqprog2} | 630 | 626 | \label{eqprog2} | |
\end{multline} | 631 | 627 | \end{multline} | |
632 | 628 | |||
La progression du nombre total de connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). Pour ce faire, nous évaluons la progression de la variabilité données par équation \ref{eqVarP}. | 633 | 629 | La progression du nombre total de connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). Pour ce faire, nous évaluons la progression de la variabilité données par équation \ref{eqVarP}. | |
634 | 630 | |||
\begin{equation} | 635 | 631 | \begin{equation} | |
vk_{t,c}=\begin{cases} | 636 | 632 | vk_{t,c}=\begin{cases} | |
D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\ | 637 | 633 | D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\ | |
-D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise | 638 | 634 | -D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise | |
\end{cases} | 639 | 635 | \end{cases} | |
\label{eqVarP} | 640 | 636 | \label{eqVarP} | |
\end{equation} | 641 | 637 | \end{equation} | |
642 | 638 | |||
\begin{equation} | 643 | 639 | \begin{equation} | |
k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0} | 644 | 640 | k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0} | |
\begin{cases} | 645 | 641 | \begin{cases} | |
\alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\ | 646 | 642 | \alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\ | |
0;&Otherwise | 647 | 643 | 0;&Otherwise | |
\end{cases} | 648 | 644 | \end{cases} | |
\label{eqTEK} | 649 | 645 | \label{eqTEK} | |
\end{equation} | 650 | 646 | \end{equation} | |
651 | 647 | |||
\begin{figure}[!ht] | 652 | 648 | \begin{figure}[!ht] | |
\centering | 653 | 649 | \centering | |
\includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg} | 654 | 650 | \includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg} | |
\caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon} | 655 | 651 | \caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon} | |
\label{fig:evolution} | 656 | 652 | \label{fig:evolution} | |
\end{figure} | 657 | 653 | \end{figure} | |
658 | 654 | |||
La figure \ref{fig:evolution} montre la progression cumulée des connaissances sur les quinze questions d'une même séance d'entrainement. L'augmentation de la moyenne du niveau de connaissance entre la première et la dernière question de la même séance montre que tous les apprenants ont statistiquement augmenté leur niveau de connaissance. La variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants. À ce stade, la variabilité diminue et la moyenne augmente. | 659 | 655 | La figure \ref{fig:evolution} montre la progression cumulée des connaissances sur les quinze questions d'une même séance d'entrainement. L'augmentation de la moyenne du niveau de connaissance entre la première et la dernière question de la même séance montre que tous les apprenants ont statistiquement augmenté leur niveau de connaissance. La variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants. À ce stade, la variabilité diminue et la moyenne augmente. | |
660 | 656 | |||
\subsubsection{Système de recommandation avec un jeu de données d'étudiants réels} | 661 | 657 | \subsubsection{Système de recommandation avec un jeu de données d'étudiants réels} | |
662 | 658 | |||
Le système de recommandation TS a été testé avec un ensemble de données adaptées extraites de données réelles d'interactions d'étudiants avec un environnement d'apprentissage virtuel pour différents cours \cite{Kuzilek2017}. Cet ensemble contient les notes de $23366$ apprenants dans différents cours. Les apprenants ont été évalués selon différentes modalités (partiels, projets, QCM) \cite{Data}. Cet ensemble de données a pu être intégré au jeu de données d'AI-VT (notes, temps de réponse et 5 niveaux de complexité). Le test a consisté à générer une recommandation pour l'avant dernière question en fonction des notes précédentes. Ce test a été exécuté 100 fois pour chaque apprenant. Les nombres de questions recommandées sont reportés sur la figure \ref{fig:stabilityBP} pour chaque niveau de complexité. Celle-ci montre que malgré la stochasticité, la variance globale dans tous les niveaux de complexité est faible en fonction du nombre total d'apprenants et du nombre total de recommandations, et démontre ainsi la stabilité de l'algorithme.\\ | 663 | 659 | Le système de recommandation TS a été testé avec un ensemble de données adaptées extraites de données réelles d'interactions d'étudiants avec un environnement d'apprentissage virtuel pour différents cours \cite{Kuzilek2017}. Cet ensemble contient les notes de $23366$ apprenants dans différents cours. Les apprenants ont été évalués selon différentes modalités (partiels, projets, QCM) \cite{Data}. Cet ensemble de données a pu être intégré au jeu de données d'AI-VT (notes, temps de réponse et 5 niveaux de complexité). Le test a consisté à générer une recommandation pour l'avant dernière question en fonction des notes précédentes. Ce test a été exécuté 100 fois pour chaque apprenant. Les nombres de questions recommandées sont reportés sur la figure \ref{fig:stabilityBP} pour chaque niveau de complexité. Celle-ci montre que malgré la stochasticité, la variance globale dans tous les niveaux de complexité est faible en fonction du nombre total d'apprenants et du nombre total de recommandations, et démontre ainsi la stabilité de l'algorithme.\\ | |
664 | 660 | |||
\begin{figure}[!ht] | 665 | 661 | \begin{figure}[!ht] | |
\centering | 666 | 662 | \centering | |
\includegraphics[width=1\linewidth]{Figures/stabilityBoxplot.png} | 667 | 663 | \includegraphics[width=1\linewidth]{Figures/stabilityBoxplot.png} | |
\caption{Nombre de recommandations par niveau de complexité} | 668 | 664 | \caption{Nombre de recommandations par niveau de complexité} | |
\label{fig:stabilityBP} | 669 | 665 | \label{fig:stabilityBP} | |
\end{figure} | 670 | 666 | \end{figure} | |
671 | 667 | |||
La précision de la recommandation pour tous les apprenants est évaluée en considérant comme comportement correct deux états : i) l'algorithme recommande un niveau où l'apprenant a une note supérieure ou égal à 6 et ii) l'algorithme recommande un niveau inférieur au niveau réel évalué par l'apprenant. Le premier cas montre que l'algorithme a identifié le moment précis où l'apprenant doit augmenter le niveau de complexité, le second cas permet d'établir que l'algorithme propose de renforcer un niveau de complexité plus faible. Puis la précision est calculée comme le rapport entre le nombre d'états correspondant aux comportements corrects définis et le nombre total de recommandations. La figure \ref{fig:precision} montre les résultats de cette métrique après 100 exécutions.\\ | 672 | 668 | La précision de la recommandation pour tous les apprenants est évaluée en considérant comme comportement correct deux états : i) l'algorithme recommande un niveau où l'apprenant a une note supérieure ou égal à 6 et ii) l'algorithme recommande un niveau inférieur au niveau réel évalué par l'apprenant. Le premier cas montre que l'algorithme a identifié le moment précis où l'apprenant doit augmenter le niveau de complexité, le second cas permet d'établir que l'algorithme propose de renforcer un niveau de complexité plus faible. Puis la précision est calculée comme le rapport entre le nombre d'états correspondant aux comportements corrects définis et le nombre total de recommandations. La figure \ref{fig:precision} montre les résultats de cette métrique après 100 exécutions.\\ | |
673 | 669 | |||
\begin{figure}[!ht] | 674 | 670 | \begin{figure}[!ht] | |
\centering | 675 | 671 | \centering | |
\includegraphics[width=1\linewidth]{Figures/precision.png} | 676 | 672 | \includegraphics[width=1\linewidth]{Figures/precision.png} | |
\caption{Précision de la recommandation} | 677 | 673 | \caption{Précision de la recommandation} | |
\label{fig:precision} | 678 | 674 | \label{fig:precision} | |
\end{figure} | 679 | 675 | \end{figure} | |
680 | 676 | |||
\subsubsection{Comparaison entre TS et BKT} | 681 | 677 | \subsubsection{Comparaison entre TS et BKT} | |
682 | 678 | |||
La figure \ref{fig:EvGrades} permet de comparer la recommandation fondée sur l'échantillonnage de Thompson et celle fondée sur BKT. Cette figure montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le TS génère moins de variabilité que BKT, mais les évolutions induites par les deux systèmes restent globalement très similaires. | 683 | 679 | La figure \ref{fig:EvGrades} permet de comparer la recommandation fondée sur l'échantillonnage de Thompson et celle fondée sur BKT. Cette figure montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le TS génère moins de variabilité que BKT, mais les évolutions induites par les deux systèmes restent globalement très similaires. | |
684 | 680 | |||
\begin{figure}[!ht] | 685 | 681 | \begin{figure}[!ht] | |
\centering | 686 | 682 | \centering | |
\includegraphics[width=\textwidth]{Figures/GradesEv.jpg} | 687 | 683 | \includegraphics[width=\textwidth]{Figures/GradesEv.jpg} | |
\caption{Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.} | 688 | 684 | \caption{Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.} | |
\label{fig:EvGrades} | 689 | 685 | \label{fig:EvGrades} | |
\end{figure} | 690 | 686 | \end{figure} | |
691 | 687 | |||
Toutefois, si l'on considère l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), TS fait évoluer le niveau de complexité des apprenants, alors que BKT a tendance à laisser les apprenants au même niveau de complexité. Autrement dit, avec BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En comparant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}), TS permet de faire progresser la moyenne des notes et facilite l'évolution des niveaux de complexité. | 692 | 688 | Toutefois, si l'on considère l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), TS fait évoluer le niveau de complexité des apprenants, alors que BKT a tendance à laisser les apprenants au même niveau de complexité. Autrement dit, avec BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En comparant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}), TS permet de faire progresser la moyenne des notes et facilite l'évolution des niveaux de complexité. | |
693 | 689 | |||
\begin{figure}[!ht] | 694 | 690 | \begin{figure}[!ht] | |
\centering | 695 | 691 | \centering | |
\includegraphics[width=\textwidth]{Figures/LevelsEv.jpg} | 696 | 692 | \includegraphics[width=\textwidth]{Figures/LevelsEv.jpg} | |
\caption{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS} | 697 | 693 | \caption{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS} | |
\label{fig:EvCL} | 698 | 694 | \label{fig:EvCL} |
main.log
View file @
d5c40fb
This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 12 JUL 2025 14:38 | 1 | 1 | This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 12 JUL 2025 19:22 | |
entering extended mode | 2 | 2 | entering extended mode | |
restricted \write18 enabled. | 3 | 3 | restricted \write18 enabled. | |
%&-line parsing enabled. | 4 | 4 | %&-line parsing enabled. | |
**main.tex | 5 | 5 | **main.tex | |
(./main.tex | 6 | 6 | (./main.tex | |
LaTeX2e <2022-11-01> patch level 1 | 7 | 7 | LaTeX2e <2022-11-01> patch level 1 | |
L3 programming layer <2023-05-22> (./spimufcphdthesis.cls | 8 | 8 | L3 programming layer <2023-05-22> (./spimufcphdthesis.cls | |
Document Class: spimufcphdthesis 2022/02/10 | 9 | 9 | Document Class: spimufcphdthesis 2022/02/10 | |
10 | 10 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-docum | 11 | 11 | (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-docum | |
ent.cls | 12 | 12 | ent.cls | |
Document Class: upmethodology-document 2022/10/04 | 13 | 13 | Document Class: upmethodology-document 2022/10/04 | |
(./upmethodology-p-common.sty | 14 | 14 | (./upmethodology-p-common.sty | |
Package: upmethodology-p-common 2015/04/24 | 15 | 15 | Package: upmethodology-p-common 2015/04/24 | |
16 | 16 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/ifthen.sty | 17 | 17 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/ifthen.sty | |
Package: ifthen 2022/04/13 v1.1d Standard LaTeX ifthen package (DPC) | 18 | 18 | Package: ifthen 2022/04/13 v1.1d Standard LaTeX ifthen package (DPC) | |
) | 19 | 19 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/xspace.sty | 20 | 20 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/xspace.sty | |
Package: xspace 2014/10/28 v1.13 Space after command names (DPC,MH) | 21 | 21 | Package: xspace 2014/10/28 v1.13 Space after command names (DPC,MH) | |
) | 22 | 22 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/xcolor/xcolor.sty | 23 | 23 | (/usr/local/texlive/2023/texmf-dist/tex/latex/xcolor/xcolor.sty | |
Package: xcolor 2022/06/12 v2.14 LaTeX color extensions (UK) | 24 | 24 | Package: xcolor 2022/06/12 v2.14 LaTeX color extensions (UK) | |
25 | 25 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/color.cfg | 26 | 26 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/color.cfg | |
File: color.cfg 2016/01/02 v1.6 sample color configuration | 27 | 27 | File: color.cfg 2016/01/02 v1.6 sample color configuration | |
) | 28 | 28 | ) | |
Package xcolor Info: Driver file: pdftex.def on input line 227. | 29 | 29 | Package xcolor Info: Driver file: pdftex.def on input line 227. | |
30 | 30 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-def/pdftex.def | 31 | 31 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-def/pdftex.def | |
File: pdftex.def 2022/09/22 v1.2b Graphics/color driver for pdftex | 32 | 32 | File: pdftex.def 2022/09/22 v1.2b Graphics/color driver for pdftex | |
) | 33 | 33 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/mathcolor.ltx) | 34 | 34 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/mathcolor.ltx) | |
Package xcolor Info: Model `cmy' substituted by `cmy0' on input line 1353. | 35 | 35 | Package xcolor Info: Model `cmy' substituted by `cmy0' on input line 1353. | |
Package xcolor Info: Model `hsb' substituted by `rgb' on input line 1357. | 36 | 36 | Package xcolor Info: Model `hsb' substituted by `rgb' on input line 1357. | |
Package xcolor Info: Model `RGB' extended on input line 1369. | 37 | 37 | Package xcolor Info: Model `RGB' extended on input line 1369. | |
Package xcolor Info: Model `HTML' substituted by `rgb' on input line 1371. | 38 | 38 | Package xcolor Info: Model `HTML' substituted by `rgb' on input line 1371. | |
Package xcolor Info: Model `Hsb' substituted by `hsb' on input line 1372. | 39 | 39 | Package xcolor Info: Model `Hsb' substituted by `hsb' on input line 1372. | |
Package xcolor Info: Model `tHsb' substituted by `hsb' on input line 1373. | 40 | 40 | Package xcolor Info: Model `tHsb' substituted by `hsb' on input line 1373. | |
Package xcolor Info: Model `HSB' substituted by `hsb' on input line 1374. | 41 | 41 | Package xcolor Info: Model `HSB' substituted by `hsb' on input line 1374. | |
Package xcolor Info: Model `Gray' substituted by `gray' on input line 1375. | 42 | 42 | Package xcolor Info: Model `Gray' substituted by `gray' on input line 1375. | |
Package xcolor Info: Model `wave' substituted by `hsb' on input line 1376. | 43 | 43 | Package xcolor Info: Model `wave' substituted by `hsb' on input line 1376. | |
) | 44 | 44 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifpdf.sty | 45 | 45 | (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifpdf.sty | |
Package: ifpdf 2019/10/25 v3.4 ifpdf legacy package. Use iftex instead. | 46 | 46 | Package: ifpdf 2019/10/25 v3.4 ifpdf legacy package. Use iftex instead. | |
47 | 47 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/iftex.sty | 48 | 48 | (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/iftex.sty | |
Package: iftex 2022/02/03 v1.0f TeX engine tests | 49 | 49 | Package: iftex 2022/02/03 v1.0f TeX engine tests | |
)) | 50 | 50 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/UPMVERSION.def)) | 51 | 51 | (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/UPMVERSION.def)) | |
*********** UPMETHODOLOGY BOOK CLASS (WITH PART AND CHAPTER) | 52 | 52 | *********** UPMETHODOLOGY BOOK CLASS (WITH PART AND CHAPTER) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/book.cls | 53 | 53 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/book.cls | |
Document Class: book 2022/07/02 v1.4n Standard LaTeX document class | 54 | 54 | Document Class: book 2022/07/02 v1.4n Standard LaTeX document class | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/bk11.clo | 55 | 55 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/bk11.clo | |
File: bk11.clo 2022/07/02 v1.4n Standard LaTeX file (size option) | 56 | 56 | File: bk11.clo 2022/07/02 v1.4n Standard LaTeX file (size option) | |
) | 57 | 57 | ) | |
\c@part=\count185 | 58 | 58 | \c@part=\count185 | |
\c@chapter=\count186 | 59 | 59 | \c@chapter=\count186 | |
\c@section=\count187 | 60 | 60 | \c@section=\count187 | |
\c@subsection=\count188 | 61 | 61 | \c@subsection=\count188 | |
\c@subsubsection=\count189 | 62 | 62 | \c@subsubsection=\count189 | |
\c@paragraph=\count190 | 63 | 63 | \c@paragraph=\count190 | |
\c@subparagraph=\count191 | 64 | 64 | \c@subparagraph=\count191 | |
\c@figure=\count192 | 65 | 65 | \c@figure=\count192 | |
\c@table=\count193 | 66 | 66 | \c@table=\count193 | |
\abovecaptionskip=\skip48 | 67 | 67 | \abovecaptionskip=\skip48 | |
\belowcaptionskip=\skip49 | 68 | 68 | \belowcaptionskip=\skip49 | |
\bibindent=\dimen140 | 69 | 69 | \bibindent=\dimen140 | |
) | 70 | 70 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/a4wide/a4wide.sty | 71 | 71 | (/usr/local/texlive/2023/texmf-dist/tex/latex/a4wide/a4wide.sty | |
Package: a4wide 1994/08/30 | 72 | 72 | Package: a4wide 1994/08/30 | |
73 | 73 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/ntgclass/a4.sty | 74 | 74 | (/usr/local/texlive/2023/texmf-dist/tex/latex/ntgclass/a4.sty | |
Package: a4 2023/01/10 v1.2g A4 based page layout | 75 | 75 | Package: a4 2023/01/10 v1.2g A4 based page layout | |
)) | 76 | 76 | )) | |
(./upmethodology-document.sty | 77 | 77 | (./upmethodology-document.sty | |
Package: upmethodology-document 2015/04/24 | 78 | 78 | Package: upmethodology-document 2015/04/24 | |
79 | 79 | |||
**** upmethodology-document is using French language **** | 80 | 80 | **** upmethodology-document is using French language **** | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/babel.sty | 81 | 81 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/babel.sty | |
Package: babel 2023/05/11 v3.89 The Babel package | 82 | 82 | Package: babel 2023/05/11 v3.89 The Babel package | |
\babel@savecnt=\count194 | 83 | 83 | \babel@savecnt=\count194 | |
\U@D=\dimen141 | 84 | 84 | \U@D=\dimen141 | |
\l@unhyphenated=\language87 | 85 | 85 | \l@unhyphenated=\language87 | |
86 | 86 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/txtbabel.def) | 87 | 87 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/txtbabel.def) | |
\bbl@readstream=\read2 | 88 | 88 | \bbl@readstream=\read2 | |
\bbl@dirlevel=\count195 | 89 | 89 | \bbl@dirlevel=\count195 | |
90 | 90 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf | 91 | 91 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf | |
Language: french 2023/03/08 v3.5q French support from the babel system | 92 | 92 | Language: french 2023/03/08 v3.5q French support from the babel system | |
Package babel Info: Hyphen rules for 'acadian' set to \l@french | 93 | 93 | Package babel Info: Hyphen rules for 'acadian' set to \l@french | |
(babel) (\language29). Reported on input line 91. | 94 | 94 | (babel) (\language29). Reported on input line 91. | |
Package babel Info: Hyphen rules for 'canadien' set to \l@french | 95 | 95 | Package babel Info: Hyphen rules for 'canadien' set to \l@french | |
(babel) (\language29). Reported on input line 92. | 96 | 96 | (babel) (\language29). Reported on input line 92. | |
\FB@nonchar=\count196 | 97 | 97 | \FB@nonchar=\count196 | |
Package babel Info: Making : an active character on input line 395. | 98 | 98 | Package babel Info: Making : an active character on input line 395. | |
Package babel Info: Making ; an active character on input line 396. | 99 | 99 | Package babel Info: Making ; an active character on input line 396. | |
Package babel Info: Making ! an active character on input line 397. | 100 | 100 | Package babel Info: Making ! an active character on input line 397. | |
Package babel Info: Making ? an active character on input line 398. | 101 | 101 | Package babel Info: Making ? an active character on input line 398. | |
\FBguill@level=\count197 | 102 | 102 | \FBguill@level=\count197 | |
\FBold@everypar=\toks16 | 103 | 103 | \FBold@everypar=\toks16 | |
\FB@Mht=\dimen142 | 104 | 104 | \FB@Mht=\dimen142 | |
\mc@charclass=\count198 | 105 | 105 | \mc@charclass=\count198 | |
\mc@charfam=\count199 | 106 | 106 | \mc@charfam=\count199 | |
\mc@charslot=\count266 | 107 | 107 | \mc@charslot=\count266 | |
\std@mcc=\count267 | 108 | 108 | \std@mcc=\count267 | |
\dec@mcc=\count268 | 109 | 109 | \dec@mcc=\count268 | |
\FB@parskip=\dimen143 | 110 | 110 | \FB@parskip=\dimen143 | |
\listindentFB=\dimen144 | 111 | 111 | \listindentFB=\dimen144 | |
\descindentFB=\dimen145 | 112 | 112 | \descindentFB=\dimen145 | |
\labelindentFB=\dimen146 | 113 | 113 | \labelindentFB=\dimen146 | |
\labelwidthFB=\dimen147 | 114 | 114 | \labelwidthFB=\dimen147 | |
\leftmarginFB=\dimen148 | 115 | 115 | \leftmarginFB=\dimen148 | |
\parindentFFN=\dimen149 | 116 | 116 | \parindentFFN=\dimen149 | |
\FBfnindent=\dimen150 | 117 | 117 | \FBfnindent=\dimen150 | |
) | 118 | 118 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/frenchb.ldf | 119 | 119 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/frenchb.ldf | |
Language: frenchb 2023/03/08 v3.5q French support from the babel system | 120 | 120 | Language: frenchb 2023/03/08 v3.5q French support from the babel system | |
121 | 121 | |||
122 | 122 | |||
Package babel-french Warning: Option `frenchb' for Babel is *deprecated*, | 123 | 123 | Package babel-french Warning: Option `frenchb' for Babel is *deprecated*, | |
(babel-french) it might be removed sooner or later. Please | 124 | 124 | (babel-french) it might be removed sooner or later. Please | |
(babel-french) use `french' instead; reported on input line 35. | 125 | 125 | (babel-french) use `french' instead; reported on input line 35. | |
126 | 126 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf | 127 | 127 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf | |
Language: french 2023/03/08 v3.5q French support from the babel system | 128 | 128 | Language: french 2023/03/08 v3.5q French support from the babel system | |
))) | 129 | 129 | ))) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/locale/fr/babel-french.te | 130 | 130 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/locale/fr/babel-french.te | |
x | 131 | 131 | x | |
Package babel Info: Importing font and identification data for french | 132 | 132 | Package babel Info: Importing font and identification data for french | |
(babel) from babel-fr.ini. Reported on input line 11. | 133 | 133 | (babel) from babel-fr.ini. Reported on input line 11. | |
) (/usr/local/texlive/2023/texmf-dist/tex/latex/carlisle/scalefnt.sty) | 134 | 134 | ) (/usr/local/texlive/2023/texmf-dist/tex/latex/carlisle/scalefnt.sty) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/keyval.sty | 135 | 135 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/keyval.sty | |
Package: keyval 2022/05/29 v1.15 key=value parser (DPC) | 136 | 136 | Package: keyval 2022/05/29 v1.15 key=value parser (DPC) | |
\KV@toks@=\toks17 | 137 | 137 | \KV@toks@=\toks17 | |
) | 138 | 138 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/vmargin/vmargin.sty | 139 | 139 | (/usr/local/texlive/2023/texmf-dist/tex/latex/vmargin/vmargin.sty | |
Package: vmargin 2004/07/15 V2.5 set document margins (VK) | 140 | 140 | Package: vmargin 2004/07/15 V2.5 set document margins (VK) | |
141 | 141 | |||
Package: vmargin 2004/07/15 V2.5 set document margins (VK) | 142 | 142 | Package: vmargin 2004/07/15 V2.5 set document margins (VK) | |
\PaperWidth=\dimen151 | 143 | 143 | \PaperWidth=\dimen151 | |
\PaperHeight=\dimen152 | 144 | 144 | \PaperHeight=\dimen152 | |
) (./upmethodology-extension.sty | 145 | 145 | ) (./upmethodology-extension.sty | |
Package: upmethodology-extension 2012/09/21 | 146 | 146 | Package: upmethodology-extension 2012/09/21 | |
\upmext@tmp@putx=\skip50 | 147 | 147 | \upmext@tmp@putx=\skip50 | |
148 | 148 | |||
*** define extension value frontillustrationsize **** | 149 | 149 | *** define extension value frontillustrationsize **** | |
*** define extension value watermarksize **** | 150 | 150 | *** define extension value watermarksize **** | |
*** undefine extension value publisher **** | 151 | 151 | *** undefine extension value publisher **** | |
*** undefine extension value copyrighter **** | 152 | 152 | *** undefine extension value copyrighter **** | |
*** undefine extension value printedin ****) | 153 | 153 | *** undefine extension value printedin ****) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-fmt.s | 154 | 154 | (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-fmt.s | |
ty | 155 | 155 | ty | |
Package: upmethodology-fmt 2022/10/04 | 156 | 156 | Package: upmethodology-fmt 2022/10/04 | |
**** upmethodology-fmt is using French language **** | 157 | 157 | **** upmethodology-fmt is using French language **** | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphicx.sty | 158 | 158 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphicx.sty | |
Package: graphicx 2021/09/16 v1.2d Enhanced LaTeX Graphics (DPC,SPQR) | 159 | 159 | Package: graphicx 2021/09/16 v1.2d Enhanced LaTeX Graphics (DPC,SPQR) | |
160 | 160 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphics.sty | 161 | 161 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphics.sty | |
Package: graphics 2022/03/10 v1.4e Standard LaTeX Graphics (DPC,SPQR) | 162 | 162 | Package: graphics 2022/03/10 v1.4e Standard LaTeX Graphics (DPC,SPQR) | |
163 | 163 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/trig.sty | 164 | 164 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/trig.sty | |
Package: trig 2021/08/11 v1.11 sin cos tan (DPC) | 165 | 165 | Package: trig 2021/08/11 v1.11 sin cos tan (DPC) | |
) | 166 | 166 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/graphics.cfg | 167 | 167 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/graphics.cfg | |
File: graphics.cfg 2016/06/04 v1.11 sample graphics configuration | 168 | 168 | File: graphics.cfg 2016/06/04 v1.11 sample graphics configuration | |
) | 169 | 169 | ) | |
Package graphics Info: Driver file: pdftex.def on input line 107. | 170 | 170 | Package graphics Info: Driver file: pdftex.def on input line 107. | |
) | 171 | 171 | ) | |
\Gin@req@height=\dimen153 | 172 | 172 | \Gin@req@height=\dimen153 | |
\Gin@req@width=\dimen154 | 173 | 173 | \Gin@req@width=\dimen154 | |
) | 174 | 174 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/subcaption.sty | 175 | 175 | (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/subcaption.sty | |
Package: subcaption 2023/02/19 v1.6 Sub-captions (AR) | 176 | 176 | Package: subcaption 2023/02/19 v1.6 Sub-captions (AR) | |
177 | 177 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption.sty | 178 | 178 | (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption.sty | |
Package: caption 2023/03/12 v3.6j Customizing captions (AR) | 179 | 179 | Package: caption 2023/03/12 v3.6j Customizing captions (AR) | |
180 | 180 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption3.sty | 181 | 181 | (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption3.sty | |
Package: caption3 2023/03/12 v2.4 caption3 kernel (AR) | 182 | 182 | Package: caption3 2023/03/12 v2.4 caption3 kernel (AR) | |
\caption@tempdima=\dimen155 | 183 | 183 | \caption@tempdima=\dimen155 | |
\captionmargin=\dimen156 | 184 | 184 | \captionmargin=\dimen156 | |
\caption@leftmargin=\dimen157 | 185 | 185 | \caption@leftmargin=\dimen157 | |
\caption@rightmargin=\dimen158 | 186 | 186 | \caption@rightmargin=\dimen158 | |
\caption@width=\dimen159 | 187 | 187 | \caption@width=\dimen159 | |
\caption@indent=\dimen160 | 188 | 188 | \caption@indent=\dimen160 | |
\caption@parindent=\dimen161 | 189 | 189 | \caption@parindent=\dimen161 | |
\caption@hangindent=\dimen162 | 190 | 190 | \caption@hangindent=\dimen162 | |
Package caption Info: Standard document class detected. | 191 | 191 | Package caption Info: Standard document class detected. | |
Package caption Info: french babel package is loaded. | 192 | 192 | Package caption Info: french babel package is loaded. | |
) | 193 | 193 | ) | |
\c@caption@flags=\count269 | 194 | 194 | \c@caption@flags=\count269 | |
\c@continuedfloat=\count270 | 195 | 195 | \c@continuedfloat=\count270 | |
) | 196 | 196 | ) | |
Package caption Info: New subtype `subfigure' on input line 239. | 197 | 197 | Package caption Info: New subtype `subfigure' on input line 239. | |
\c@subfigure=\count271 | 198 | 198 | \c@subfigure=\count271 | |
Package caption Info: New subtype `subtable' on input line 239. | 199 | 199 | Package caption Info: New subtype `subtable' on input line 239. | |
\c@subtable=\count272 | 200 | 200 | \c@subtable=\count272 | |
) | 201 | 201 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/tabularx.sty | 202 | 202 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/tabularx.sty | |
Package: tabularx 2020/01/15 v2.11c `tabularx' package (DPC) | 203 | 203 | Package: tabularx 2020/01/15 v2.11c `tabularx' package (DPC) | |
204 | 204 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/array.sty | 205 | 205 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/array.sty | |
Package: array 2022/09/04 v2.5g Tabular extension package (FMi) | 206 | 206 | Package: array 2022/09/04 v2.5g Tabular extension package (FMi) | |
\col@sep=\dimen163 | 207 | 207 | \col@sep=\dimen163 | |
\ar@mcellbox=\box51 | 208 | 208 | \ar@mcellbox=\box51 | |
\extrarowheight=\dimen164 | 209 | 209 | \extrarowheight=\dimen164 | |
\NC@list=\toks18 | 210 | 210 | \NC@list=\toks18 | |
\extratabsurround=\skip51 | 211 | 211 | \extratabsurround=\skip51 | |
\backup@length=\skip52 | 212 | 212 | \backup@length=\skip52 | |
\ar@cellbox=\box52 | 213 | 213 | \ar@cellbox=\box52 | |
) | 214 | 214 | ) | |
\TX@col@width=\dimen165 | 215 | 215 | \TX@col@width=\dimen165 | |
\TX@old@table=\dimen166 | 216 | 216 | \TX@old@table=\dimen166 | |
\TX@old@col=\dimen167 | 217 | 217 | \TX@old@col=\dimen167 | |
\TX@target=\dimen168 | 218 | 218 | \TX@target=\dimen168 | |
\TX@delta=\dimen169 | 219 | 219 | \TX@delta=\dimen169 | |
\TX@cols=\count273 | 220 | 220 | \TX@cols=\count273 | |
\TX@ftn=\toks19 | 221 | 221 | \TX@ftn=\toks19 | |
) | 222 | 222 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/multicol.sty | 223 | 223 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/multicol.sty | |
Package: multicol 2021/11/30 v1.9d multicolumn formatting (FMi) | 224 | 224 | Package: multicol 2021/11/30 v1.9d multicolumn formatting (FMi) | |
\c@tracingmulticols=\count274 | 225 | 225 | \c@tracingmulticols=\count274 | |
\mult@box=\box53 | 226 | 226 | \mult@box=\box53 | |
\multicol@leftmargin=\dimen170 | 227 | 227 | \multicol@leftmargin=\dimen170 | |
\c@unbalance=\count275 | 228 | 228 | \c@unbalance=\count275 | |
\c@collectmore=\count276 | 229 | 229 | \c@collectmore=\count276 | |
\doublecol@number=\count277 | 230 | 230 | \doublecol@number=\count277 | |
\multicoltolerance=\count278 | 231 | 231 | \multicoltolerance=\count278 | |
\multicolpretolerance=\count279 | 232 | 232 | \multicolpretolerance=\count279 | |
\full@width=\dimen171 | 233 | 233 | \full@width=\dimen171 | |
\page@free=\dimen172 | 234 | 234 | \page@free=\dimen172 | |
\premulticols=\dimen173 | 235 | 235 | \premulticols=\dimen173 | |
\postmulticols=\dimen174 | 236 | 236 | \postmulticols=\dimen174 | |
\multicolsep=\skip53 | 237 | 237 | \multicolsep=\skip53 | |
\multicolbaselineskip=\skip54 | 238 | 238 | \multicolbaselineskip=\skip54 | |
\partial@page=\box54 | 239 | 239 | \partial@page=\box54 | |
\last@line=\box55 | 240 | 240 | \last@line=\box55 | |
\maxbalancingoverflow=\dimen175 | 241 | 241 | \maxbalancingoverflow=\dimen175 | |
\mult@rightbox=\box56 | 242 | 242 | \mult@rightbox=\box56 | |
\mult@grightbox=\box57 | 243 | 243 | \mult@grightbox=\box57 | |
\mult@firstbox=\box58 | 244 | 244 | \mult@firstbox=\box58 | |
\mult@gfirstbox=\box59 | 245 | 245 | \mult@gfirstbox=\box59 | |
\@tempa=\box60 | 246 | 246 | \@tempa=\box60 | |
\@tempa=\box61 | 247 | 247 | \@tempa=\box61 | |
\@tempa=\box62 | 248 | 248 | \@tempa=\box62 | |
\@tempa=\box63 | 249 | 249 | \@tempa=\box63 | |
\@tempa=\box64 | 250 | 250 | \@tempa=\box64 | |
\@tempa=\box65 | 251 | 251 | \@tempa=\box65 | |
\@tempa=\box66 | 252 | 252 | \@tempa=\box66 | |
\@tempa=\box67 | 253 | 253 | \@tempa=\box67 | |
\@tempa=\box68 | 254 | 254 | \@tempa=\box68 | |
\@tempa=\box69 | 255 | 255 | \@tempa=\box69 | |
\@tempa=\box70 | 256 | 256 | \@tempa=\box70 | |
\@tempa=\box71 | 257 | 257 | \@tempa=\box71 | |
\@tempa=\box72 | 258 | 258 | \@tempa=\box72 | |
\@tempa=\box73 | 259 | 259 | \@tempa=\box73 | |
\@tempa=\box74 | 260 | 260 | \@tempa=\box74 | |
\@tempa=\box75 | 261 | 261 | \@tempa=\box75 | |
\@tempa=\box76 | 262 | 262 | \@tempa=\box76 | |
\@tempa=\box77 | 263 | 263 | \@tempa=\box77 | |
\@tempa=\box78 | 264 | 264 | \@tempa=\box78 | |
\@tempa=\box79 | 265 | 265 | \@tempa=\box79 | |
\@tempa=\box80 | 266 | 266 | \@tempa=\box80 | |
\@tempa=\box81 | 267 | 267 | \@tempa=\box81 | |
\@tempa=\box82 | 268 | 268 | \@tempa=\box82 | |
\@tempa=\box83 | 269 | 269 | \@tempa=\box83 | |
\@tempa=\box84 | 270 | 270 | \@tempa=\box84 | |
\@tempa=\box85 | 271 | 271 | \@tempa=\box85 | |
\@tempa=\box86 | 272 | 272 | \@tempa=\box86 | |
\@tempa=\box87 | 273 | 273 | \@tempa=\box87 | |
\@tempa=\box88 | 274 | 274 | \@tempa=\box88 | |
\@tempa=\box89 | 275 | 275 | \@tempa=\box89 | |
\@tempa=\box90 | 276 | 276 | \@tempa=\box90 | |
\@tempa=\box91 | 277 | 277 | \@tempa=\box91 | |
\@tempa=\box92 | 278 | 278 | \@tempa=\box92 | |
\@tempa=\box93 | 279 | 279 | \@tempa=\box93 | |
\@tempa=\box94 | 280 | 280 | \@tempa=\box94 | |
\@tempa=\box95 | 281 | 281 | \@tempa=\box95 | |
\c@minrows=\count280 | 282 | 282 | \c@minrows=\count280 | |
\c@columnbadness=\count281 | 283 | 283 | \c@columnbadness=\count281 | |
\c@finalcolumnbadness=\count282 | 284 | 284 | \c@finalcolumnbadness=\count282 | |
\last@try=\dimen176 | 285 | 285 | \last@try=\dimen176 | |
\multicolovershoot=\dimen177 | 286 | 286 | \multicolovershoot=\dimen177 | |
\multicolundershoot=\dimen178 | 287 | 287 | \multicolundershoot=\dimen178 | |
\mult@nat@firstbox=\box96 | 288 | 288 | \mult@nat@firstbox=\box96 | |
\colbreak@box=\box97 | 289 | 289 | \colbreak@box=\box97 | |
\mc@col@check@num=\count283 | 290 | 290 | \mc@col@check@num=\count283 | |
) | 291 | 291 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/colortbl/colortbl.sty | 292 | 292 | (/usr/local/texlive/2023/texmf-dist/tex/latex/colortbl/colortbl.sty | |
Package: colortbl 2022/06/20 v1.0f Color table columns (DPC) | 293 | 293 | Package: colortbl 2022/06/20 v1.0f Color table columns (DPC) | |
\everycr=\toks20 | 294 | 294 | \everycr=\toks20 | |
\minrowclearance=\skip55 | 295 | 295 | \minrowclearance=\skip55 | |
\rownum=\count284 | 296 | 296 | \rownum=\count284 | |
) | 297 | 297 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/picinpar/picinpar.sty | 298 | 298 | (/usr/local/texlive/2023/texmf-dist/tex/latex/picinpar/picinpar.sty | |
Pictures in Paragraphs. Version 1.3, November 22, 2022 | 299 | 299 | Pictures in Paragraphs. Version 1.3, November 22, 2022 | |
\br=\count285 | 300 | 300 | \br=\count285 | |
\bl=\count286 | 301 | 301 | \bl=\count286 | |
\na=\count287 | 302 | 302 | \na=\count287 | |
\nb=\count288 | 303 | 303 | \nb=\count288 | |
\tcdsav=\count289 | 304 | 304 | \tcdsav=\count289 | |
\tcl=\count290 | 305 | 305 | \tcl=\count290 | |
\tcd=\count291 | 306 | 306 | \tcd=\count291 | |
\tcn=\count292 | 307 | 307 | \tcn=\count292 | |
\cumtcl=\count293 | 308 | 308 | \cumtcl=\count293 | |
\cumpartcl=\count294 | 309 | 309 | \cumpartcl=\count294 | |
\lftside=\dimen179 | 310 | 310 | \lftside=\dimen179 | |
\rtside=\dimen180 | 311 | 311 | \rtside=\dimen180 | |
\hpic=\dimen181 | 312 | 312 | \hpic=\dimen181 | |
\vpic=\dimen182 | 313 | 313 | \vpic=\dimen182 | |
\strutilg=\dimen183 | 314 | 314 | \strutilg=\dimen183 | |
\picwd=\dimen184 | 315 | 315 | \picwd=\dimen184 | |
\topheight=\dimen185 | 316 | 316 | \topheight=\dimen185 | |
\ilg=\dimen186 | 317 | 317 | \ilg=\dimen186 | |
\lpic=\dimen187 | 318 | 318 | \lpic=\dimen187 | |
\lwindowsep=\dimen188 | 319 | 319 | \lwindowsep=\dimen188 | |
\rwindowsep=\dimen189 | 320 | 320 | \rwindowsep=\dimen189 | |
\cumpar=\dimen190 | 321 | 321 | \cumpar=\dimen190 | |
\twa=\toks21 | 322 | 322 | \twa=\toks21 | |
\la=\toks22 | 323 | 323 | \la=\toks22 | |
\ra=\toks23 | 324 | 324 | \ra=\toks23 | |
\ha=\toks24 | 325 | 325 | \ha=\toks24 | |
\pictoc=\toks25 | 326 | 326 | \pictoc=\toks25 | |
\rawtext=\box98 | 327 | 327 | \rawtext=\box98 | |
\holder=\box99 | 328 | 328 | \holder=\box99 | |
\windowbox=\box100 | 329 | 329 | \windowbox=\box100 | |
\wartext=\box101 | 330 | 330 | \wartext=\box101 | |
\finaltext=\box102 | 331 | 331 | \finaltext=\box102 | |
\aslice=\box103 | 332 | 332 | \aslice=\box103 | |
\bslice=\box104 | 333 | 333 | \bslice=\box104 | |
\wbox=\box105 | 334 | 334 | \wbox=\box105 | |
\wstrutbox=\box106 | 335 | 335 | \wstrutbox=\box106 | |
\picbox=\box107 | 336 | 336 | \picbox=\box107 | |
\waslice=\box108 | 337 | 337 | \waslice=\box108 | |
\wbslice=\box109 | 338 | 338 | \wbslice=\box109 | |
\fslice=\box110 | 339 | 339 | \fslice=\box110 | |
) (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsmath.sty | 340 | 340 | ) (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsmath.sty | |
Package: amsmath 2022/04/08 v2.17n AMS math features | 341 | 341 | Package: amsmath 2022/04/08 v2.17n AMS math features | |
\@mathmargin=\skip56 | 342 | 342 | \@mathmargin=\skip56 | |
343 | 343 | |||
For additional information on amsmath, use the `?' option. | 344 | 344 | For additional information on amsmath, use the `?' option. | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amstext.sty | 345 | 345 | (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amstext.sty | |
Package: amstext 2021/08/26 v2.01 AMS text | 346 | 346 | Package: amstext 2021/08/26 v2.01 AMS text | |
347 | 347 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsgen.sty | 348 | 348 | (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsgen.sty | |
File: amsgen.sty 1999/11/30 v2.0 generic functions | 349 | 349 | File: amsgen.sty 1999/11/30 v2.0 generic functions | |
\@emptytoks=\toks26 | 350 | 350 | \@emptytoks=\toks26 | |
\ex@=\dimen191 | 351 | 351 | \ex@=\dimen191 | |
)) | 352 | 352 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsbsy.sty | 353 | 353 | (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsbsy.sty | |
Package: amsbsy 1999/11/29 v1.2d Bold Symbols | 354 | 354 | Package: amsbsy 1999/11/29 v1.2d Bold Symbols | |
\pmbraise@=\dimen192 | 355 | 355 | \pmbraise@=\dimen192 | |
) | 356 | 356 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsopn.sty | 357 | 357 | (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsopn.sty | |
Package: amsopn 2022/04/08 v2.04 operator names | 358 | 358 | Package: amsopn 2022/04/08 v2.04 operator names | |
) | 359 | 359 | ) | |
\inf@bad=\count295 | 360 | 360 | \inf@bad=\count295 | |
LaTeX Info: Redefining \frac on input line 234. | 361 | 361 | LaTeX Info: Redefining \frac on input line 234. | |
\uproot@=\count296 | 362 | 362 | \uproot@=\count296 | |
\leftroot@=\count297 | 363 | 363 | \leftroot@=\count297 | |
LaTeX Info: Redefining \overline on input line 399. | 364 | 364 | LaTeX Info: Redefining \overline on input line 399. | |
LaTeX Info: Redefining \colon on input line 410. | 365 | 365 | LaTeX Info: Redefining \colon on input line 410. | |
\classnum@=\count298 | 366 | 366 | \classnum@=\count298 | |
\DOTSCASE@=\count299 | 367 | 367 | \DOTSCASE@=\count299 | |
LaTeX Info: Redefining \ldots on input line 496. | 368 | 368 | LaTeX Info: Redefining \ldots on input line 496. | |
LaTeX Info: Redefining \dots on input line 499. | 369 | 369 | LaTeX Info: Redefining \dots on input line 499. | |
LaTeX Info: Redefining \cdots on input line 620. | 370 | 370 | LaTeX Info: Redefining \cdots on input line 620. | |
\Mathstrutbox@=\box111 | 371 | 371 | \Mathstrutbox@=\box111 | |
\strutbox@=\box112 | 372 | 372 | \strutbox@=\box112 | |
LaTeX Info: Redefining \big on input line 722. | 373 | 373 | LaTeX Info: Redefining \big on input line 722. | |
LaTeX Info: Redefining \Big on input line 723. | 374 | 374 | LaTeX Info: Redefining \Big on input line 723. | |
LaTeX Info: Redefining \bigg on input line 724. | 375 | 375 | LaTeX Info: Redefining \bigg on input line 724. | |
LaTeX Info: Redefining \Bigg on input line 725. | 376 | 376 | LaTeX Info: Redefining \Bigg on input line 725. | |
\big@size=\dimen193 | 377 | 377 | \big@size=\dimen193 | |
LaTeX Font Info: Redeclaring font encoding OML on input line 743. | 378 | 378 | LaTeX Font Info: Redeclaring font encoding OML on input line 743. | |
LaTeX Font Info: Redeclaring font encoding OMS on input line 744. | 379 | 379 | LaTeX Font Info: Redeclaring font encoding OMS on input line 744. | |
\macc@depth=\count300 | 380 | 380 | \macc@depth=\count300 | |
LaTeX Info: Redefining \bmod on input line 905. | 381 | 381 | LaTeX Info: Redefining \bmod on input line 905. | |
LaTeX Info: Redefining \pmod on input line 910. | 382 | 382 | LaTeX Info: Redefining \pmod on input line 910. | |
LaTeX Info: Redefining \smash on input line 940. | 383 | 383 | LaTeX Info: Redefining \smash on input line 940. | |
LaTeX Info: Redefining \relbar on input line 970. | 384 | 384 | LaTeX Info: Redefining \relbar on input line 970. | |
LaTeX Info: Redefining \Relbar on input line 971. | 385 | 385 | LaTeX Info: Redefining \Relbar on input line 971. | |
\c@MaxMatrixCols=\count301 | 386 | 386 | \c@MaxMatrixCols=\count301 | |
\dotsspace@=\muskip16 | 387 | 387 | \dotsspace@=\muskip16 | |
\c@parentequation=\count302 | 388 | 388 | \c@parentequation=\count302 | |
\dspbrk@lvl=\count303 | 389 | 389 | \dspbrk@lvl=\count303 | |
\tag@help=\toks27 | 390 | 390 | \tag@help=\toks27 | |
\row@=\count304 | 391 | 391 | \row@=\count304 | |
\column@=\count305 | 392 | 392 | \column@=\count305 | |
\maxfields@=\count306 | 393 | 393 | \maxfields@=\count306 | |
\andhelp@=\toks28 | 394 | 394 | \andhelp@=\toks28 | |
\eqnshift@=\dimen194 | 395 | 395 | \eqnshift@=\dimen194 | |
\alignsep@=\dimen195 | 396 | 396 | \alignsep@=\dimen195 | |
\tagshift@=\dimen196 | 397 | 397 | \tagshift@=\dimen196 | |
\tagwidth@=\dimen197 | 398 | 398 | \tagwidth@=\dimen197 | |
\totwidth@=\dimen198 | 399 | 399 | \totwidth@=\dimen198 | |
\lineht@=\dimen199 | 400 | 400 | \lineht@=\dimen199 | |
\@envbody=\toks29 | 401 | 401 | \@envbody=\toks29 | |
\multlinegap=\skip57 | 402 | 402 | \multlinegap=\skip57 | |
\multlinetaggap=\skip58 | 403 | 403 | \multlinetaggap=\skip58 | |
\mathdisplay@stack=\toks30 | 404 | 404 | \mathdisplay@stack=\toks30 | |
LaTeX Info: Redefining \[ on input line 2953. | 405 | 405 | LaTeX Info: Redefining \[ on input line 2953. | |
LaTeX Info: Redefining \] on input line 2954. | 406 | 406 | LaTeX Info: Redefining \] on input line 2954. | |
) | 407 | 407 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/amscls/amsthm.sty | 408 | 408 | (/usr/local/texlive/2023/texmf-dist/tex/latex/amscls/amsthm.sty | |
Package: amsthm 2020/05/29 v2.20.6 | 409 | 409 | Package: amsthm 2020/05/29 v2.20.6 | |
\thm@style=\toks31 | 410 | 410 | \thm@style=\toks31 | |
\thm@bodyfont=\toks32 | 411 | 411 | \thm@bodyfont=\toks32 | |
\thm@headfont=\toks33 | 412 | 412 | \thm@headfont=\toks33 | |
\thm@notefont=\toks34 | 413 | 413 | \thm@notefont=\toks34 | |
\thm@headpunct=\toks35 | 414 | 414 | \thm@headpunct=\toks35 | |
\thm@preskip=\skip59 | 415 | 415 | \thm@preskip=\skip59 | |
\thm@postskip=\skip60 | 416 | 416 | \thm@postskip=\skip60 | |
\thm@headsep=\skip61 | 417 | 417 | \thm@headsep=\skip61 | |
\dth@everypar=\toks36 | 418 | 418 | \dth@everypar=\toks36 | |
) | 419 | 419 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thmtools.sty | 420 | 420 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thmtools.sty | |
Package: thmtools 2023/05/04 v0.76 | 421 | 421 | Package: thmtools 2023/05/04 v0.76 | |
\thmt@toks=\toks37 | 422 | 422 | \thmt@toks=\toks37 | |
\c@thmt@dummyctr=\count307 | 423 | 423 | \c@thmt@dummyctr=\count307 | |
424 | 424 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-patch.sty | 425 | 425 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-patch.sty | |
Package: thm-patch 2023/05/04 v0.76 | 426 | 426 | Package: thm-patch 2023/05/04 v0.76 | |
427 | 427 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/parseargs.sty | 428 | 428 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/parseargs.sty | |
Package: parseargs 2023/05/04 v0.76 | 429 | 429 | Package: parseargs 2023/05/04 v0.76 | |
\@parsespec=\toks38 | 430 | 430 | \@parsespec=\toks38 | |
)) | 431 | 431 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-kv.sty | 432 | 432 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-kv.sty | |
Package: thm-kv 2023/05/04 v0.76 | 433 | 433 | Package: thm-kv 2023/05/04 v0.76 | |
Package thm-kv Info: Theorem names will be uppercased on input line 42. | 434 | 434 | Package thm-kv Info: Theorem names will be uppercased on input line 42. | |
435 | 435 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/kvsetkeys/kvsetkeys.sty | 436 | 436 | (/usr/local/texlive/2023/texmf-dist/tex/latex/kvsetkeys/kvsetkeys.sty | |
Package: kvsetkeys 2022-10-05 v1.19 Key value parser (HO) | 437 | 437 | Package: kvsetkeys 2022-10-05 v1.19 Key value parser (HO) | |
) | 438 | 438 | ) | |
Package thm-kv Info: kvsetkeys patch (v1.16 or later) on input line 158. | 439 | 439 | Package thm-kv Info: kvsetkeys patch (v1.16 or later) on input line 158. | |
) | 440 | 440 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-autoref.sty | 441 | 441 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-autoref.sty | |
Package: thm-autoref 2023/05/04 v0.76 | 442 | 442 | Package: thm-autoref 2023/05/04 v0.76 | |
443 | 443 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/aliasctr.sty | 444 | 444 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/aliasctr.sty | |
Package: aliasctr 2023/05/04 v0.76 | 445 | 445 | Package: aliasctr 2023/05/04 v0.76 | |
)) | 446 | 446 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-listof.sty | 447 | 447 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-listof.sty | |
Package: thm-listof 2023/05/04 v0.76 | 448 | 448 | Package: thm-listof 2023/05/04 v0.76 | |
) | 449 | 449 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-restate.sty | 450 | 450 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-restate.sty | |
Package: thm-restate 2023/05/04 v0.76 | 451 | 451 | Package: thm-restate 2023/05/04 v0.76 | |
) | 452 | 452 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-amsthm.sty | 453 | 453 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-amsthm.sty | |
Package: thm-amsthm 2023/05/04 v0.76 | 454 | 454 | Package: thm-amsthm 2023/05/04 v0.76 | |
\thmt@style@headstyle=\toks39 | 455 | 455 | \thmt@style@headstyle=\toks39 | |
)) | 456 | 456 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/pifont.sty | 457 | 457 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/pifont.sty | |
Package: pifont 2020/03/25 PSNFSS-v9.3 Pi font support (SPQR) | 458 | 458 | Package: pifont 2020/03/25 PSNFSS-v9.3 Pi font support (SPQR) | |
LaTeX Font Info: Trying to load font information for U+pzd on input line 63. | 459 | 459 | LaTeX Font Info: Trying to load font information for U+pzd on input line 63. | |
460 | 460 | |||
461 | 461 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upzd.fd | 462 | 462 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upzd.fd | |
File: upzd.fd 2001/06/04 font definitions for U/pzd. | 463 | 463 | File: upzd.fd 2001/06/04 font definitions for U/pzd. | |
) | 464 | 464 | ) | |
LaTeX Font Info: Trying to load font information for U+psy on input line 64. | 465 | 465 | LaTeX Font Info: Trying to load font information for U+psy on input line 64. | |
466 | 466 | |||
467 | 467 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upsy.fd | 468 | 468 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upsy.fd | |
File: upsy.fd 2001/06/04 font definitions for U/psy. | 469 | 469 | File: upsy.fd 2001/06/04 font definitions for U/psy. | |
)) | 470 | 470 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/setspace/setspace.sty | 471 | 471 | (/usr/local/texlive/2023/texmf-dist/tex/latex/setspace/setspace.sty | |
Package: setspace 2022/12/04 v6.7b set line spacing | 472 | 472 | Package: setspace 2022/12/04 v6.7b set line spacing | |
) | 473 | 473 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/varioref.sty | 474 | 474 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/varioref.sty | |
Package: varioref 2022/01/09 v1.6f package for extended references (FMi) | 475 | 475 | Package: varioref 2022/01/09 v1.6f package for extended references (FMi) | |
\c@vrcnt=\count308 | 476 | 476 | \c@vrcnt=\count308 | |
) | 477 | 477 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/txfonts.sty | 478 | 478 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/txfonts.sty | |
Package: txfonts 2008/01/22 v3.2.1 | 479 | 479 | Package: txfonts 2008/01/22 v3.2.1 | |
LaTeX Font Info: Redeclaring symbol font `operators' on input line 21. | 480 | 480 | LaTeX Font Info: Redeclaring symbol font `operators' on input line 21. | |
LaTeX Font Info: Overwriting symbol font `operators' in version `normal' | 481 | 481 | LaTeX Font Info: Overwriting symbol font `operators' in version `normal' | |
(Font) OT1/cmr/m/n --> OT1/txr/m/n on input line 21. | 482 | 482 | (Font) OT1/cmr/m/n --> OT1/txr/m/n on input line 21. | |
LaTeX Font Info: Overwriting symbol font `operators' in version `bold' | 483 | 483 | LaTeX Font Info: Overwriting symbol font `operators' in version `bold' | |
(Font) OT1/cmr/bx/n --> OT1/txr/m/n on input line 21. | 484 | 484 | (Font) OT1/cmr/bx/n --> OT1/txr/m/n on input line 21. | |
LaTeX Font Info: Overwriting symbol font `operators' in version `bold' | 485 | 485 | LaTeX Font Info: Overwriting symbol font `operators' in version `bold' | |
(Font) OT1/txr/m/n --> OT1/txr/bx/n on input line 22. | 486 | 486 | (Font) OT1/txr/m/n --> OT1/txr/bx/n on input line 22. | |
\symitalic=\mathgroup4 | 487 | 487 | \symitalic=\mathgroup4 | |
LaTeX Font Info: Overwriting symbol font `italic' in version `bold' | 488 | 488 | LaTeX Font Info: Overwriting symbol font `italic' in version `bold' | |
(Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 26. | 489 | 489 | (Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 26. | |
LaTeX Font Info: Redeclaring math alphabet \mathbf on input line 29. | 490 | 490 | LaTeX Font Info: Redeclaring math alphabet \mathbf on input line 29. | |
LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `normal' | 491 | 491 | LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `normal' | |
(Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. | 492 | 492 | (Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. | |
LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `bold' | 493 | 493 | LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `bold' | |
(Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. | 494 | 494 | (Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. | |
LaTeX Font Info: Redeclaring math alphabet \mathit on input line 30. | 495 | 495 | LaTeX Font Info: Redeclaring math alphabet \mathit on input line 30. | |
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `normal' | 496 | 496 | LaTeX Font Info: Overwriting math alphabet `\mathit' in version `normal' | |
(Font) OT1/cmr/m/it --> OT1/txr/m/it on input line 30. | 497 | 497 | (Font) OT1/cmr/m/it --> OT1/txr/m/it on input line 30. | |
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' | 498 | 498 | LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' | |
(Font) OT1/cmr/bx/it --> OT1/txr/m/it on input line 30. | 499 | 499 | (Font) OT1/cmr/bx/it --> OT1/txr/m/it on input line 30. | |
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' | 500 | 500 | LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' | |
(Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 31. | 501 | 501 | (Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 31. | |
LaTeX Font Info: Redeclaring math alphabet \mathsf on input line 40. | 502 | 502 | LaTeX Font Info: Redeclaring math alphabet \mathsf on input line 40. | |
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `normal' | 503 | 503 | LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `normal' | |
(Font) OT1/cmss/m/n --> OT1/txss/m/n on input line 40. | 504 | 504 | (Font) OT1/cmss/m/n --> OT1/txss/m/n on input line 40. | |
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' | 505 | 505 | LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' | |
(Font) OT1/cmss/bx/n --> OT1/txss/m/n on input line 40. | 506 | 506 | (Font) OT1/cmss/bx/n --> OT1/txss/m/n on input line 40. | |
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' | 507 | 507 | LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' | |
(Font) OT1/txss/m/n --> OT1/txss/b/n on input line 41. | 508 | 508 | (Font) OT1/txss/m/n --> OT1/txss/b/n on input line 41. | |
LaTeX Font Info: Redeclaring math alphabet \mathtt on input line 50. | 509 | 509 | LaTeX Font Info: Redeclaring math alphabet \mathtt on input line 50. | |
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `normal' | 510 | 510 | LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `normal' | |
(Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. | 511 | 511 | (Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. | |
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' | 512 | 512 | LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' | |
(Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. | 513 | 513 | (Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. | |
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' | 514 | 514 | LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' | |
(Font) OT1/txtt/m/n --> OT1/txtt/b/n on input line 51. | 515 | 515 | (Font) OT1/txtt/m/n --> OT1/txtt/b/n on input line 51. | |
LaTeX Font Info: Redeclaring symbol font `letters' on input line 58. | 516 | 516 | LaTeX Font Info: Redeclaring symbol font `letters' on input line 58. | |
LaTeX Font Info: Overwriting symbol font `letters' in version `normal' | 517 | 517 | LaTeX Font Info: Overwriting symbol font `letters' in version `normal' | |
(Font) OML/cmm/m/it --> OML/txmi/m/it on input line 58. | 518 | 518 | (Font) OML/cmm/m/it --> OML/txmi/m/it on input line 58. | |
LaTeX Font Info: Overwriting symbol font `letters' in version `bold' | 519 | 519 | LaTeX Font Info: Overwriting symbol font `letters' in version `bold' | |
(Font) OML/cmm/b/it --> OML/txmi/m/it on input line 58. | 520 | 520 | (Font) OML/cmm/b/it --> OML/txmi/m/it on input line 58. | |
LaTeX Font Info: Overwriting symbol font `letters' in version `bold' | 521 | 521 | LaTeX Font Info: Overwriting symbol font `letters' in version `bold' | |
(Font) OML/txmi/m/it --> OML/txmi/bx/it on input line 59. | 522 | 522 | (Font) OML/txmi/m/it --> OML/txmi/bx/it on input line 59. | |
\symlettersA=\mathgroup5 | 523 | 523 | \symlettersA=\mathgroup5 | |
LaTeX Font Info: Overwriting symbol font `lettersA' in version `bold' | 524 | 524 | LaTeX Font Info: Overwriting symbol font `lettersA' in version `bold' | |
(Font) U/txmia/m/it --> U/txmia/bx/it on input line 67. | 525 | 525 | (Font) U/txmia/m/it --> U/txmia/bx/it on input line 67. | |
LaTeX Font Info: Redeclaring symbol font `symbols' on input line 77. | 526 | 526 | LaTeX Font Info: Redeclaring symbol font `symbols' on input line 77. | |
LaTeX Font Info: Overwriting symbol font `symbols' in version `normal' | 527 | 527 | LaTeX Font Info: Overwriting symbol font `symbols' in version `normal' | |
(Font) OMS/cmsy/m/n --> OMS/txsy/m/n on input line 77. | 528 | 528 | (Font) OMS/cmsy/m/n --> OMS/txsy/m/n on input line 77. | |
LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' | 529 | 529 | LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' | |
(Font) OMS/cmsy/b/n --> OMS/txsy/m/n on input line 77. | 530 | 530 | (Font) OMS/cmsy/b/n --> OMS/txsy/m/n on input line 77. | |
LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' | 531 | 531 | LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' | |
(Font) OMS/txsy/m/n --> OMS/txsy/bx/n on input line 78. | 532 | 532 | (Font) OMS/txsy/m/n --> OMS/txsy/bx/n on input line 78. | |
\symAMSa=\mathgroup6 | 533 | 533 | \symAMSa=\mathgroup6 | |
LaTeX Font Info: Overwriting symbol font `AMSa' in version `bold' | 534 | 534 | LaTeX Font Info: Overwriting symbol font `AMSa' in version `bold' | |
(Font) U/txsya/m/n --> U/txsya/bx/n on input line 94. | 535 | 535 | (Font) U/txsya/m/n --> U/txsya/bx/n on input line 94. | |
\symAMSb=\mathgroup7 | 536 | 536 | \symAMSb=\mathgroup7 | |
LaTeX Font Info: Overwriting symbol font `AMSb' in version `bold' | 537 | 537 | LaTeX Font Info: Overwriting symbol font `AMSb' in version `bold' | |
(Font) U/txsyb/m/n --> U/txsyb/bx/n on input line 103. | 538 | 538 | (Font) U/txsyb/m/n --> U/txsyb/bx/n on input line 103. | |
\symsymbolsC=\mathgroup8 | 539 | 539 | \symsymbolsC=\mathgroup8 | |
LaTeX Font Info: Overwriting symbol font `symbolsC' in version `bold' | 540 | 540 | LaTeX Font Info: Overwriting symbol font `symbolsC' in version `bold' | |
(Font) U/txsyc/m/n --> U/txsyc/bx/n on input line 113. | 541 | 541 | (Font) U/txsyc/m/n --> U/txsyc/bx/n on input line 113. | |
LaTeX Font Info: Redeclaring symbol font `largesymbols' on input line 120. | 542 | 542 | LaTeX Font Info: Redeclaring symbol font `largesymbols' on input line 120. | |
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `normal' | 543 | 543 | LaTeX Font Info: Overwriting symbol font `largesymbols' in version `normal' | |
(Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. | 544 | 544 | (Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. | |
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' | 545 | 545 | LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' | |
(Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. | 546 | 546 | (Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. | |
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' | 547 | 547 | LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' | |
(Font) OMX/txex/m/n --> OMX/txex/bx/n on input line 121. | 548 | 548 | (Font) OMX/txex/m/n --> OMX/txex/bx/n on input line 121. | |
\symlargesymbolsA=\mathgroup9 | 549 | 549 | \symlargesymbolsA=\mathgroup9 | |
LaTeX Font Info: Overwriting symbol font `largesymbolsA' in version `bold' | 550 | 550 | LaTeX Font Info: Overwriting symbol font `largesymbolsA' in version `bold' | |
(Font) U/txexa/m/n --> U/txexa/bx/n on input line 129. | 551 | 551 | (Font) U/txexa/m/n --> U/txexa/bx/n on input line 129. | |
LaTeX Font Info: Redeclaring math symbol \mathsterling on input line 164. | 552 | 552 | LaTeX Font Info: Redeclaring math symbol \mathsterling on input line 164. | |
LaTeX Font Info: Redeclaring math symbol \hbar on input line 591. | 553 | 553 | LaTeX Font Info: Redeclaring math symbol \hbar on input line 591. | |
LaTeX Info: Redefining \not on input line 1043. | 554 | 554 | LaTeX Info: Redefining \not on input line 1043. | |
LaTeX Info: Redefining \textsquare on input line 1063. | 555 | 555 | LaTeX Info: Redefining \textsquare on input line 1063. | |
LaTeX Info: Redefining \openbox on input line 1064. | 556 | 556 | LaTeX Info: Redefining \openbox on input line 1064. | |
) | 557 | 557 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/relsize/relsize.sty | 558 | 558 | (/usr/local/texlive/2023/texmf-dist/tex/latex/relsize/relsize.sty | |
Package: relsize 2013/03/29 ver 4.1 | 559 | 559 | Package: relsize 2013/03/29 ver 4.1 | |
) | 560 | 560 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/xkeyval/xkeyval.sty | 561 | 561 | (/usr/local/texlive/2023/texmf-dist/tex/latex/xkeyval/xkeyval.sty | |
Package: xkeyval 2022/06/16 v2.9 package option processing (HA) | 562 | 562 | Package: xkeyval 2022/06/16 v2.9 package option processing (HA) | |
563 | 563 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkeyval.tex | 564 | 564 | (/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkeyval.tex | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkvutils.tex | 565 | 565 | (/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkvutils.tex | |
\XKV@toks=\toks40 | 566 | 566 | \XKV@toks=\toks40 | |
\XKV@tempa@toks=\toks41 | 567 | 567 | \XKV@tempa@toks=\toks41 | |
) | 568 | 568 | ) | |
\XKV@depth=\count309 | 569 | 569 | \XKV@depth=\count309 | |
File: xkeyval.tex 2014/12/03 v2.7a key=value parser (HA) | 570 | 570 | File: xkeyval.tex 2014/12/03 v2.7a key=value parser (HA) | |
)) | 571 | 571 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyphenat/hyphenat.sty | 572 | 572 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyphenat/hyphenat.sty | |
Package: hyphenat 2009/09/02 v2.3c hyphenation utilities | 573 | 573 | Package: hyphenat 2009/09/02 v2.3c hyphenation utilities | |
\langwohyphens=\language88 | 574 | 574 | \langwohyphens=\language88 | |
LaTeX Info: Redefining \_ on input line 43. | 575 | 575 | LaTeX Info: Redefining \_ on input line 43. | |
) | 576 | 576 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/bbm-macros/bbm.sty | 577 | 577 | (/usr/local/texlive/2023/texmf-dist/tex/latex/bbm-macros/bbm.sty | |
Package: bbm 1999/03/15 V 1.2 provides fonts for set symbols - TH | 578 | 578 | Package: bbm 1999/03/15 V 1.2 provides fonts for set symbols - TH | |
LaTeX Font Info: Overwriting math alphabet `\mathbbm' in version `bold' | 579 | 579 | LaTeX Font Info: Overwriting math alphabet `\mathbbm' in version `bold' | |
(Font) U/bbm/m/n --> U/bbm/bx/n on input line 33. | 580 | 580 | (Font) U/bbm/m/n --> U/bbm/bx/n on input line 33. | |
LaTeX Font Info: Overwriting math alphabet `\mathbbmss' in version `bold' | 581 | 581 | LaTeX Font Info: Overwriting math alphabet `\mathbbmss' in version `bold' | |
(Font) U/bbmss/m/n --> U/bbmss/bx/n on input line 35. | 582 | 582 | (Font) U/bbmss/m/n --> U/bbmss/bx/n on input line 35. | |
) | 583 | 583 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/environ/environ.sty | 584 | 584 | (/usr/local/texlive/2023/texmf-dist/tex/latex/environ/environ.sty | |
Package: environ 2014/05/04 v0.3 A new way to define environments | 585 | 585 | Package: environ 2014/05/04 v0.3 A new way to define environments | |
586 | 586 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/trimspaces/trimspaces.sty | 587 | 587 | (/usr/local/texlive/2023/texmf-dist/tex/latex/trimspaces/trimspaces.sty | |
Package: trimspaces 2009/09/17 v1.1 Trim spaces around a token list | 588 | 588 | Package: trimspaces 2009/09/17 v1.1 Trim spaces around a token list | |
)) | 589 | 589 | )) | |
\c@upm@subfigure@count=\count310 | 590 | 590 | \c@upm@subfigure@count=\count310 | |
\c@upm@fmt@mtabular@columnnumber=\count311 | 591 | 591 | \c@upm@fmt@mtabular@columnnumber=\count311 | |
\c@upm@format@section@sectionlevel=\count312 | 592 | 592 | \c@upm@format@section@sectionlevel=\count312 | |
\c@upm@fmt@savedcounter=\count313 | 593 | 593 | \c@upm@fmt@savedcounter=\count313 | |
\c@@@upm@fmt@inlineenumeration=\count314 | 594 | 594 | \c@@@upm@fmt@inlineenumeration=\count314 | |
\c@@upm@fmt@enumdescription@cnt@=\count315 | 595 | 595 | \c@@upm@fmt@enumdescription@cnt@=\count315 | |
\upm@framed@minipage=\box113 | 596 | 596 | \upm@framed@minipage=\box113 | |
\upm@highlight@box@save=\box114 | 597 | 597 | \upm@highlight@box@save=\box114 | |
\c@upmdefinition=\count316 | 598 | 598 | \c@upmdefinition=\count316 | |
) | 599 | 599 | ) | |
(./upmethodology-version.sty | 600 | 600 | (./upmethodology-version.sty | |
Package: upmethodology-version 2013/08/26 | 601 | 601 | Package: upmethodology-version 2013/08/26 | |
602 | 602 | |||
**** upmethodology-version is using French language **** | 603 | 603 | **** upmethodology-version is using French language **** | |
\upm@tmp@a=\count317 | 604 | 604 | \upm@tmp@a=\count317 | |
) | 605 | 605 | ) | |
\listendskip=\skip62 | 606 | 606 | \listendskip=\skip62 | |
) | 607 | 607 | ) | |
(./upmethodology-frontpage.sty | 608 | 608 | (./upmethodology-frontpage.sty | |
Package: upmethodology-frontpage 2015/06/26 | 609 | 609 | Package: upmethodology-frontpage 2015/06/26 | |
610 | 610 | |||
**** upmethodology-frontpage is using French language **** | 611 | 611 | **** upmethodology-frontpage is using French language **** | |
\upm@front@tmpa=\dimen256 | 612 | 612 | \upm@front@tmpa=\dimen256 | |
\upm@front@tmpb=\dimen257 | 613 | 613 | \upm@front@tmpb=\dimen257 | |
614 | 614 | |||
*** define extension value frontillustrationsize ****) | 615 | 615 | *** define extension value frontillustrationsize ****) | |
(./upmethodology-backpage.sty | 616 | 616 | (./upmethodology-backpage.sty | |
Package: upmethodology-backpage 2013/12/14 | 617 | 617 | Package: upmethodology-backpage 2013/12/14 | |
618 | 618 | |||
**** upmethodology-backpage is using French language ****) | 619 | 619 | **** upmethodology-backpage is using French language ****) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/url/url.sty | 620 | 620 | (/usr/local/texlive/2023/texmf-dist/tex/latex/url/url.sty | |
\Urlmuskip=\muskip17 | 621 | 621 | \Urlmuskip=\muskip17 | |
Package: url 2013/09/16 ver 3.4 Verb mode for urls, etc. | 622 | 622 | Package: url 2013/09/16 ver 3.4 Verb mode for urls, etc. | |
) | 623 | 623 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hyperref.sty | 624 | 624 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hyperref.sty | |
Package: hyperref 2023-05-16 v7.00y Hypertext links for LaTeX | 625 | 625 | Package: hyperref 2023-05-16 v7.00y Hypertext links for LaTeX | |
626 | 626 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/ltxcmds/ltxcmds.sty | 627 | 627 | (/usr/local/texlive/2023/texmf-dist/tex/generic/ltxcmds/ltxcmds.sty | |
Package: ltxcmds 2020-05-10 v1.25 LaTeX kernel commands for general use (HO) | 628 | 628 | Package: ltxcmds 2020-05-10 v1.25 LaTeX kernel commands for general use (HO) | |
) | 629 | 629 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/pdftexcmds/pdftexcmds.sty | 630 | 630 | (/usr/local/texlive/2023/texmf-dist/tex/generic/pdftexcmds/pdftexcmds.sty | |
Package: pdftexcmds 2020-06-27 v0.33 Utility functions of pdfTeX for LuaTeX (HO | 631 | 631 | Package: pdftexcmds 2020-06-27 v0.33 Utility functions of pdfTeX for LuaTeX (HO | |
) | 632 | 632 | ) | |
633 | 633 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/infwarerr/infwarerr.sty | 634 | 634 | (/usr/local/texlive/2023/texmf-dist/tex/generic/infwarerr/infwarerr.sty | |
Package: infwarerr 2019/12/03 v1.5 Providing info/warning/error messages (HO) | 635 | 635 | Package: infwarerr 2019/12/03 v1.5 Providing info/warning/error messages (HO) | |
) | 636 | 636 | ) | |
Package pdftexcmds Info: \pdf@primitive is available. | 637 | 637 | Package pdftexcmds Info: \pdf@primitive is available. | |
Package pdftexcmds Info: \pdf@ifprimitive is available. | 638 | 638 | Package pdftexcmds Info: \pdf@ifprimitive is available. | |
Package pdftexcmds Info: \pdfdraftmode found. | 639 | 639 | Package pdftexcmds Info: \pdfdraftmode found. | |
) | 640 | 640 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/kvdefinekeys/kvdefinekeys.sty | 641 | 641 | (/usr/local/texlive/2023/texmf-dist/tex/generic/kvdefinekeys/kvdefinekeys.sty | |
Package: kvdefinekeys 2019-12-19 v1.6 Define keys (HO) | 642 | 642 | Package: kvdefinekeys 2019-12-19 v1.6 Define keys (HO) | |
) | 643 | 643 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/pdfescape/pdfescape.sty | 644 | 644 | (/usr/local/texlive/2023/texmf-dist/tex/generic/pdfescape/pdfescape.sty | |
Package: pdfescape 2019/12/09 v1.15 Implements pdfTeX's escape features (HO) | 645 | 645 | Package: pdfescape 2019/12/09 v1.15 Implements pdfTeX's escape features (HO) | |
) | 646 | 646 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/hycolor/hycolor.sty | 647 | 647 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hycolor/hycolor.sty | |
Package: hycolor 2020-01-27 v1.10 Color options for hyperref/bookmark (HO) | 648 | 648 | Package: hycolor 2020-01-27 v1.10 Color options for hyperref/bookmark (HO) | |
) | 649 | 649 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/letltxmacro/letltxmacro.sty | 650 | 650 | (/usr/local/texlive/2023/texmf-dist/tex/latex/letltxmacro/letltxmacro.sty | |
Package: letltxmacro 2019/12/03 v1.6 Let assignment for LaTeX macros (HO) | 651 | 651 | Package: letltxmacro 2019/12/03 v1.6 Let assignment for LaTeX macros (HO) | |
) | 652 | 652 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/auxhook/auxhook.sty | 653 | 653 | (/usr/local/texlive/2023/texmf-dist/tex/latex/auxhook/auxhook.sty | |
Package: auxhook 2019-12-17 v1.6 Hooks for auxiliary files (HO) | 654 | 654 | Package: auxhook 2019-12-17 v1.6 Hooks for auxiliary files (HO) | |
) | 655 | 655 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/nameref.sty | 656 | 656 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/nameref.sty | |
Package: nameref 2023-05-16 v2.51 Cross-referencing by name of section | 657 | 657 | Package: nameref 2023-05-16 v2.51 Cross-referencing by name of section | |
658 | 658 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/refcount/refcount.sty | 659 | 659 | (/usr/local/texlive/2023/texmf-dist/tex/latex/refcount/refcount.sty | |
Package: refcount 2019/12/15 v3.6 Data extraction from label references (HO) | 660 | 660 | Package: refcount 2019/12/15 v3.6 Data extraction from label references (HO) | |
) | 661 | 661 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/gettitlestring/gettitlestring.s | 662 | 662 | (/usr/local/texlive/2023/texmf-dist/tex/generic/gettitlestring/gettitlestring.s | |
ty | 663 | 663 | ty | |
Package: gettitlestring 2019/12/15 v1.6 Cleanup title references (HO) | 664 | 664 | Package: gettitlestring 2019/12/15 v1.6 Cleanup title references (HO) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/kvoptions/kvoptions.sty | 665 | 665 | (/usr/local/texlive/2023/texmf-dist/tex/latex/kvoptions/kvoptions.sty | |
Package: kvoptions 2022-06-15 v3.15 Key value format for package options (HO) | 666 | 666 | Package: kvoptions 2022-06-15 v3.15 Key value format for package options (HO) | |
)) | 667 | 667 | )) | |
\c@section@level=\count318 | 668 | 668 | \c@section@level=\count318 | |
) | 669 | 669 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/etoolbox/etoolbox.sty | 670 | 670 | (/usr/local/texlive/2023/texmf-dist/tex/latex/etoolbox/etoolbox.sty | |
Package: etoolbox 2020/10/05 v2.5k e-TeX tools for LaTeX (JAW) | 671 | 671 | Package: etoolbox 2020/10/05 v2.5k e-TeX tools for LaTeX (JAW) | |
\etb@tempcnta=\count319 | 672 | 672 | \etb@tempcnta=\count319 | |
) | 673 | 673 | ) | |
\@linkdim=\dimen258 | 674 | 674 | \@linkdim=\dimen258 | |
\Hy@linkcounter=\count320 | 675 | 675 | \Hy@linkcounter=\count320 | |
\Hy@pagecounter=\count321 | 676 | 676 | \Hy@pagecounter=\count321 | |
677 | 677 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/pd1enc.def | 678 | 678 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/pd1enc.def | |
File: pd1enc.def 2023-05-16 v7.00y Hyperref: PDFDocEncoding definition (HO) | 679 | 679 | File: pd1enc.def 2023-05-16 v7.00y Hyperref: PDFDocEncoding definition (HO) | |
Now handling font encoding PD1 ... | 680 | 680 | Now handling font encoding PD1 ... | |
... no UTF-8 mapping file for font encoding PD1 | 681 | 681 | ... no UTF-8 mapping file for font encoding PD1 | |
) | 682 | 682 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/intcalc/intcalc.sty | 683 | 683 | (/usr/local/texlive/2023/texmf-dist/tex/generic/intcalc/intcalc.sty | |
Package: intcalc 2019/12/15 v1.3 Expandable calculations with integers (HO) | 684 | 684 | Package: intcalc 2019/12/15 v1.3 Expandable calculations with integers (HO) | |
) | 685 | 685 | ) | |
\Hy@SavedSpaceFactor=\count322 | 686 | 686 | \Hy@SavedSpaceFactor=\count322 | |
687 | 687 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/puenc.def | 688 | 688 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/puenc.def | |
File: puenc.def 2023-05-16 v7.00y Hyperref: PDF Unicode definition (HO) | 689 | 689 | File: puenc.def 2023-05-16 v7.00y Hyperref: PDF Unicode definition (HO) | |
Now handling font encoding PU ... | 690 | 690 | Now handling font encoding PU ... | |
... no UTF-8 mapping file for font encoding PU | 691 | 691 | ... no UTF-8 mapping file for font encoding PU | |
) | 692 | 692 | ) | |
Package hyperref Info: Option `breaklinks' set `true' on input line 4050. | 693 | 693 | Package hyperref Info: Option `breaklinks' set `true' on input line 4050. | |
Package hyperref Info: Option `pageanchor' set `true' on input line 4050. | 694 | 694 | Package hyperref Info: Option `pageanchor' set `true' on input line 4050. | |
Package hyperref Info: Option `bookmarks' set `false' on input line 4050. | 695 | 695 | Package hyperref Info: Option `bookmarks' set `false' on input line 4050. | |
Package hyperref Info: Option `hyperfigures' set `true' on input line 4050. | 696 | 696 | Package hyperref Info: Option `hyperfigures' set `true' on input line 4050. | |
Package hyperref Info: Option `hyperindex' set `true' on input line 4050. | 697 | 697 | Package hyperref Info: Option `hyperindex' set `true' on input line 4050. | |
Package hyperref Info: Option `linktocpage' set `true' on input line 4050. | 698 | 698 | Package hyperref Info: Option `linktocpage' set `true' on input line 4050. | |
Package hyperref Info: Option `bookmarks' set `true' on input line 4050. | 699 | 699 | Package hyperref Info: Option `bookmarks' set `true' on input line 4050. | |
Package hyperref Info: Option `bookmarksopen' set `true' on input line 4050. | 700 | 700 | Package hyperref Info: Option `bookmarksopen' set `true' on input line 4050. | |
Package hyperref Info: Option `bookmarksnumbered' set `true' on input line 4050 | 701 | 701 | Package hyperref Info: Option `bookmarksnumbered' set `true' on input line 4050 | |
. | 702 | 702 | . | |
Package hyperref Info: Option `colorlinks' set `false' on input line 4050. | 703 | 703 | Package hyperref Info: Option `colorlinks' set `false' on input line 4050. | |
Package hyperref Info: Hyper figures ON on input line 4165. | 704 | 704 | Package hyperref Info: Hyper figures ON on input line 4165. | |
Package hyperref Info: Link nesting OFF on input line 4172. | 705 | 705 | Package hyperref Info: Link nesting OFF on input line 4172. | |
Package hyperref Info: Hyper index ON on input line 4175. | 706 | 706 | Package hyperref Info: Hyper index ON on input line 4175. | |
Package hyperref Info: Plain pages OFF on input line 4182. | 707 | 707 | Package hyperref Info: Plain pages OFF on input line 4182. | |
Package hyperref Info: Backreferencing OFF on input line 4187. | 708 | 708 | Package hyperref Info: Backreferencing OFF on input line 4187. | |
Package hyperref Info: Implicit mode ON; LaTeX internals redefined. | 709 | 709 | Package hyperref Info: Implicit mode ON; LaTeX internals redefined. | |
Package hyperref Info: Bookmarks ON on input line 4434. | 710 | 710 | Package hyperref Info: Bookmarks ON on input line 4434. | |
LaTeX Info: Redefining \href on input line 4683. | 711 | 711 | LaTeX Info: Redefining \href on input line 4683. | |
\c@Hy@tempcnt=\count323 | 712 | 712 | \c@Hy@tempcnt=\count323 | |
LaTeX Info: Redefining \url on input line 4772. | 713 | 713 | LaTeX Info: Redefining \url on input line 4772. | |
\XeTeXLinkMargin=\dimen259 | 714 | 714 | \XeTeXLinkMargin=\dimen259 | |
715 | 715 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/bitset/bitset.sty | 716 | 716 | (/usr/local/texlive/2023/texmf-dist/tex/generic/bitset/bitset.sty | |
Package: bitset 2019/12/09 v1.3 Handle bit-vector datatype (HO) | 717 | 717 | Package: bitset 2019/12/09 v1.3 Handle bit-vector datatype (HO) | |
718 | 718 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/bigintcalc/bigintcalc.sty | 719 | 719 | (/usr/local/texlive/2023/texmf-dist/tex/generic/bigintcalc/bigintcalc.sty | |
Package: bigintcalc 2019/12/15 v1.5 Expandable calculations on big integers (HO | 720 | 720 | Package: bigintcalc 2019/12/15 v1.5 Expandable calculations on big integers (HO | |
) | 721 | 721 | ) | |
)) | 722 | 722 | )) | |
\Fld@menulength=\count324 | 723 | 723 | \Fld@menulength=\count324 | |
\Field@Width=\dimen260 | 724 | 724 | \Field@Width=\dimen260 | |
\Fld@charsize=\dimen261 | 725 | 725 | \Fld@charsize=\dimen261 | |
Package hyperref Info: Hyper figures ON on input line 6049. | 726 | 726 | Package hyperref Info: Hyper figures ON on input line 6049. | |
Package hyperref Info: Link nesting OFF on input line 6056. | 727 | 727 | Package hyperref Info: Link nesting OFF on input line 6056. | |
Package hyperref Info: Hyper index ON on input line 6059. | 728 | 728 | Package hyperref Info: Hyper index ON on input line 6059. | |
Package hyperref Info: backreferencing OFF on input line 6066. | 729 | 729 | Package hyperref Info: backreferencing OFF on input line 6066. | |
Package hyperref Info: Link coloring OFF on input line 6071. | 730 | 730 | Package hyperref Info: Link coloring OFF on input line 6071. | |
Package hyperref Info: Link coloring with OCG OFF on input line 6076. | 731 | 731 | Package hyperref Info: Link coloring with OCG OFF on input line 6076. | |
Package hyperref Info: PDF/A mode OFF on input line 6081. | 732 | 732 | Package hyperref Info: PDF/A mode OFF on input line 6081. | |
733 | 733 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/atbegshi-ltx.sty | 734 | 734 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/atbegshi-ltx.sty | |
Package: atbegshi-ltx 2021/01/10 v1.0c Emulation of the original atbegshi | 735 | 735 | Package: atbegshi-ltx 2021/01/10 v1.0c Emulation of the original atbegshi | |
package with kernel methods | 736 | 736 | package with kernel methods | |
) | 737 | 737 | ) | |
\Hy@abspage=\count325 | 738 | 738 | \Hy@abspage=\count325 | |
\c@Item=\count326 | 739 | 739 | \c@Item=\count326 | |
\c@Hfootnote=\count327 | 740 | 740 | \c@Hfootnote=\count327 | |
) | 741 | 741 | ) | |
Package hyperref Info: Driver: hpdftex. | 742 | 742 | Package hyperref Info: Driver: hpdftex. | |
743 | 743 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hpdftex.def | 744 | 744 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hpdftex.def | |
File: hpdftex.def 2023-05-16 v7.00y Hyperref driver for pdfTeX | 745 | 745 | File: hpdftex.def 2023-05-16 v7.00y Hyperref driver for pdfTeX | |
746 | 746 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/atveryend-ltx.sty | 747 | 747 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/atveryend-ltx.sty | |
Package: atveryend-ltx 2020/08/19 v1.0a Emulation of the original atveryend pac | 748 | 748 | Package: atveryend-ltx 2020/08/19 v1.0a Emulation of the original atveryend pac | |
kage | 749 | 749 | kage | |
with kernel methods | 750 | 750 | with kernel methods | |
) | 751 | 751 | ) | |
\Fld@listcount=\count328 | 752 | 752 | \Fld@listcount=\count328 | |
\c@bookmark@seq@number=\count329 | 753 | 753 | \c@bookmark@seq@number=\count329 | |
754 | 754 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/rerunfilecheck/rerunfilecheck.sty | 755 | 755 | (/usr/local/texlive/2023/texmf-dist/tex/latex/rerunfilecheck/rerunfilecheck.sty | |
Package: rerunfilecheck 2022-07-10 v1.10 Rerun checks for auxiliary files (HO) | 756 | 756 | Package: rerunfilecheck 2022-07-10 v1.10 Rerun checks for auxiliary files (HO) | |
757 | 757 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/uniquecounter/uniquecounter.sty | 758 | 758 | (/usr/local/texlive/2023/texmf-dist/tex/generic/uniquecounter/uniquecounter.sty | |
Package: uniquecounter 2019/12/15 v1.4 Provide unlimited unique counter (HO) | 759 | 759 | Package: uniquecounter 2019/12/15 v1.4 Provide unlimited unique counter (HO) | |
) | 760 | 760 | ) | |
Package uniquecounter Info: New unique counter `rerunfilecheck' on input line 2 | 761 | 761 | Package uniquecounter Info: New unique counter `rerunfilecheck' on input line 2 | |
85. | 762 | 762 | 85. | |
) | 763 | 763 | ) | |
\Hy@SectionHShift=\skip63 | 764 | 764 | \Hy@SectionHShift=\skip63 | |
) | 765 | 765 | ) | |
\upm@smalllogo@height=\dimen262 | 766 | 766 | \upm@smalllogo@height=\dimen262 | |
) (./spimbasephdthesis.sty | 767 | 767 | ) (./spimbasephdthesis.sty | |
Package: spimbasephdthesis 2015/09/01 | 768 | 768 | Package: spimbasephdthesis 2015/09/01 | |
769 | 769 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.sty | 770 | 770 | (/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.sty | |
File: lettrine.sty 2023-04-18 v2.40 (Daniel Flipo) | 771 | 771 | File: lettrine.sty 2023-04-18 v2.40 (Daniel Flipo) | |
772 | 772 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3packages/xfp/xfp.sty | 773 | 773 | (/usr/local/texlive/2023/texmf-dist/tex/latex/l3packages/xfp/xfp.sty | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3kernel/expl3.sty | 774 | 774 | (/usr/local/texlive/2023/texmf-dist/tex/latex/l3kernel/expl3.sty | |
Package: expl3 2023-05-22 L3 programming layer (loader) | 775 | 775 | Package: expl3 2023-05-22 L3 programming layer (loader) | |
776 | 776 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3backend/l3backend-pdftex.def | 777 | 777 | (/usr/local/texlive/2023/texmf-dist/tex/latex/l3backend/l3backend-pdftex.def | |
File: l3backend-pdftex.def 2023-04-19 L3 backend support: PDF output (pdfTeX) | 778 | 778 | File: l3backend-pdftex.def 2023-04-19 L3 backend support: PDF output (pdfTeX) | |
\l__color_backend_stack_int=\count330 | 779 | 779 | \l__color_backend_stack_int=\count330 | |
\l__pdf_internal_box=\box115 | 780 | 780 | \l__pdf_internal_box=\box115 | |
)) | 781 | 781 | )) | |
Package: xfp 2023-02-02 L3 Floating point unit | 782 | 782 | Package: xfp 2023-02-02 L3 Floating point unit | |
) | 783 | 783 | ) | |
\c@DefaultLines=\count331 | 784 | 784 | \c@DefaultLines=\count331 | |
\c@DefaultDepth=\count332 | 785 | 785 | \c@DefaultDepth=\count332 | |
\DefaultFindent=\dimen263 | 786 | 786 | \DefaultFindent=\dimen263 | |
\DefaultNindent=\dimen264 | 787 | 787 | \DefaultNindent=\dimen264 | |
\DefaultSlope=\dimen265 | 788 | 788 | \DefaultSlope=\dimen265 | |
\DiscardVskip=\dimen266 | 789 | 789 | \DiscardVskip=\dimen266 | |
\L@lbox=\box116 | 790 | 790 | \L@lbox=\box116 | |
\L@tbox=\box117 | 791 | 791 | \L@tbox=\box117 | |
\c@L@lines=\count333 | 792 | 792 | \c@L@lines=\count333 | |
\c@L@depth=\count334 | 793 | 793 | \c@L@depth=\count334 | |
\L@Pindent=\dimen267 | 794 | 794 | \L@Pindent=\dimen267 | |
\L@Findent=\dimen268 | 795 | 795 | \L@Findent=\dimen268 | |
\L@Nindent=\dimen269 | 796 | 796 | \L@Nindent=\dimen269 | |
\L@lraise=\dimen270 | 797 | 797 | \L@lraise=\dimen270 | |
\L@first=\dimen271 | 798 | 798 | \L@first=\dimen271 | |
\L@next=\dimen272 | 799 | 799 | \L@next=\dimen272 | |
\L@slope=\dimen273 | 800 | 800 | \L@slope=\dimen273 | |
\L@height=\dimen274 | 801 | 801 | \L@height=\dimen274 | |
\L@novskip=\dimen275 | 802 | 802 | \L@novskip=\dimen275 | |
\L@target@ht=\dimen276 | 803 | 803 | \L@target@ht=\dimen276 | |
\L@target@dp=\dimen277 | 804 | 804 | \L@target@dp=\dimen277 | |
\L@target@tht=\dimen278 | 805 | 805 | \L@target@tht=\dimen278 | |
\LettrineWidth=\dimen279 | 806 | 806 | \LettrineWidth=\dimen279 | |
\LettrineHeight=\dimen280 | 807 | 807 | \LettrineHeight=\dimen280 | |
\LettrineDepth=\dimen281 | 808 | 808 | \LettrineDepth=\dimen281 | |
Loading lettrine.cfg | 809 | 809 | Loading lettrine.cfg | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.cfg) | 810 | 810 | (/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.cfg) | |
\Llist@everypar=\toks42 | 811 | 811 | \Llist@everypar=\toks42 | |
) | 812 | 812 | ) | |
*** define extension value backcovermessage ****) | 813 | 813 | *** define extension value backcovermessage ****) | |
**** including upm extension spimufcphdthesis (upmext-spimufcphdthesis.cfg) *** | 814 | 814 | **** including upm extension spimufcphdthesis (upmext-spimufcphdthesis.cfg) *** | |
* (./upmext-spimufcphdthesis.cfg *** define extension value copyright **** | 815 | 815 | * (./upmext-spimufcphdthesis.cfg *** define extension value copyright **** | |
*** style extension spimufcphdthesis, Copyright {(c)} 2012--14 Dr. St\unhbox \v | 816 | 816 | *** style extension spimufcphdthesis, Copyright {(c)} 2012--14 Dr. St\unhbox \v | |
oidb@x \bgroup \let \unhbox \voidb@x \setbox \@tempboxa \hbox {e\global \mathch | 817 | 817 | oidb@x \bgroup \let \unhbox \voidb@x \setbox \@tempboxa \hbox {e\global \mathch | |
ardef \accent@spacefactor \spacefactor }\let \begingroup \let \typeout \protect | 818 | 818 | ardef \accent@spacefactor \spacefactor }\let \begingroup \let \typeout \protect | |
\begingroup \def \MessageBreak { | 819 | 819 | \begingroup \def \MessageBreak { | |
(Font) }\let \protect \immediate\write \m@ne {LaTeX Font Info: | 820 | 820 | (Font) }\let \protect \immediate\write \m@ne {LaTeX Font Info: | |
on input line 5.}\endgroup \endgroup \relax \let \ignorespaces \relax \accent | 821 | 821 | on input line 5.}\endgroup \endgroup \relax \let \ignorespaces \relax \accent | |
19 e\egroup \spacefactor \accent@spacefactor phane GALLAND. **** | 822 | 822 | 19 e\egroup \spacefactor \accent@spacefactor phane GALLAND. **** | |
*** define extension value trademarks **** | 823 | 823 | *** define extension value trademarks **** | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/helvet.sty | 824 | 824 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/helvet.sty | |
Package: helvet 2020/03/25 PSNFSS-v9.3 (WaS) | 825 | 825 | Package: helvet 2020/03/25 PSNFSS-v9.3 (WaS) | |
) | 826 | 826 | ) | |
*** define extension value frontillustration **** | 827 | 827 | *** define extension value frontillustration **** | |
*** define extension value p3illustration **** | 828 | 828 | *** define extension value p3illustration **** | |
*** define extension value backillustration **** | 829 | 829 | *** define extension value backillustration **** | |
*** define extension value watermarksize **** | 830 | 830 | *** define extension value watermarksize **** | |
*** define extension value universityname **** | 831 | 831 | *** define extension value universityname **** | |
*** define extension value speciality **** | 832 | 832 | *** define extension value speciality **** | |
*** define extension value defensedate **** | 833 | 833 | *** define extension value defensedate **** | |
*** define extension value jurytabwidth **** | 834 | 834 | *** define extension value jurytabwidth **** | |
*** define extension value jurystyle **** | 835 | 835 | *** define extension value jurystyle **** | |
*** define extension value defensemessage ****)) | 836 | 836 | *** define extension value defensemessage ****)) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/inputenc.sty | 837 | 837 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/inputenc.sty | |
Package: inputenc 2021/02/14 v1.3d Input encoding file | 838 | 838 | Package: inputenc 2021/02/14 v1.3d Input encoding file | |
\inpenc@prehook=\toks43 | 839 | 839 | \inpenc@prehook=\toks43 | |
\inpenc@posthook=\toks44 | 840 | 840 | \inpenc@posthook=\toks44 | |
) | 841 | 841 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/fontenc.sty | 842 | 842 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/fontenc.sty | |
Package: fontenc 2021/04/29 v2.0v Standard LaTeX package | 843 | 843 | Package: fontenc 2021/04/29 v2.0v Standard LaTeX package | |
LaTeX Font Info: Trying to load font information for T1+phv on input line 11 | 844 | 844 | LaTeX Font Info: Trying to load font information for T1+phv on input line 11 | |
2. | 845 | 845 | 2. | |
846 | 846 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1phv.fd | 847 | 847 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1phv.fd | |
File: t1phv.fd 2020/03/25 scalable font definitions for T1/phv. | 848 | 848 | File: t1phv.fd 2020/03/25 scalable font definitions for T1/phv. | |
)) | 849 | 849 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/times.sty | 850 | 850 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/times.sty | |
Package: times 2020/03/25 PSNFSS-v9.3 (SPQR) | 851 | 851 | Package: times 2020/03/25 PSNFSS-v9.3 (SPQR) | |
) | 852 | 852 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjustbox.sty | 853 | 853 | (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjustbox.sty | |
Package: adjustbox 2022/10/17 v1.3a Adjusting TeX boxes (trim, clip, ...) | 854 | 854 | Package: adjustbox 2022/10/17 v1.3a Adjusting TeX boxes (trim, clip, ...) | |
855 | 855 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjcalc.sty | 856 | 856 | (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjcalc.sty | |
Package: adjcalc 2012/05/16 v1.1 Provides advanced setlength with multiple back | 857 | 857 | Package: adjcalc 2012/05/16 v1.1 Provides advanced setlength with multiple back | |
-ends (calc, etex, pgfmath) | 858 | 858 | -ends (calc, etex, pgfmath) | |
) | 859 | 859 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/trimclip.sty | 860 | 860 | (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/trimclip.sty | |
Package: trimclip 2020/08/19 v1.2 Trim and clip general TeX material | 861 | 861 | Package: trimclip 2020/08/19 v1.2 Trim and clip general TeX material | |
862 | 862 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/collectbox/collectbox.sty | 863 | 863 | (/usr/local/texlive/2023/texmf-dist/tex/latex/collectbox/collectbox.sty | |
Package: collectbox 2022/10/17 v0.4c Collect macro arguments as boxes | 864 | 864 | Package: collectbox 2022/10/17 v0.4c Collect macro arguments as boxes | |
\collectedbox=\box118 | 865 | 865 | \collectedbox=\box118 | |
) | 866 | 866 | ) | |
\tc@llx=\dimen282 | 867 | 867 | \tc@llx=\dimen282 | |
\tc@lly=\dimen283 | 868 | 868 | \tc@lly=\dimen283 | |
\tc@urx=\dimen284 | 869 | 869 | \tc@urx=\dimen284 | |
\tc@ury=\dimen285 | 870 | 870 | \tc@ury=\dimen285 | |
Package trimclip Info: Using driver 'tc-pdftex.def'. | 871 | 871 | Package trimclip Info: Using driver 'tc-pdftex.def'. | |
872 | 872 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/tc-pdftex.def | 873 | 873 | (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/tc-pdftex.def | |
File: tc-pdftex.def 2019/01/04 v2.2 Clipping driver for pdftex | 874 | 874 | File: tc-pdftex.def 2019/01/04 v2.2 Clipping driver for pdftex | |
)) | 875 | 875 | )) | |
\adjbox@Width=\dimen286 | 876 | 876 | \adjbox@Width=\dimen286 | |
\adjbox@Height=\dimen287 | 877 | 877 | \adjbox@Height=\dimen287 | |
\adjbox@Depth=\dimen288 | 878 | 878 | \adjbox@Depth=\dimen288 | |
\adjbox@Totalheight=\dimen289 | 879 | 879 | \adjbox@Totalheight=\dimen289 | |
\adjbox@pwidth=\dimen290 | 880 | 880 | \adjbox@pwidth=\dimen290 | |
\adjbox@pheight=\dimen291 | 881 | 881 | \adjbox@pheight=\dimen291 | |
\adjbox@pdepth=\dimen292 | 882 | 882 | \adjbox@pdepth=\dimen292 | |
\adjbox@ptotalheight=\dimen293 | 883 | 883 | \adjbox@ptotalheight=\dimen293 | |
884 | 884 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/ifoddpage/ifoddpage.sty | 885 | 885 | (/usr/local/texlive/2023/texmf-dist/tex/latex/ifoddpage/ifoddpage.sty | |
Package: ifoddpage 2022/10/18 v1.2 Conditionals for odd/even page detection | 886 | 886 | Package: ifoddpage 2022/10/18 v1.2 Conditionals for odd/even page detection | |
\c@checkoddpage=\count335 | 887 | 887 | \c@checkoddpage=\count335 | |
) | 888 | 888 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/varwidth/varwidth.sty | 889 | 889 | (/usr/local/texlive/2023/texmf-dist/tex/latex/varwidth/varwidth.sty | |
Package: varwidth 2009/03/30 ver 0.92; Variable-width minipages | 890 | 890 | Package: varwidth 2009/03/30 ver 0.92; Variable-width minipages | |
\@vwid@box=\box119 | 891 | 891 | \@vwid@box=\box119 | |
\sift@deathcycles=\count336 | 892 | 892 | \sift@deathcycles=\count336 | |
\@vwid@loff=\dimen294 | 893 | 893 | \@vwid@loff=\dimen294 | |
\@vwid@roff=\dimen295 | 894 | 894 | \@vwid@roff=\dimen295 | |
)) | 895 | 895 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithms/algorithm.sty | 896 | 896 | (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithms/algorithm.sty | |
Package: algorithm 2009/08/24 v0.1 Document Style `algorithm' - floating enviro | 897 | 897 | Package: algorithm 2009/08/24 v0.1 Document Style `algorithm' - floating enviro | |
nment | 898 | 898 | nment | |
899 | 899 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/float/float.sty | 900 | 900 | (/usr/local/texlive/2023/texmf-dist/tex/latex/float/float.sty | |
Package: float 2001/11/08 v1.3d Float enhancements (AL) | 901 | 901 | Package: float 2001/11/08 v1.3d Float enhancements (AL) | |
\c@float@type=\count337 | 902 | 902 | \c@float@type=\count337 | |
\float@exts=\toks45 | 903 | 903 | \float@exts=\toks45 | |
\float@box=\box120 | 904 | 904 | \float@box=\box120 | |
\@float@everytoks=\toks46 | 905 | 905 | \@float@everytoks=\toks46 | |
\@floatcapt=\box121 | 906 | 906 | \@floatcapt=\box121 | |
) | 907 | 907 | ) | |
\@float@every@algorithm=\toks47 | 908 | 908 | \@float@every@algorithm=\toks47 | |
\c@algorithm=\count338 | 909 | 909 | \c@algorithm=\count338 | |
) | 910 | 910 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algpseudocode.sty | 911 | 911 | (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algpseudocode.sty | |
Package: algpseudocode | 912 | 912 | Package: algpseudocode | |
913 | 913 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algorithmicx.sty | 914 | 914 | (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algorithmicx.sty | |
Package: algorithmicx 2005/04/27 v1.2 Algorithmicx | 915 | 915 | Package: algorithmicx 2005/04/27 v1.2 Algorithmicx | |
916 | 916 | |||
Document Style algorithmicx 1.2 - a greatly improved `algorithmic' style | 917 | 917 | Document Style algorithmicx 1.2 - a greatly improved `algorithmic' style | |
\c@ALG@line=\count339 | 918 | 918 | \c@ALG@line=\count339 | |
\c@ALG@rem=\count340 | 919 | 919 | \c@ALG@rem=\count340 | |
\c@ALG@nested=\count341 | 920 | 920 | \c@ALG@nested=\count341 | |
\ALG@tlm=\skip64 | 921 | 921 | \ALG@tlm=\skip64 | |
\ALG@thistlm=\skip65 | 922 | 922 | \ALG@thistlm=\skip65 | |
\c@ALG@Lnr=\count342 | 923 | 923 | \c@ALG@Lnr=\count342 | |
\c@ALG@blocknr=\count343 | 924 | 924 | \c@ALG@blocknr=\count343 | |
\c@ALG@storecount=\count344 | 925 | 925 | \c@ALG@storecount=\count344 | |
\c@ALG@tmpcounter=\count345 | 926 | 926 | \c@ALG@tmpcounter=\count345 | |
\ALG@tmplength=\skip66 | 927 | 927 | \ALG@tmplength=\skip66 | |
) | 928 | 928 | ) | |
Document Style - pseudocode environments for use with the `algorithmicx' style | 929 | 929 | Document Style - pseudocode environments for use with the `algorithmicx' style | |
) *** define extension value defensedate **** | 930 | 930 | ) *** define extension value defensedate **** | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/layout.sty | 931 | 931 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/layout.sty | |
Package: layout 2021-03-10 v1.2e Show layout parameters | 932 | 932 | Package: layout 2021-03-10 v1.2e Show layout parameters | |
\oneinch=\count346 | 933 | 933 | \oneinch=\count346 | |
\cnt@paperwidth=\count347 | 934 | 934 | \cnt@paperwidth=\count347 | |
\cnt@paperheight=\count348 | 935 | 935 | \cnt@paperheight=\count348 | |
\cnt@hoffset=\count349 | 936 | 936 | \cnt@hoffset=\count349 | |
\cnt@voffset=\count350 | 937 | 937 | \cnt@voffset=\count350 | |
\cnt@textheight=\count351 | 938 | 938 | \cnt@textheight=\count351 | |
\cnt@textwidth=\count352 | 939 | 939 | \cnt@textwidth=\count352 | |
\cnt@topmargin=\count353 | 940 | 940 | \cnt@topmargin=\count353 | |
\cnt@oddsidemargin=\count354 | 941 | 941 | \cnt@oddsidemargin=\count354 | |
\cnt@evensidemargin=\count355 | 942 | 942 | \cnt@evensidemargin=\count355 | |
\cnt@headheight=\count356 | 943 | 943 | \cnt@headheight=\count356 | |
\cnt@headsep=\count357 | 944 | 944 | \cnt@headsep=\count357 | |
\cnt@marginparsep=\count358 | 945 | 945 | \cnt@marginparsep=\count358 | |
\cnt@marginparwidth=\count359 | 946 | 946 | \cnt@marginparwidth=\count359 | |
\cnt@marginparpush=\count360 | 947 | 947 | \cnt@marginparpush=\count360 | |
\cnt@footskip=\count361 | 948 | 948 | \cnt@footskip=\count361 | |
\fheight=\count362 | 949 | 949 | \fheight=\count362 | |
\ref@top=\count363 | 950 | 950 | \ref@top=\count363 | |
\ref@hoffset=\count364 | 951 | 951 | \ref@hoffset=\count364 | |
\ref@voffset=\count365 | 952 | 952 | \ref@voffset=\count365 | |
\ref@head=\count366 | 953 | 953 | \ref@head=\count366 | |
\ref@body=\count367 | 954 | 954 | \ref@body=\count367 | |
\ref@foot=\count368 | 955 | 955 | \ref@foot=\count368 | |
\ref@margin=\count369 | 956 | 956 | \ref@margin=\count369 | |
\ref@marginwidth=\count370 | 957 | 957 | \ref@marginwidth=\count370 | |
\ref@marginpar=\count371 | 958 | 958 | \ref@marginpar=\count371 | |
\Interval=\count372 | 959 | 959 | \Interval=\count372 | |
\ExtraYPos=\count373 | 960 | 960 | \ExtraYPos=\count373 | |
\PositionX=\count374 | 961 | 961 | \PositionX=\count374 | |
\PositionY=\count375 | 962 | 962 | \PositionY=\count375 | |
\ArrowLength=\count376 | 963 | 963 | \ArrowLength=\count376 | |
) | 964 | 964 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/geometry/geometry.sty | 965 | 965 | (/usr/local/texlive/2023/texmf-dist/tex/latex/geometry/geometry.sty | |
Package: geometry 2020/01/02 v5.9 Page Geometry | 966 | 966 | Package: geometry 2020/01/02 v5.9 Page Geometry | |
967 | 967 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifvtex.sty | 968 | 968 | (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifvtex.sty | |
Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead. | 969 | 969 | Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead. | |
) | 970 | 970 | ) | |
\Gm@cnth=\count377 | 971 | 971 | \Gm@cnth=\count377 | |
\Gm@cntv=\count378 | 972 | 972 | \Gm@cntv=\count378 | |
\c@Gm@tempcnt=\count379 | 973 | 973 | \c@Gm@tempcnt=\count379 | |
\Gm@bindingoffset=\dimen296 | 974 | 974 | \Gm@bindingoffset=\dimen296 | |
\Gm@wd@mp=\dimen297 | 975 | 975 | \Gm@wd@mp=\dimen297 | |
\Gm@odd@mp=\dimen298 | 976 | 976 | \Gm@odd@mp=\dimen298 | |
\Gm@even@mp=\dimen299 | 977 | 977 | \Gm@even@mp=\dimen299 | |
\Gm@layoutwidth=\dimen300 | 978 | 978 | \Gm@layoutwidth=\dimen300 | |
\Gm@layoutheight=\dimen301 | 979 | 979 | \Gm@layoutheight=\dimen301 | |
\Gm@layouthoffset=\dimen302 | 980 | 980 | \Gm@layouthoffset=\dimen302 | |
\Gm@layoutvoffset=\dimen303 | 981 | 981 | \Gm@layoutvoffset=\dimen303 | |
\Gm@dimlist=\toks48 | 982 | 982 | \Gm@dimlist=\toks48 | |
) (./main.aux | 983 | 983 | ) (./main.aux | |
(./chapters/contexte2.aux) (./chapters/EIAH.aux) (./chapters/CBR.aux) | 984 | 984 | (./chapters/contexte2.aux) (./chapters/EIAH.aux) (./chapters/CBR.aux) | |
(./chapters/Architecture.aux) (./chapters/ESCBR.aux) (./chapters/TS.aux | 985 | 985 | (./chapters/Architecture.aux) (./chapters/ESCBR.aux) (./chapters/TS.aux | |
986 | 986 | |||
LaTeX Warning: Label `eqBeta' multiply defined. | 987 | 987 | LaTeX Warning: Label `eqBeta' multiply defined. | |
988 | 988 | |||
989 | 989 | |||
LaTeX Warning: Label `fig:Amodel' multiply defined. | 990 | 990 | LaTeX Warning: Label `fig:Amodel' multiply defined. | |
991 | 991 | |||
992 | 992 | |||
LaTeX Warning: Label `fig:stabilityBP' multiply defined. | 993 | 993 | LaTeX Warning: Label `fig:stabilityBP' multiply defined. | |
994 | 994 | |||
) (./chapters/Conclusions.aux) (./chapters/Publications.aux)) | 995 | 995 | ) (./chapters/Conclusions.aux) (./chapters/Publications.aux)) | |
\openout1 = `main.aux'. | 996 | 996 | \openout1 = `main.aux'. | |
997 | 997 | |||
LaTeX Font Info: Checking defaults for OML/txmi/m/it on input line 231. | 998 | 998 | LaTeX Font Info: Checking defaults for OML/txmi/m/it on input line 231. | |
LaTeX Font Info: Trying to load font information for OML+txmi on input line | 999 | 999 | LaTeX Font Info: Trying to load font information for OML+txmi on input line | |
231. | 1000 | 1000 | 231. | |
1001 | 1001 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omltxmi.fd | 1002 | 1002 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omltxmi.fd | |
File: omltxmi.fd 2000/12/15 v3.1 | 1003 | 1003 | File: omltxmi.fd 2000/12/15 v3.1 | |
) | 1004 | 1004 | ) | |
LaTeX Font Info: ... okay on input line 231. | 1005 | 1005 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for OMS/txsy/m/n on input line 231. | 1006 | 1006 | LaTeX Font Info: Checking defaults for OMS/txsy/m/n on input line 231. | |
LaTeX Font Info: Trying to load font information for OMS+txsy on input line | 1007 | 1007 | LaTeX Font Info: Trying to load font information for OMS+txsy on input line | |
231. | 1008 | 1008 | 231. | |
1009 | 1009 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omstxsy.fd | 1010 | 1010 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omstxsy.fd | |
File: omstxsy.fd 2000/12/15 v3.1 | 1011 | 1011 | File: omstxsy.fd 2000/12/15 v3.1 | |
) | 1012 | 1012 | ) | |
LaTeX Font Info: ... okay on input line 231. | 1013 | 1013 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for OT1/cmr/m/n on input line 231. | 1014 | 1014 | LaTeX Font Info: Checking defaults for OT1/cmr/m/n on input line 231. | |
LaTeX Font Info: ... okay on input line 231. | 1015 | 1015 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for T1/cmr/m/n on input line 231. | 1016 | 1016 | LaTeX Font Info: Checking defaults for T1/cmr/m/n on input line 231. | |
LaTeX Font Info: ... okay on input line 231. | 1017 | 1017 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for TS1/cmr/m/n on input line 231. | 1018 | 1018 | LaTeX Font Info: Checking defaults for TS1/cmr/m/n on input line 231. | |
LaTeX Font Info: ... okay on input line 231. | 1019 | 1019 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for OMX/txex/m/n on input line 231. | 1020 | 1020 | LaTeX Font Info: Checking defaults for OMX/txex/m/n on input line 231. | |
LaTeX Font Info: Trying to load font information for OMX+txex on input line | 1021 | 1021 | LaTeX Font Info: Trying to load font information for OMX+txex on input line | |
231. | 1022 | 1022 | 231. | |
1023 | 1023 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omxtxex.fd | 1024 | 1024 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omxtxex.fd | |
File: omxtxex.fd 2000/12/15 v3.1 | 1025 | 1025 | File: omxtxex.fd 2000/12/15 v3.1 | |
) | 1026 | 1026 | ) | |
LaTeX Font Info: ... okay on input line 231. | 1027 | 1027 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for U/txexa/m/n on input line 231. | 1028 | 1028 | LaTeX Font Info: Checking defaults for U/txexa/m/n on input line 231. | |
LaTeX Font Info: Trying to load font information for U+txexa on input line 2 | 1029 | 1029 | LaTeX Font Info: Trying to load font information for U+txexa on input line 2 | |
31. | 1030 | 1030 | 31. | |
1031 | 1031 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxexa.fd | 1032 | 1032 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxexa.fd | |
File: utxexa.fd 2000/12/15 v3.1 | 1033 | 1033 | File: utxexa.fd 2000/12/15 v3.1 | |
) | 1034 | 1034 | ) | |
LaTeX Font Info: ... okay on input line 231. | 1035 | 1035 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for PD1/pdf/m/n on input line 231. | 1036 | 1036 | LaTeX Font Info: Checking defaults for PD1/pdf/m/n on input line 231. | |
LaTeX Font Info: ... okay on input line 231. | 1037 | 1037 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for PU/pdf/m/n on input line 231. | 1038 | 1038 | LaTeX Font Info: Checking defaults for PU/pdf/m/n on input line 231. | |
LaTeX Font Info: ... okay on input line 231. | 1039 | 1039 | LaTeX Font Info: ... okay on input line 231. | |
1040 | 1040 | |||
(/usr/local/texlive/2023/texmf-dist/tex/context/base/mkii/supp-pdf.mkii | 1041 | 1041 | (/usr/local/texlive/2023/texmf-dist/tex/context/base/mkii/supp-pdf.mkii | |
[Loading MPS to PDF converter (version 2006.09.02).] | 1042 | 1042 | [Loading MPS to PDF converter (version 2006.09.02).] | |
\scratchcounter=\count380 | 1043 | 1043 | \scratchcounter=\count380 | |
\scratchdimen=\dimen304 | 1044 | 1044 | \scratchdimen=\dimen304 | |
\scratchbox=\box122 | 1045 | 1045 | \scratchbox=\box122 | |
\nofMPsegments=\count381 | 1046 | 1046 | \nofMPsegments=\count381 | |
\nofMParguments=\count382 | 1047 | 1047 | \nofMParguments=\count382 | |
\everyMPshowfont=\toks49 | 1048 | 1048 | \everyMPshowfont=\toks49 | |
\MPscratchCnt=\count383 | 1049 | 1049 | \MPscratchCnt=\count383 | |
\MPscratchDim=\dimen305 | 1050 | 1050 | \MPscratchDim=\dimen305 | |
\MPnumerator=\count384 | 1051 | 1051 | \MPnumerator=\count384 | |
\makeMPintoPDFobject=\count385 | 1052 | 1052 | \makeMPintoPDFobject=\count385 | |
\everyMPtoPDFconversion=\toks50 | 1053 | 1053 | \everyMPtoPDFconversion=\toks50 | |
) (/usr/local/texlive/2023/texmf-dist/tex/latex/epstopdf-pkg/epstopdf-base.sty | 1054 | 1054 | ) (/usr/local/texlive/2023/texmf-dist/tex/latex/epstopdf-pkg/epstopdf-base.sty | |
Package: epstopdf-base 2020-01-24 v2.11 Base part for package epstopdf | 1055 | 1055 | Package: epstopdf-base 2020-01-24 v2.11 Base part for package epstopdf | |
Package epstopdf-base Info: Redefining graphics rule for `.eps' on input line 4 | 1056 | 1056 | Package epstopdf-base Info: Redefining graphics rule for `.eps' on input line 4 | |
85. | 1057 | 1057 | 85. | |
1058 | 1058 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/latexconfig/epstopdf-sys.cfg | 1059 | 1059 | (/usr/local/texlive/2023/texmf-dist/tex/latex/latexconfig/epstopdf-sys.cfg | |
File: epstopdf-sys.cfg 2010/07/13 v1.3 Configuration of (r)epstopdf for TeX Liv | 1060 | 1060 | File: epstopdf-sys.cfg 2010/07/13 v1.3 Configuration of (r)epstopdf for TeX Liv | |
e | 1061 | 1061 | e | |
)) | 1062 | 1062 | )) | |
LaTeX Info: Redefining \degres on input line 231. | 1063 | 1063 | LaTeX Info: Redefining \degres on input line 231. | |
LaTeX Info: Redefining \up on input line 231. | 1064 | 1064 | LaTeX Info: Redefining \up on input line 231. | |
Package caption Info: Begin \AtBeginDocument code. | 1065 | 1065 | Package caption Info: Begin \AtBeginDocument code. | |
Package caption Info: float package is loaded. | 1066 | 1066 | Package caption Info: float package is loaded. | |
Package caption Info: hyperref package is loaded. | 1067 | 1067 | Package caption Info: hyperref package is loaded. | |
Package caption Info: picinpar package is loaded. | 1068 | 1068 | Package caption Info: picinpar package is loaded. | |
Package caption Info: End \AtBeginDocument code. | 1069 | 1069 | Package caption Info: End \AtBeginDocument code. | |
1070 | 1070 | |||
*** Overriding the 'enumerate' environment. Pass option 'standardlists' for avo | 1071 | 1071 | *** Overriding the 'enumerate' environment. Pass option 'standardlists' for avo | |
iding this override. | 1072 | 1072 | iding this override. | |
*** Overriding the 'description' environment. Pass option 'standardlists' for a | 1073 | 1073 | *** Overriding the 'description' environment. Pass option 'standardlists' for a | |
voiding this override. ************ USE CUSTOM FRONT COVER | 1074 | 1074 | voiding this override. ************ USE CUSTOM FRONT COVER | |
Package hyperref Info: Link coloring OFF on input line 231. | 1075 | 1075 | Package hyperref Info: Link coloring OFF on input line 231. | |
(./main.out) | 1076 | 1076 | (./main.out) | |
(./main.out) | 1077 | 1077 | (./main.out) | |
\@outlinefile=\write3 | 1078 | 1078 | \@outlinefile=\write3 | |
\openout3 = `main.out'. | 1079 | 1079 | \openout3 = `main.out'. | |
1080 | 1080 | |||
1081 | 1081 | |||
*geometry* driver: auto-detecting | 1082 | 1082 | *geometry* driver: auto-detecting | |
*geometry* detected driver: pdftex | 1083 | 1083 | *geometry* detected driver: pdftex | |
*geometry* verbose mode - [ preamble ] result: | 1084 | 1084 | *geometry* verbose mode - [ preamble ] result: | |
* pass: disregarded the geometry package! | 1085 | 1085 | * pass: disregarded the geometry package! | |
* \paperwidth=598.14806pt | 1086 | 1086 | * \paperwidth=598.14806pt | |
* \paperheight=845.90042pt | 1087 | 1087 | * \paperheight=845.90042pt | |
* \textwidth=427.43153pt | 1088 | 1088 | * \textwidth=427.43153pt | |
* \textheight=671.71976pt | 1089 | 1089 | * \textheight=671.71976pt | |
* \oddsidemargin=99.58464pt | 1090 | 1090 | * \oddsidemargin=99.58464pt | |
* \evensidemargin=71.13188pt | 1091 | 1091 | * \evensidemargin=71.13188pt | |
* \topmargin=56.9055pt | 1092 | 1092 | * \topmargin=56.9055pt | |
* \headheight=12.0pt | 1093 | 1093 | * \headheight=12.0pt | |
* \headsep=31.29802pt | 1094 | 1094 | * \headsep=31.29802pt | |
* \topskip=11.0pt | 1095 | 1095 | * \topskip=11.0pt | |
* \footskip=31.29802pt | 1096 | 1096 | * \footskip=31.29802pt | |
* \marginparwidth=54.2025pt | 1097 | 1097 | * \marginparwidth=54.2025pt | |
* \marginparsep=7.0pt | 1098 | 1098 | * \marginparsep=7.0pt | |
* \columnsep=10.0pt | 1099 | 1099 | * \columnsep=10.0pt | |
* \skip\footins=10.0pt plus 4.0pt minus 2.0pt | 1100 | 1100 | * \skip\footins=10.0pt plus 4.0pt minus 2.0pt | |
* \hoffset=-72.26999pt | 1101 | 1101 | * \hoffset=-72.26999pt | |
* \voffset=-72.26999pt | 1102 | 1102 | * \voffset=-72.26999pt | |
* \mag=1000 | 1103 | 1103 | * \mag=1000 | |
* \@twocolumnfalse | 1104 | 1104 | * \@twocolumnfalse | |
* \@twosidetrue | 1105 | 1105 | * \@twosidetrue | |
* \@mparswitchtrue | 1106 | 1106 | * \@mparswitchtrue | |
* \@reversemarginfalse | 1107 | 1107 | * \@reversemarginfalse | |
* (1in=72.27pt=25.4mm, 1cm=28.453pt) | 1108 | 1108 | * (1in=72.27pt=25.4mm, 1cm=28.453pt) | |
1109 | 1109 | |||
*geometry* verbose mode - [ newgeometry ] result: | 1110 | 1110 | *geometry* verbose mode - [ newgeometry ] result: | |
* driver: pdftex | 1111 | 1111 | * driver: pdftex | |
* paper: a4paper | 1112 | 1112 | * paper: a4paper | |
* layout: <same size as paper> | 1113 | 1113 | * layout: <same size as paper> | |
* layoutoffset:(h,v)=(0.0pt,0.0pt) | 1114 | 1114 | * layoutoffset:(h,v)=(0.0pt,0.0pt) | |
* modes: twoside | 1115 | 1115 | * modes: twoside | |
* h-part:(L,W,R)=(170.71652pt, 355.65306pt, 71.77847pt) | 1116 | 1116 | * h-part:(L,W,R)=(170.71652pt, 355.65306pt, 71.77847pt) | |
* v-part:(T,H,B)=(101.50906pt, 741.54591pt, 2.84544pt) | 1117 | 1117 | * v-part:(T,H,B)=(101.50906pt, 741.54591pt, 2.84544pt) | |
* \paperwidth=598.14806pt | 1118 | 1118 | * \paperwidth=598.14806pt | |
* \paperheight=845.90042pt | 1119 | 1119 | * \paperheight=845.90042pt | |
* \textwidth=355.65306pt | 1120 | 1120 | * \textwidth=355.65306pt | |
* \textheight=741.54591pt | 1121 | 1121 | * \textheight=741.54591pt | |
* \oddsidemargin=98.44653pt | 1122 | 1122 | * \oddsidemargin=98.44653pt | |
* \evensidemargin=-0.49152pt | 1123 | 1123 | * \evensidemargin=-0.49152pt | |
* \topmargin=-14.05894pt | 1124 | 1124 | * \topmargin=-14.05894pt | |
* \headheight=12.0pt | 1125 | 1125 | * \headheight=12.0pt | |
* \headsep=31.29802pt | 1126 | 1126 | * \headsep=31.29802pt | |
* \topskip=11.0pt | 1127 | 1127 | * \topskip=11.0pt | |
* \footskip=31.29802pt | 1128 | 1128 | * \footskip=31.29802pt | |
* \marginparwidth=54.2025pt | 1129 | 1129 | * \marginparwidth=54.2025pt | |
* \marginparsep=7.0pt | 1130 | 1130 | * \marginparsep=7.0pt | |
* \columnsep=10.0pt | 1131 | 1131 | * \columnsep=10.0pt | |
* \skip\footins=10.0pt plus 4.0pt minus 2.0pt | 1132 | 1132 | * \skip\footins=10.0pt plus 4.0pt minus 2.0pt | |
* \hoffset=-72.26999pt | 1133 | 1133 | * \hoffset=-72.26999pt | |
* \voffset=-72.26999pt | 1134 | 1134 | * \voffset=-72.26999pt | |
* \mag=1000 | 1135 | 1135 | * \mag=1000 | |
* \@twocolumnfalse | 1136 | 1136 | * \@twocolumnfalse | |
* \@twosidetrue | 1137 | 1137 | * \@twosidetrue | |
* \@mparswitchtrue | 1138 | 1138 | * \@mparswitchtrue | |
* \@reversemarginfalse | 1139 | 1139 | * \@reversemarginfalse | |
* (1in=72.27pt=25.4mm, 1cm=28.453pt) | 1140 | 1140 | * (1in=72.27pt=25.4mm, 1cm=28.453pt) | |
1141 | 1141 | |||
<images_logos/image1_logoUBFC_grand.png, id=385, 610.4406pt x 217.0509pt> | 1142 | 1142 | <images_logos/image1_logoUBFC_grand.png, id=385, 610.4406pt x 217.0509pt> | |
File: images_logos/image1_logoUBFC_grand.png Graphic file (type png) | 1143 | 1143 | File: images_logos/image1_logoUBFC_grand.png Graphic file (type png) | |
<use images_logos/image1_logoUBFC_grand.png> | 1144 | 1144 | <use images_logos/image1_logoUBFC_grand.png> | |
Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input | 1145 | 1145 | Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input | |
line 237. | 1146 | 1146 | line 237. | |
(pdftex.def) Requested size: 142.25905pt x 50.57973pt. | 1147 | 1147 | (pdftex.def) Requested size: 142.25905pt x 50.57973pt. | |
<images_logos/logo_UFC_2018_transparence.png, id=387, 104.5506pt x 34.6896pt> | 1148 | 1148 | <images_logos/logo_UFC_2018_transparence.png, id=387, 104.5506pt x 34.6896pt> | |
File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png) | 1149 | 1149 | File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png) | |
<use images_logos/logo_UFC_2018_transparence.png> | 1150 | 1150 | <use images_logos/logo_UFC_2018_transparence.png> | |
Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i | 1151 | 1151 | Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i | |
nput line 237. | 1152 | 1152 | nput line 237. | |
(pdftex.def) Requested size: 142.25905pt x 47.20264pt. | 1153 | 1153 | (pdftex.def) Requested size: 142.25905pt x 47.20264pt. | |
LaTeX Font Info: Trying to load font information for OT1+txr on input line 2 | 1154 | 1154 | LaTeX Font Info: Trying to load font information for OT1+txr on input line 2 | |
48. | 1155 | 1155 | 48. | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/ot1txr.fd | 1156 | 1156 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/ot1txr.fd | |
File: ot1txr.fd 2000/12/15 v3.1 | 1157 | 1157 | File: ot1txr.fd 2000/12/15 v3.1 | |
) | 1158 | 1158 | ) | |
LaTeX Font Info: Trying to load font information for U+txmia on input line 2 | 1159 | 1159 | LaTeX Font Info: Trying to load font information for U+txmia on input line 2 | |
48. | 1160 | 1160 | 48. | |
1161 | 1161 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxmia.fd | 1162 | 1162 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxmia.fd | |
File: utxmia.fd 2000/12/15 v3.1 | 1163 | 1163 | File: utxmia.fd 2000/12/15 v3.1 | |
) | 1164 | 1164 | ) | |
LaTeX Font Info: Trying to load font information for U+txsya on input line 2 | 1165 | 1165 | LaTeX Font Info: Trying to load font information for U+txsya on input line 2 | |
48. | 1166 | 1166 | 48. | |
1167 | 1167 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsya.fd | 1168 | 1168 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsya.fd | |
File: utxsya.fd 2000/12/15 v3.1 | 1169 | 1169 | File: utxsya.fd 2000/12/15 v3.1 | |
) | 1170 | 1170 | ) | |
LaTeX Font Info: Trying to load font information for U+txsyb on input line 2 | 1171 | 1171 | LaTeX Font Info: Trying to load font information for U+txsyb on input line 2 | |
48. | 1172 | 1172 | 48. | |
1173 | 1173 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyb.fd | 1174 | 1174 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyb.fd | |
File: utxsyb.fd 2000/12/15 v3.1 | 1175 | 1175 | File: utxsyb.fd 2000/12/15 v3.1 | |
) | 1176 | 1176 | ) | |
LaTeX Font Info: Trying to load font information for U+txsyc on input line 2 | 1177 | 1177 | LaTeX Font Info: Trying to load font information for U+txsyc on input line 2 | |
48. | 1178 | 1178 | 48. | |
1179 | 1179 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyc.fd | 1180 | 1180 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyc.fd | |
File: utxsyc.fd 2000/12/15 v3.1 | 1181 | 1181 | File: utxsyc.fd 2000/12/15 v3.1 | |
) [1 | 1182 | 1182 | ) [1 | |
1183 | 1183 | |||
1184 | 1184 | |||
1185 | 1185 | |||
1186 | 1186 | |||
{/usr/local/texlive/2023/texmf-var/fonts/map/pdftex/updmap/pdftex.map}{/usr/loc | 1187 | 1187 | {/usr/local/texlive/2023/texmf-var/fonts/map/pdftex/updmap/pdftex.map}{/usr/loc | |
al/texlive/2023/texmf-dist/fonts/enc/dvips/base/8r.enc} <./images_logos/image1_ | 1188 | 1188 | al/texlive/2023/texmf-dist/fonts/enc/dvips/base/8r.enc} <./images_logos/image1_ | |
logoUBFC_grand.png> <./images_logos/logo_UFC_2018_transparence.png>] [2 | 1189 | 1189 | logoUBFC_grand.png> <./images_logos/logo_UFC_2018_transparence.png>] [2 | |
1190 | 1190 | |||
1191 | 1191 | |||
] [3] [4] | 1192 | 1192 | ] [3] [4] | |
(./main.toc | 1193 | 1193 | (./main.toc | |
LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available | 1194 | 1194 | LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available | |
(Font) Font shape `T1/phv/m/sl' tried instead on input line 23. | 1195 | 1195 | (Font) Font shape `T1/phv/m/sl' tried instead on input line 23. | |
[5 | 1196 | 1196 | [5 | |
1197 | 1197 | |||
] [6] | 1198 | 1198 | ] [6] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1199 | 1199 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1200 | 1200 | |||
[7] | 1201 | 1201 | [7] | |
Overfull \hbox (1.29184pt too wide) detected at line 89 | 1202 | 1202 | Overfull \hbox (1.29184pt too wide) detected at line 89 | |
[][]\T1/phv/m/n/10.95 100[] | 1203 | 1203 | [][]\T1/phv/m/n/10.95 100[] | |
[] | 1204 | 1204 | [] | |
1205 | 1205 | |||
1206 | 1206 | |||
Overfull \hbox (1.29184pt too wide) detected at line 90 | 1207 | 1207 | Overfull \hbox (1.29184pt too wide) detected at line 90 | |
[][]\T1/phv/m/n/10.95 100[] | 1208 | 1208 | [][]\T1/phv/m/n/10.95 100[] | |
[] | 1209 | 1209 | [] | |
1210 | 1210 | |||
1211 | 1211 | |||
Overfull \hbox (1.29184pt too wide) detected at line 92 | 1212 | 1212 | Overfull \hbox (1.29184pt too wide) detected at line 92 | |
[][]\T1/phv/m/n/10.95 103[] | 1213 | 1213 | [][]\T1/phv/m/n/10.95 103[] | |
[] | 1214 | 1214 | [] | |
1215 | 1215 | |||
1216 | 1216 | |||
Overfull \hbox (1.29184pt too wide) detected at line 93 | 1217 | 1217 | Overfull \hbox (1.29184pt too wide) detected at line 93 | |
[][]\T1/phv/m/n/10.95 105[] | 1218 | 1218 | [][]\T1/phv/m/n/10.95 105[] | |
[] | 1219 | 1219 | [] | |
1220 | 1220 | |||
1221 | 1221 | |||
Overfull \hbox (1.29184pt too wide) detected at line 95 | 1222 | 1222 | Overfull \hbox (1.29184pt too wide) detected at line 95 | |
[][]\T1/phv/m/n/10.95 107[] | 1223 | 1223 | [][]\T1/phv/m/n/10.95 107[] | |
[] | 1224 | 1224 | [] | |
1225 | 1225 | |||
1226 | 1226 | |||
Overfull \hbox (1.29184pt too wide) detected at line 96 | 1227 | 1227 | Overfull \hbox (1.29184pt too wide) detected at line 96 | |
[][]\T1/phv/m/n/10.95 108[] | 1228 | 1228 | [][]\T1/phv/m/n/10.95 108[] | |
[] | 1229 | 1229 | [] | |
1230 | 1230 | |||
) | 1231 | 1231 | ) | |
\tf@toc=\write4 | 1232 | 1232 | \tf@toc=\write4 | |
\openout4 = `main.toc'. | 1233 | 1233 | \openout4 = `main.toc'. | |
1234 | 1234 | |||
[8] [1 | 1235 | 1235 | [8] [1 | |
1236 | 1236 | |||
1237 | 1237 | |||
] [2] | 1238 | 1238 | ] [2] | |
Chapitre 1. | 1239 | 1239 | Chapitre 1. | |
Package lettrine.sty Info: Targeted height = 19.96736pt | 1240 | 1240 | Package lettrine.sty Info: Targeted height = 19.96736pt | |
(lettrine.sty) (for loversize=0, accent excluded), | 1241 | 1241 | (lettrine.sty) (for loversize=0, accent excluded), | |
(lettrine.sty) Lettrine height = 20.612pt (\uppercase {C}); | 1242 | 1242 | (lettrine.sty) Lettrine height = 20.612pt (\uppercase {C}); | |
(lettrine.sty) reported on input line 340. | 1243 | 1243 | (lettrine.sty) reported on input line 340. | |
1244 | 1244 | |||
Overfull \hbox (6.79999pt too wide) in paragraph at lines 340--340 | 1245 | 1245 | Overfull \hbox (6.79999pt too wide) in paragraph at lines 340--340 | |
[][][][] | 1246 | 1246 | [][][][] | |
[] | 1247 | 1247 | [] | |
1248 | 1248 | |||
1249 | 1249 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1250 | 1250 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1251 | 1251 | |||
[3 | 1252 | 1252 | [3 | |
1253 | 1253 | |||
] | 1254 | 1254 | ] | |
[4] [5] | 1255 | 1255 | [4] [5] | |
\openout2 = `./chapters/contexte2.aux'. | 1256 | 1256 | \openout2 = `./chapters/contexte2.aux'. | |
1257 | 1257 | |||
(./chapters/contexte2.tex [6 | 1258 | 1258 | (./chapters/contexte2.tex [6 | |
1259 | 1259 | |||
1260 | 1260 | |||
] | 1261 | 1261 | ] | |
Chapitre 2. | 1262 | 1262 | Chapitre 2. | |
<./Figures/TLearning.png, id=558, 603.25375pt x 331.2375pt> | 1263 | 1263 | <./Figures/TLearning.png, id=558, 603.25375pt x 331.2375pt> | |
File: ./Figures/TLearning.png Graphic file (type png) | 1264 | 1264 | File: ./Figures/TLearning.png Graphic file (type png) | |
<use ./Figures/TLearning.png> | 1265 | 1265 | <use ./Figures/TLearning.png> | |
Package pdftex.def Info: ./Figures/TLearning.png used on input line 15. | 1266 | 1266 | Package pdftex.def Info: ./Figures/TLearning.png used on input line 15. | |
(pdftex.def) Requested size: 427.43153pt x 234.69505pt. | 1267 | 1267 | (pdftex.def) Requested size: 427.43153pt x 234.69505pt. | |
[7] | 1268 | 1268 | [7] | |
<./Figures/EIAH.png, id=567, 643.40375pt x 362.35374pt> | 1269 | 1269 | <./Figures/EIAH.png, id=567, 643.40375pt x 362.35374pt> | |
File: ./Figures/EIAH.png Graphic file (type png) | 1270 | 1270 | File: ./Figures/EIAH.png Graphic file (type png) | |
<use ./Figures/EIAH.png> | 1271 | 1271 | <use ./Figures/EIAH.png> | |
Package pdftex.def Info: ./Figures/EIAH.png used on input line 32. | 1272 | 1272 | Package pdftex.def Info: ./Figures/EIAH.png used on input line 32. | |
(pdftex.def) Requested size: 427.43153pt x 240.73pt. | 1273 | 1273 | (pdftex.def) Requested size: 427.43153pt x 240.73pt. | |
1274 | 1274 | |||
1275 | 1275 | |||
LaTeX Warning: `!h' float specifier changed to `!ht'. | 1276 | 1276 | LaTeX Warning: `!h' float specifier changed to `!ht'. | |
1277 | 1277 | |||
[8 <./Figures/TLearning.png>] [9 <./Figures/EIAH.png>] [10] | 1278 | 1278 | [8 <./Figures/TLearning.png>] [9 <./Figures/EIAH.png>] [10] | |
<./Figures/cycle.png, id=594, 668.4975pt x 665.48625pt> | 1279 | 1279 | <./Figures/cycle.png, id=594, 668.4975pt x 665.48625pt> | |
File: ./Figures/cycle.png Graphic file (type png) | 1280 | 1280 | File: ./Figures/cycle.png Graphic file (type png) | |
<use ./Figures/cycle.png> | 1281 | 1281 | <use ./Figures/cycle.png> | |
Package pdftex.def Info: ./Figures/cycle.png used on input line 83. | 1282 | 1282 | Package pdftex.def Info: ./Figures/cycle.png used on input line 83. | |
(pdftex.def) Requested size: 427.43153pt x 425.51372pt. | 1283 | 1283 | (pdftex.def) Requested size: 427.43153pt x 425.51372pt. | |
[11 <./Figures/cycle.png>] | 1284 | 1284 | [11 <./Figures/cycle.png>] | |
<./Figures/Reuse.png, id=617, 383.4325pt x 182.6825pt> | 1285 | 1285 | <./Figures/Reuse.png, id=617, 383.4325pt x 182.6825pt> | |
File: ./Figures/Reuse.png Graphic file (type png) | 1286 | 1286 | File: ./Figures/Reuse.png Graphic file (type png) | |
<use ./Figures/Reuse.png> | 1287 | 1287 | <use ./Figures/Reuse.png> | |
Package pdftex.def Info: ./Figures/Reuse.png used on input line 112. | 1288 | 1288 | Package pdftex.def Info: ./Figures/Reuse.png used on input line 112. | |
(pdftex.def) Requested size: 427.43153pt x 203.65802pt. | 1289 | 1289 | (pdftex.def) Requested size: 427.43153pt x 203.65802pt. | |
1290 | 1290 | |||
Underfull \hbox (badness 10000) in paragraph at lines 112--112 | 1291 | 1291 | Underfull \hbox (badness 10000) in paragraph at lines 112--112 | |
[]\T1/phv/m/sc/10.95 Figure 2.4 \T1/phv/m/n/10.95 ^^U |Prin-cipe de réuti-li-sa | 1292 | 1292 | []\T1/phv/m/sc/10.95 Figure 2.4 \T1/phv/m/n/10.95 ^^U |Prin-cipe de réuti-li-sa | |
-tion dans le RàPC (Tra-duit de | 1293 | 1293 | -tion dans le RàPC (Tra-duit de | |
[] | 1294 | 1294 | [] | |
1295 | 1295 | |||
[12] [13 <./Figures/Reuse.png>] | 1296 | 1296 | [12] [13 <./Figures/Reuse.png>] | |
<./Figures/CycleCBR.png, id=637, 147.1899pt x 83.8332pt> | 1297 | 1297 | <./Figures/CycleCBR.png, id=637, 147.1899pt x 83.8332pt> | |
File: ./Figures/CycleCBR.png Graphic file (type png) | 1298 | 1298 | File: ./Figures/CycleCBR.png Graphic file (type png) | |
<use ./Figures/CycleCBR.png> | 1299 | 1299 | <use ./Figures/CycleCBR.png> | |
Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156. | 1300 | 1300 | Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156. | |
(pdftex.def) Requested size: 427.43153pt x 243.45026pt. | 1301 | 1301 | (pdftex.def) Requested size: 427.43153pt x 243.45026pt. | |
[14] [15 <./Figures/CycleCBR.png>] [16] | 1302 | 1302 | [14] [15 <./Figures/CycleCBR.png>] [16] | |
1303 | 1303 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1304 | 1304 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1305 | 1305 | 65. | |
1306 | 1306 | |||
LaTeX Font Info: Trying to load font information for TS1+phv on input line 2 | 1307 | 1307 | LaTeX Font Info: Trying to load font information for TS1+phv on input line 2 | |
65. | 1308 | 1308 | 65. | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/ts1phv.fd | 1309 | 1309 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/ts1phv.fd | |
File: ts1phv.fd 2020/03/25 scalable font definitions for TS1/phv. | 1310 | 1310 | File: ts1phv.fd 2020/03/25 scalable font definitions for TS1/phv. | |
) | 1311 | 1311 | ) | |
1312 | 1312 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1313 | 1313 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1314 | 1314 | 65. | |
1315 | 1315 | |||
1316 | 1316 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1317 | 1317 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1318 | 1318 | 65. | |
1319 | 1319 | |||
1320 | 1320 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1321 | 1321 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1322 | 1322 | 65. | |
1323 | 1323 | |||
1324 | 1324 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1325 | 1325 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1326 | 1326 | 65. | |
1327 | 1327 | |||
1328 | 1328 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1329 | 1329 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1330 | 1330 | 65. | |
1331 | 1331 | |||
Missing character: There is no · in font txr! | 1332 | 1332 | Missing character: There is no · in font txr! | |
Missing character: There is no · in font txr! | 1333 | 1333 | Missing character: There is no · in font txr! | |
Missing character: There is no · in font txr! | 1334 | 1334 | Missing character: There is no · in font txr! | |
1335 | 1335 | |||
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | 1336 | 1336 | LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | |
(Font) using `T1/phv/m/it' instead on input line 284. | 1337 | 1337 | (Font) using `T1/phv/m/it' instead on input line 284. | |
1338 | 1338 | |||
[17] [18] | 1339 | 1339 | [17] [18] | |
1340 | 1340 | |||
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | 1341 | 1341 | LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | |
(Font) using `T1/phv/m/it' instead on input line 333. | 1342 | 1342 | (Font) using `T1/phv/m/it' instead on input line 333. | |
1343 | 1343 | |||
1344 | 1344 | |||
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | 1345 | 1345 | LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | |
(Font) using `T1/phv/m/it' instead on input line 337. | 1346 | 1346 | (Font) using `T1/phv/m/it' instead on input line 337. | |
1347 | 1347 | |||
<./Figures/beta-distribution.png, id=714, 621.11293pt x 480.07928pt> | 1348 | 1348 | <./Figures/beta-distribution.png, id=714, 621.11293pt x 480.07928pt> | |
File: ./Figures/beta-distribution.png Graphic file (type png) | 1349 | 1349 | File: ./Figures/beta-distribution.png Graphic file (type png) | |
<use ./Figures/beta-distribution.png> | 1350 | 1350 | <use ./Figures/beta-distribution.png> | |
Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34 | 1351 | 1351 | Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34 | |
5. | 1352 | 1352 | 5. | |
(pdftex.def) Requested size: 427.43153pt x 330.38333pt. | 1353 | 1353 | (pdftex.def) Requested size: 427.43153pt x 330.38333pt. | |
[19]) [20 <./Figures/beta-distribution.png>] [21 | 1354 | 1354 | [19]) [20 <./Figures/beta-distribution.png>] [21 | |
1355 | 1355 | |||
1356 | 1356 | |||
1357 | 1357 | |||
] [22] | 1358 | 1358 | ] [22] | |
\openout2 = `./chapters/EIAH.aux'. | 1359 | 1359 | \openout2 = `./chapters/EIAH.aux'. | |
1360 | 1360 | |||
(./chapters/EIAH.tex | 1361 | 1361 | (./chapters/EIAH.tex | |
Chapitre 3. | 1362 | 1362 | Chapitre 3. | |
[23 | 1363 | 1363 | [23 | |
1364 | 1364 | |||
1365 | 1365 | |||
] | 1366 | 1366 | ] | |
Underfull \hbox (badness 10000) in paragraph at lines 24--25 | 1367 | 1367 | Underfull \hbox (badness 10000) in paragraph at lines 24--25 | |
[]\T1/phv/m/n/10.95 Les tech-niques d'IA peuvent aussi ai-der à prendre des dé- | 1368 | 1368 | []\T1/phv/m/n/10.95 Les tech-niques d'IA peuvent aussi ai-der à prendre des dé- | |
ci-sions stra-té- | 1369 | 1369 | ci-sions stra-té- | |
[] | 1370 | 1370 | [] | |
1371 | 1371 | |||
1372 | 1372 | |||
Underfull \hbox (badness 1874) in paragraph at lines 24--25 | 1373 | 1373 | Underfull \hbox (badness 1874) in paragraph at lines 24--25 | |
\T1/phv/m/n/10.95 giques vi-sant des ob-jec-tifs à longue échéance comme le mon | 1374 | 1374 | \T1/phv/m/n/10.95 giques vi-sant des ob-jec-tifs à longue échéance comme le mon | |
tre le tra-vail de | 1375 | 1375 | tre le tra-vail de | |
[] | 1376 | 1376 | [] | |
1377 | 1377 | |||
<./Figures/architecture.png, id=752, 776.9025pt x 454.69875pt> | 1378 | 1378 | <./Figures/architecture.png, id=752, 776.9025pt x 454.69875pt> | |
File: ./Figures/architecture.png Graphic file (type png) | 1379 | 1379 | File: ./Figures/architecture.png Graphic file (type png) | |
<use ./Figures/architecture.png> | 1380 | 1380 | <use ./Figures/architecture.png> | |
Package pdftex.def Info: ./Figures/architecture.png used on input line 38. | 1381 | 1381 | Package pdftex.def Info: ./Figures/architecture.png used on input line 38. | |
(pdftex.def) Requested size: 427.43153pt x 250.16833pt. | 1382 | 1382 | (pdftex.def) Requested size: 427.43153pt x 250.16833pt. | |
1383 | 1383 | |||
LaTeX Warning: Reference `sectBanditManchot' on page 24 undefined on input line | 1384 | 1384 | LaTeX Warning: Reference `sectBanditManchot' on page 24 undefined on input line | |
43. | 1385 | 1385 | 43. | |
1386 | 1386 | |||
[24] | 1387 | 1387 | [24] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1388 | 1388 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1389 | 1389 | |||
[25 <./Figures/architecture.png>] | 1390 | 1390 | [25 <./Figures/architecture.png>] | |
<./Figures/ELearningLevels.png, id=781, 602.25pt x 612.78937pt> | 1391 | 1391 | <./Figures/ELearningLevels.png, id=781, 602.25pt x 612.78937pt> | |
File: ./Figures/ELearningLevels.png Graphic file (type png) | 1392 | 1392 | File: ./Figures/ELearningLevels.png Graphic file (type png) | |
<use ./Figures/ELearningLevels.png> | 1393 | 1393 | <use ./Figures/ELearningLevels.png> | |
Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 62. | 1394 | 1394 | Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 62. | |
(pdftex.def) Requested size: 427.43153pt x 434.92455pt. | 1395 | 1395 | (pdftex.def) Requested size: 427.43153pt x 434.92455pt. | |
1396 | 1396 | |||
Underfull \hbox (badness 3690) in paragraph at lines 62--62 | 1397 | 1397 | Underfull \hbox (badness 3690) in paragraph at lines 62--62 | |
[]\T1/phv/m/sc/10.95 Figure 3.2 \T1/phv/m/n/10.95 ^^U |Tra-duc-tion des ni-veau | 1398 | 1398 | []\T1/phv/m/sc/10.95 Figure 3.2 \T1/phv/m/n/10.95 ^^U |Tra-duc-tion des ni-veau | |
x du sys-tème de re-com-man-da-tion dans | 1399 | 1399 | x du sys-tème de re-com-man-da-tion dans | |
[] | 1400 | 1400 | [] | |
1401 | 1401 | |||
1402 | 1402 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1403 | 1403 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1404 | 1404 | |||
[26] | 1405 | 1405 | [26] | |
Overfull \hbox (2.56369pt too wide) in paragraph at lines 82--82 | 1406 | 1406 | Overfull \hbox (2.56369pt too wide) in paragraph at lines 82--82 | |
[]|\T1/phv/m/n/9 [[]]| | 1407 | 1407 | []|\T1/phv/m/n/9 [[]]| | |
[] | 1408 | 1408 | [] | |
1409 | 1409 | |||
1410 | 1410 | |||
Overfull \hbox (0.5975pt too wide) in paragraph at lines 77--93 | 1411 | 1411 | Overfull \hbox (0.5975pt too wide) in paragraph at lines 77--93 | |
[][] | 1412 | 1412 | [][] | |
[] | 1413 | 1413 | [] | |
1414 | 1414 | |||
) [27 <./Figures/ELearningLevels.png>] [28] | 1415 | 1415 | ) [27 <./Figures/ELearningLevels.png>] [28] | |
\openout2 = `./chapters/CBR.aux'. | 1416 | 1416 | \openout2 = `./chapters/CBR.aux'. | |
1417 | 1417 | |||
(./chapters/CBR.tex | 1418 | 1418 | (./chapters/CBR.tex | |
Chapitre 4. | 1419 | 1419 | Chapitre 4. | |
[29 | 1420 | 1420 | [29 | |
1421 | 1421 | |||
1422 | 1422 | |||
1423 | 1423 | |||
1424 | 1424 | |||
] [30] | 1425 | 1425 | ] [30] | |
Underfull \hbox (badness 1048) in paragraph at lines 25--26 | 1426 | 1426 | Underfull \hbox (badness 1048) in paragraph at lines 25--26 | |
[]\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la | 1427 | 1427 | []\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la | |
1428 | 1428 | |||
[] | 1429 | 1429 | [] | |
1430 | 1430 | |||
<./Figures/ModCBR2.png, id=845, 1145.27875pt x 545.03625pt> | 1431 | 1431 | <./Figures/ModCBR2.png, id=845, 1145.27875pt x 545.03625pt> | |
File: ./Figures/ModCBR2.png Graphic file (type png) | 1432 | 1432 | File: ./Figures/ModCBR2.png Graphic file (type png) | |
<use ./Figures/ModCBR2.png> | 1433 | 1433 | <use ./Figures/ModCBR2.png> | |
Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 39. | 1434 | 1434 | Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 39. | |
(pdftex.def) Requested size: 427.43153pt x 203.41505pt. | 1435 | 1435 | (pdftex.def) Requested size: 427.43153pt x 203.41505pt. | |
1436 | 1436 | |||
Underfull \vbox (badness 1163) has occurred while \output is active [] | 1437 | 1437 | Underfull \vbox (badness 1163) has occurred while \output is active [] | |
1438 | 1438 | |||
1439 | 1439 | |||
Overfull \hbox (24.44536pt too wide) has occurred while \output is active | 1440 | 1440 | Overfull \hbox (24.44536pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY | 1441 | 1441 | \T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY | |
CLE DU RÀPC \T1/phv/m/n/10.95 31 | 1442 | 1442 | CLE DU RÀPC \T1/phv/m/n/10.95 31 | |
[] | 1443 | 1443 | [] | |
1444 | 1444 | |||
[31] | 1445 | 1445 | [31] | |
<./Figures/ModCBR1.png, id=859, 942.52126pt x 624.83438pt> | 1446 | 1446 | <./Figures/ModCBR1.png, id=859, 942.52126pt x 624.83438pt> | |
File: ./Figures/ModCBR1.png Graphic file (type png) | 1447 | 1447 | File: ./Figures/ModCBR1.png Graphic file (type png) | |
<use ./Figures/ModCBR1.png> | 1448 | 1448 | <use ./Figures/ModCBR1.png> | |
Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 45. | 1449 | 1449 | Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 45. | |
(pdftex.def) Requested size: 427.43153pt x 283.36574pt. | 1450 | 1450 | (pdftex.def) Requested size: 427.43153pt x 283.36574pt. | |
[32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34] | 1451 | 1451 | [32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34] | |
<./Figures/taxonomieEIAH.png, id=900, 984.67876pt x 614.295pt> | 1452 | 1452 | <./Figures/taxonomieEIAH.png, id=900, 984.67876pt x 614.295pt> | |
File: ./Figures/taxonomieEIAH.png Graphic file (type png) | 1453 | 1453 | File: ./Figures/taxonomieEIAH.png Graphic file (type png) | |
<use ./Figures/taxonomieEIAH.png> | 1454 | 1454 | <use ./Figures/taxonomieEIAH.png> | |
Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 81. | 1455 | 1455 | Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 81. | |
(pdftex.def) Requested size: 427.43153pt x 266.65376pt. | 1456 | 1456 | (pdftex.def) Requested size: 427.43153pt x 266.65376pt. | |
1457 | 1457 | |||
Underfull \hbox (badness 1895) in paragraph at lines 90--90 | 1458 | 1458 | Underfull \hbox (badness 1895) in paragraph at lines 90--90 | |
[][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés | 1459 | 1459 | [][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés | |
[] | 1460 | 1460 | [] | |
1461 | 1461 | |||
[35] | 1462 | 1462 | [35] | |
Overfull \hbox (2.19226pt too wide) in paragraph at lines 108--108 | 1463 | 1463 | Overfull \hbox (2.19226pt too wide) in paragraph at lines 108--108 | |
[]|\T1/phv/m/n/9 [[]]| | 1464 | 1464 | []|\T1/phv/m/n/9 [[]]| | |
[] | 1465 | 1465 | [] | |
1466 | 1466 | |||
1467 | 1467 | |||
Overfull \hbox (8.65419pt too wide) in paragraph at lines 114--114 | 1468 | 1468 | Overfull \hbox (8.65419pt too wide) in paragraph at lines 114--114 | |
[]|\T1/phv/m/n/9 [[]]| | 1469 | 1469 | []|\T1/phv/m/n/9 [[]]| | |
[] | 1470 | 1470 | [] | |
1471 | 1471 | |||
1472 | 1472 | |||
Overfull \hbox (1.23834pt too wide) in paragraph at lines 134--134 | 1473 | 1473 | Overfull \hbox (1.23834pt too wide) in paragraph at lines 134--134 | |
[]|\T1/phv/m/n/9 [[]]| | 1474 | 1474 | []|\T1/phv/m/n/9 [[]]| | |
[] | 1475 | 1475 | [] | |
1476 | 1476 | |||
1477 | 1477 | |||
Overfull \hbox (7.38495pt too wide) in paragraph at lines 142--142 | 1478 | 1478 | Overfull \hbox (7.38495pt too wide) in paragraph at lines 142--142 | |
[]|\T1/phv/m/n/9 [[]]| | 1479 | 1479 | []|\T1/phv/m/n/9 [[]]| | |
[] | 1480 | 1480 | [] | |
1481 | 1481 | |||
) [36 <./Figures/taxonomieEIAH.png>] | 1482 | 1482 | ) [36 <./Figures/taxonomieEIAH.png>] | |
Overfull \hbox (14.11055pt too wide) has occurred while \output is active | 1483 | 1483 | Overfull \hbox (14.11055pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 4.7. RÉCAPITULATIF DES LIMITES DES TRAVAUX PRÉSENTÉS DANS C | 1484 | 1484 | \T1/phv/m/sl/10.95 4.7. RÉCAPITULATIF DES LIMITES DES TRAVAUX PRÉSENTÉS DANS C | |
E CHAPITRE \T1/phv/m/n/10.95 37 | 1485 | 1485 | E CHAPITRE \T1/phv/m/n/10.95 37 | |
[] | 1486 | 1486 | [] | |
1487 | 1487 | |||
[37] [38 | 1488 | 1488 | [37] [38 | |
1489 | 1489 | |||
1490 | 1490 | |||
1491 | 1491 | |||
] [39] [40] | 1492 | 1492 | ] [39] [40] | |
\openout2 = `./chapters/Architecture.aux'. | 1493 | 1493 | \openout2 = `./chapters/Architecture.aux'. | |
1494 | 1494 | |||
(./chapters/Architecture.tex | 1495 | 1495 | (./chapters/Architecture.tex | |
Chapitre 5. | 1496 | 1496 | Chapitre 5. | |
1497 | 1497 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1498 | 1498 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1499 | 1499 | |||
[41 | 1500 | 1500 | [41 | |
1501 | 1501 | |||
1502 | 1502 | |||
] | 1503 | 1503 | ] | |
<./Figures/AIVT.png, id=976, 1116.17pt x 512.91624pt> | 1504 | 1504 | <./Figures/AIVT.png, id=976, 1116.17pt x 512.91624pt> | |
File: ./Figures/AIVT.png Graphic file (type png) | 1505 | 1505 | File: ./Figures/AIVT.png Graphic file (type png) | |
<use ./Figures/AIVT.png> | 1506 | 1506 | <use ./Figures/AIVT.png> | |
Package pdftex.def Info: ./Figures/AIVT.png used on input line 23. | 1507 | 1507 | Package pdftex.def Info: ./Figures/AIVT.png used on input line 23. | |
(pdftex.def) Requested size: 427.43153pt x 196.41287pt. | 1508 | 1508 | (pdftex.def) Requested size: 427.43153pt x 196.41287pt. | |
1509 | 1509 | |||
[42 <./Figures/AIVT.png>] | 1510 | 1510 | [42 <./Figures/AIVT.png>] | |
Underfull \hbox (badness 3049) in paragraph at lines 44--45 | 1511 | 1511 | Underfull \hbox (badness 3049) in paragraph at lines 44--45 | |
[]|\T1/phv/m/n/10.95 Discipline des in-for-ma-tions conte- | 1512 | 1512 | []|\T1/phv/m/n/10.95 Discipline des in-for-ma-tions conte- | |
[] | 1513 | 1513 | [] | |
1514 | 1514 | |||
1515 | 1515 | |||
Underfull \hbox (badness 2435) in paragraph at lines 46--46 | 1516 | 1516 | Underfull \hbox (badness 2435) in paragraph at lines 46--46 | |
[]|\T1/phv/m/n/10.95 Le ni-veau sco-laire de la ma-tière | 1517 | 1517 | []|\T1/phv/m/n/10.95 Le ni-veau sco-laire de la ma-tière | |
[] | 1518 | 1518 | [] | |
1519 | 1519 | |||
1520 | 1520 | |||
Underfull \hbox (badness 7468) in paragraph at lines 47--48 | 1521 | 1521 | Underfull \hbox (badness 7468) in paragraph at lines 47--48 | |
[]|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- | 1522 | 1522 | []|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- | |
[] | 1523 | 1523 | [] | |
1524 | 1524 | |||
1525 | 1525 | |||
Underfull \hbox (badness 7468) in paragraph at lines 48--49 | 1526 | 1526 | Underfull \hbox (badness 7468) in paragraph at lines 48--49 | |
[]|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- | 1527 | 1527 | []|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- | |
[] | 1528 | 1528 | [] | |
1529 | 1529 | |||
1530 | 1530 | |||
Underfull \hbox (badness 5050) in paragraph at lines 52--52 | 1531 | 1531 | Underfull \hbox (badness 5050) in paragraph at lines 52--52 | |
[]|\T1/phv/m/n/10.95 Le type d'in-for-ma-tions conte-nues | 1532 | 1532 | []|\T1/phv/m/n/10.95 Le type d'in-for-ma-tions conte-nues | |
[] | 1533 | 1533 | [] | |
1534 | 1534 | |||
1535 | 1535 | |||
Underfull \hbox (badness 10000) in paragraph at lines 54--55 | 1536 | 1536 | Underfull \hbox (badness 10000) in paragraph at lines 54--55 | |
[]|\T1/phv/m/n/10.95 Connaissances et | 1537 | 1537 | []|\T1/phv/m/n/10.95 Connaissances et | |
[] | 1538 | 1538 | [] | |
1539 | 1539 | |||
1540 | 1540 | |||
Overfull \hbox (1.98096pt too wide) in paragraph at lines 57--57 | 1541 | 1541 | Overfull \hbox (1.98096pt too wide) in paragraph at lines 57--57 | |
[]|\T1/phv/m/n/10.95 Représentation | 1542 | 1542 | []|\T1/phv/m/n/10.95 Représentation | |
[] | 1543 | 1543 | [] | |
1544 | 1544 | |||
1545 | 1545 | |||
Overfull \hbox (1.98096pt too wide) in paragraph at lines 58--58 | 1546 | 1546 | Overfull \hbox (1.98096pt too wide) in paragraph at lines 58--58 | |
[]|\T1/phv/m/n/10.95 Représentation | 1547 | 1547 | []|\T1/phv/m/n/10.95 Représentation | |
[] | 1548 | 1548 | [] | |
1549 | 1549 | |||
1550 | 1550 | |||
Underfull \hbox (badness 10000) in paragraph at lines 59--60 | 1551 | 1551 | Underfull \hbox (badness 10000) in paragraph at lines 59--60 | |
[]|\T1/phv/m/n/10.95 Représentation tex- | 1552 | 1552 | []|\T1/phv/m/n/10.95 Représentation tex- | |
[] | 1553 | 1553 | [] | |
1554 | 1554 | |||
1555 | 1555 | |||
Underfull \hbox (badness 10000) in paragraph at lines 59--60 | 1556 | 1556 | Underfull \hbox (badness 10000) in paragraph at lines 59--60 | |
\T1/phv/m/n/10.95 tuel et gra-phique | 1557 | 1557 | \T1/phv/m/n/10.95 tuel et gra-phique | |
[] | 1558 | 1558 | [] | |
1559 | 1559 | |||
1560 | 1560 | |||
Underfull \hbox (badness 2343) in paragraph at lines 63--64 | 1561 | 1561 | Underfull \hbox (badness 2343) in paragraph at lines 63--64 | |
[]|\T1/phv/m/n/10.95 Ordinateur ou ap-pa- | 1562 | 1562 | []|\T1/phv/m/n/10.95 Ordinateur ou ap-pa- | |
[] | 1563 | 1563 | [] | |
1564 | 1564 | |||
1565 | 1565 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1566 | 1566 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1567 | 1567 | |||
[43] | 1568 | 1568 | [43] | |
<./Figures/Architecture AI-VT2.png, id=992, 1029.8475pt x 948.54375pt> | 1569 | 1569 | <./Figures/Architecture AI-VT2.png, id=992, 1029.8475pt x 948.54375pt> | |
File: ./Figures/Architecture AI-VT2.png Graphic file (type png) | 1570 | 1570 | File: ./Figures/Architecture AI-VT2.png Graphic file (type png) | |
<use ./Figures/Architecture AI-VT2.png> | 1571 | 1571 | <use ./Figures/Architecture AI-VT2.png> | |
Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line | 1572 | 1572 | Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line | |
80. | 1573 | 1573 | 80. | |
(pdftex.def) Requested size: 427.43153pt x 393.68173pt. | 1574 | 1574 | (pdftex.def) Requested size: 427.43153pt x 393.68173pt. | |
1575 | 1575 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1576 | 1576 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1577 | 1577 | |||
[44] | 1578 | 1578 | [44] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1579 | 1579 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1580 | 1580 | |||
[45 <./Figures/Architecture AI-VT2.png>] | 1581 | 1581 | [45 <./Figures/Architecture AI-VT2.png>] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1582 | 1582 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1583 | 1583 | |||
[46] | 1584 | 1584 | [46] | |
[47] [48] | 1585 | 1585 | [47] [48] | |
<./Figures/Layers.png, id=1019, 392.46625pt x 216.81pt> | 1586 | 1586 | <./Figures/Layers.png, id=1019, 392.46625pt x 216.81pt> | |
File: ./Figures/Layers.png Graphic file (type png) | 1587 | 1587 | File: ./Figures/Layers.png Graphic file (type png) | |
<use ./Figures/Layers.png> | 1588 | 1588 | <use ./Figures/Layers.png> | |
Package pdftex.def Info: ./Figures/Layers.png used on input line 153. | 1589 | 1589 | Package pdftex.def Info: ./Figures/Layers.png used on input line 153. | |
(pdftex.def) Requested size: 313.9734pt x 173.44823pt. | 1590 | 1590 | (pdftex.def) Requested size: 313.9734pt x 173.44823pt. | |
<./Figures/flow.png, id=1021, 721.69624pt x 593.21625pt> | 1591 | 1591 | <./Figures/flow.png, id=1021, 721.69624pt x 593.21625pt> | |
File: ./Figures/flow.png Graphic file (type png) | 1592 | 1592 | File: ./Figures/flow.png Graphic file (type png) | |
<use ./Figures/flow.png> | 1593 | 1593 | <use ./Figures/flow.png> | |
Package pdftex.def Info: ./Figures/flow.png used on input line 164. | 1594 | 1594 | Package pdftex.def Info: ./Figures/flow.png used on input line 164. | |
(pdftex.def) Requested size: 427.43153pt x 351.33421pt. | 1595 | 1595 | (pdftex.def) Requested size: 427.43153pt x 351.33421pt. | |
) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>] | 1596 | 1596 | ) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>] | |
\openout2 = `./chapters/ESCBR.aux'. | 1597 | 1597 | \openout2 = `./chapters/ESCBR.aux'. | |
1598 | 1598 | |||
1599 | 1599 | |||
(./chapters/ESCBR.tex | 1600 | 1600 | (./chapters/ESCBR.tex | |
Chapitre 6. | 1601 | 1601 | Chapitre 6. | |
1602 | 1602 | |||
Underfull \hbox (badness 1383) in paragraph at lines 7--9 | 1603 | 1603 | Underfull \hbox (badness 1383) in paragraph at lines 7--9 | |
\T1/phv/m/n/10.95 multi-agents cog-ni-tifs im-plé-men-tant un rai-son-ne-ment B | 1604 | 1604 | \T1/phv/m/n/10.95 multi-agents cog-ni-tifs im-plé-men-tant un rai-son-ne-ment B | |
ayé-sien. Cette as-so-cia-tion, | 1605 | 1605 | ayé-sien. Cette as-so-cia-tion, | |
[] | 1606 | 1606 | [] | |
1607 | 1607 | |||
1608 | 1608 | |||
Underfull \hbox (badness 10000) in paragraph at lines 7--9 | 1609 | 1609 | Underfull \hbox (badness 10000) in paragraph at lines 7--9 | |
1610 | 1610 | |||
[] | 1611 | 1611 | [] | |
1612 | 1612 | |||
[51 | 1613 | 1613 | [51 | |
1614 | 1614 | |||
1615 | 1615 | |||
1616 | 1616 | |||
1617 | 1617 | |||
] | 1618 | 1618 | ] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1619 | 1619 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1620 | 1620 | |||
[52] | 1621 | 1621 | [52] | |
<./Figures/NCBR0.png, id=1064, 623.32875pt x 459.7175pt> | 1622 | 1622 | <./Figures/NCBR0.png, id=1064, 623.32875pt x 459.7175pt> | |
File: ./Figures/NCBR0.png Graphic file (type png) | 1623 | 1623 | File: ./Figures/NCBR0.png Graphic file (type png) | |
<use ./Figures/NCBR0.png> | 1624 | 1624 | <use ./Figures/NCBR0.png> | |
Package pdftex.def Info: ./Figures/NCBR0.png used on input line 32. | 1625 | 1625 | Package pdftex.def Info: ./Figures/NCBR0.png used on input line 32. | |
(pdftex.def) Requested size: 427.43153pt x 315.24129pt. | 1626 | 1626 | (pdftex.def) Requested size: 427.43153pt x 315.24129pt. | |
1627 | 1627 | |||
[53 <./Figures/NCBR0.png>] | 1628 | 1628 | [53 <./Figures/NCBR0.png>] | |
<./Figures/FlowCBR0.png, id=1075, 370.38374pt x 661.47125pt> | 1629 | 1629 | <./Figures/FlowCBR0.png, id=1075, 370.38374pt x 661.47125pt> | |
File: ./Figures/FlowCBR0.png Graphic file (type png) | 1630 | 1630 | File: ./Figures/FlowCBR0.png Graphic file (type png) | |
<use ./Figures/FlowCBR0.png> | 1631 | 1631 | <use ./Figures/FlowCBR0.png> | |
Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 41. | 1632 | 1632 | Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 41. | |
(pdftex.def) Requested size: 222.23195pt x 396.8858pt. | 1633 | 1633 | (pdftex.def) Requested size: 222.23195pt x 396.8858pt. | |
[54 <./Figures/FlowCBR0.png>] | 1634 | 1634 | [54 <./Figures/FlowCBR0.png>] | |
<./Figures/Stacking1.png, id=1084, 743.77875pt x 414.54875pt> | 1635 | 1635 | <./Figures/Stacking1.png, id=1084, 743.77875pt x 414.54875pt> | |
File: ./Figures/Stacking1.png Graphic file (type png) | 1636 | 1636 | File: ./Figures/Stacking1.png Graphic file (type png) | |
<use ./Figures/Stacking1.png> | 1637 | 1637 | <use ./Figures/Stacking1.png> | |
Package pdftex.def Info: ./Figures/Stacking1.png used on input line 80. | 1638 | 1638 | Package pdftex.def Info: ./Figures/Stacking1.png used on input line 80. | |
(pdftex.def) Requested size: 427.43153pt x 238.23717pt. | 1639 | 1639 | (pdftex.def) Requested size: 427.43153pt x 238.23717pt. | |
[55] | 1640 | 1640 | [55] | |
<./Figures/SolRep.png, id=1095, 277.035pt x 84.315pt> | 1641 | 1641 | <./Figures/SolRep.png, id=1095, 277.035pt x 84.315pt> | |
File: ./Figures/SolRep.png Graphic file (type png) | 1642 | 1642 | File: ./Figures/SolRep.png Graphic file (type png) | |
<use ./Figures/SolRep.png> | 1643 | 1643 | <use ./Figures/SolRep.png> | |
Package pdftex.def Info: ./Figures/SolRep.png used on input line 94. | 1644 | 1644 | Package pdftex.def Info: ./Figures/SolRep.png used on input line 94. | |
(pdftex.def) Requested size: 277.03432pt x 84.31477pt. | 1645 | 1645 | (pdftex.def) Requested size: 277.03432pt x 84.31477pt. | |
<./Figures/AutomaticS.png, id=1096, 688.5725pt x 548.0475pt> | 1646 | 1646 | <./Figures/AutomaticS.png, id=1096, 688.5725pt x 548.0475pt> | |
File: ./Figures/AutomaticS.png Graphic file (type png) | 1647 | 1647 | File: ./Figures/AutomaticS.png Graphic file (type png) | |
<use ./Figures/AutomaticS.png> | 1648 | 1648 | <use ./Figures/AutomaticS.png> | |
Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 103. | 1649 | 1649 | Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 103. | |
(pdftex.def) Requested size: 427.43153pt x 340.20406pt. | 1650 | 1650 | (pdftex.def) Requested size: 427.43153pt x 340.20406pt. | |
1651 | 1651 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1652 | 1652 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1653 | 1653 | |||
[56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic | 1654 | 1654 | [56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic | |
S.png>] | 1655 | 1655 | S.png>] | |
[58] | 1656 | 1656 | [58] | |
<./Figures/Stacking2.png, id=1130, 743.77875pt x 414.54875pt> | 1657 | 1657 | <./Figures/Stacking2.png, id=1130, 743.77875pt x 414.54875pt> | |
File: ./Figures/Stacking2.png Graphic file (type png) | 1658 | 1658 | File: ./Figures/Stacking2.png Graphic file (type png) | |
<use ./Figures/Stacking2.png> | 1659 | 1659 | <use ./Figures/Stacking2.png> | |
Package pdftex.def Info: ./Figures/Stacking2.png used on input line 188. | 1660 | 1660 | Package pdftex.def Info: ./Figures/Stacking2.png used on input line 188. | |
(pdftex.def) Requested size: 427.43153pt x 238.23717pt. | 1661 | 1661 | (pdftex.def) Requested size: 427.43153pt x 238.23717pt. | |
1662 | 1662 | |||
Underfull \hbox (badness 10000) in paragraph at lines 199--200 | 1663 | 1663 | Underfull \hbox (badness 10000) in paragraph at lines 199--200 | |
1664 | 1664 | |||
[] | 1665 | 1665 | [] | |
1666 | 1666 | |||
[59 <./Figures/Stacking2.png>] | 1667 | 1667 | [59 <./Figures/Stacking2.png>] | |
<Figures/FW.png, id=1145, 456.70625pt x 342.27875pt> | 1668 | 1668 | <Figures/FW.png, id=1145, 456.70625pt x 342.27875pt> | |
File: Figures/FW.png Graphic file (type png) | 1669 | 1669 | File: Figures/FW.png Graphic file (type png) | |
<use Figures/FW.png> | 1670 | 1670 | <use Figures/FW.png> | |
Package pdftex.def Info: Figures/FW.png used on input line 213. | 1671 | 1671 | Package pdftex.def Info: Figures/FW.png used on input line 213. | |
(pdftex.def) Requested size: 427.43153pt x 320.34758pt. | 1672 | 1672 | (pdftex.def) Requested size: 427.43153pt x 320.34758pt. | |
[60 <./Figures/FW.png>] [61] | 1673 | 1673 | [60 <./Figures/FW.png>] [61] | |
<./Figures/boxplot.png, id=1167, 1994.45125pt x 959.585pt> | 1674 | 1674 | <./Figures/boxplot.png, id=1167, 1994.45125pt x 959.585pt> | |
File: ./Figures/boxplot.png Graphic file (type png) | 1675 | 1675 | File: ./Figures/boxplot.png Graphic file (type png) | |
<use ./Figures/boxplot.png> | 1676 | 1676 | <use ./Figures/boxplot.png> | |
Package pdftex.def Info: ./Figures/boxplot.png used on input line 318. | 1677 | 1677 | Package pdftex.def Info: ./Figures/boxplot.png used on input line 318. | |
(pdftex.def) Requested size: 427.43153pt x 205.64786pt. | 1678 | 1678 | (pdftex.def) Requested size: 427.43153pt x 205.64786pt. | |
[62] | 1679 | 1679 | [62] | |
Underfull \hbox (badness 10000) in paragraph at lines 337--338 | 1680 | 1680 | Underfull \hbox (badness 10000) in paragraph at lines 337--338 | |
1681 | 1681 | |||
[] | 1682 | 1682 | [] | |
1683 | 1683 | |||
1684 | 1684 | |||
Underfull \hbox (badness 2564) in paragraph at lines 339--339 | 1685 | 1685 | Underfull \hbox (badness 2564) in paragraph at lines 339--339 | |
[][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tèmes multi- | 1686 | 1686 | [][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tèmes multi- | |
[] | 1687 | 1687 | [] | |
1688 | 1688 | |||
1689 | 1689 | |||
Overfull \hbox (5.60397pt too wide) has occurred while \output is active | 1690 | 1690 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | 1691 | 1691 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | |
S ESCBR \T1/phv/m/n/10.95 63 | 1692 | 1692 | S ESCBR \T1/phv/m/n/10.95 63 | |
[] | 1693 | 1693 | [] | |
1694 | 1694 | |||
[63 <./Figures/boxplot.png>] | 1695 | 1695 | [63 <./Figures/boxplot.png>] | |
<Figures/NCBR.png, id=1178, 653.44125pt x 445.665pt> | 1696 | 1696 | <Figures/NCBR.png, id=1178, 653.44125pt x 445.665pt> | |
File: Figures/NCBR.png Graphic file (type png) | 1697 | 1697 | File: Figures/NCBR.png Graphic file (type png) | |
<use Figures/NCBR.png> | 1698 | 1698 | <use Figures/NCBR.png> | |
Package pdftex.def Info: Figures/NCBR.png used on input line 349. | 1699 | 1699 | Package pdftex.def Info: Figures/NCBR.png used on input line 349. | |
(pdftex.def) Requested size: 427.43153pt x 291.5149pt. | 1700 | 1700 | (pdftex.def) Requested size: 427.43153pt x 291.5149pt. | |
[64 <./Figures/NCBR.png>] | 1701 | 1701 | [64 <./Figures/NCBR.png>] | |
<Figures/FlowCBR.png, id=1188, 450.68375pt x 822.07124pt> | 1702 | 1702 | <Figures/FlowCBR.png, id=1188, 450.68375pt x 822.07124pt> | |
File: Figures/FlowCBR.png Graphic file (type png) | 1703 | 1703 | File: Figures/FlowCBR.png Graphic file (type png) | |
<use Figures/FlowCBR.png> | 1704 | 1704 | <use Figures/FlowCBR.png> | |
Package pdftex.def Info: Figures/FlowCBR.png used on input line 378. | 1705 | 1705 | Package pdftex.def Info: Figures/FlowCBR.png used on input line 378. | |
(pdftex.def) Requested size: 270.41232pt x 493.24655pt. | 1706 | 1706 | (pdftex.def) Requested size: 270.41232pt x 493.24655pt. | |
1707 | 1707 | |||
Underfull \hbox (badness 1107) in paragraph at lines 411--412 | 1708 | 1708 | Underfull \hbox (badness 1107) in paragraph at lines 411--412 | |
[]\T1/phv/m/n/10.95 Cette sec-tion pré-sente de ma-nière plus dé-taillée les co | 1709 | 1709 | []\T1/phv/m/n/10.95 Cette sec-tion pré-sente de ma-nière plus dé-taillée les co | |
m-por-te-ments des agents | 1710 | 1710 | m-por-te-ments des agents | |
[] | 1711 | 1711 | [] | |
1712 | 1712 | |||
1713 | 1713 | |||
Overfull \hbox (5.60397pt too wide) has occurred while \output is active | 1714 | 1714 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | 1715 | 1715 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | |
S ESCBR \T1/phv/m/n/10.95 65 | 1716 | 1716 | S ESCBR \T1/phv/m/n/10.95 65 | |
[] | 1717 | 1717 | [] | |
1718 | 1718 | |||
[65] | 1719 | 1719 | [65] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1720 | 1720 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1721 | 1721 | |||
[66 <./Figures/FlowCBR.png>] | 1722 | 1722 | [66 <./Figures/FlowCBR.png>] | |
<Figures/agent.png, id=1204, 352.31625pt x 402.50375pt> | 1723 | 1723 | <Figures/agent.png, id=1204, 352.31625pt x 402.50375pt> | |
File: Figures/agent.png Graphic file (type png) | 1724 | 1724 | File: Figures/agent.png Graphic file (type png) | |
<use Figures/agent.png> | 1725 | 1725 | <use Figures/agent.png> | |
Package pdftex.def Info: Figures/agent.png used on input line 452. | 1726 | 1726 | Package pdftex.def Info: Figures/agent.png used on input line 452. | |
(pdftex.def) Requested size: 246.61969pt x 281.7507pt. | 1727 | 1727 | (pdftex.def) Requested size: 246.61969pt x 281.7507pt. | |
1728 | 1728 | |||
Overfull \hbox (5.60397pt too wide) has occurred while \output is active | 1729 | 1729 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | 1730 | 1730 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | |
S ESCBR \T1/phv/m/n/10.95 67 | 1731 | 1731 | S ESCBR \T1/phv/m/n/10.95 67 | |
[] | 1732 | 1732 | [] | |
1733 | 1733 | |||
[67] | 1734 | 1734 | [67] | |
<Figures/BayesianEvolution.png, id=1218, 626.34pt x 402.50375pt> | 1735 | 1735 | <Figures/BayesianEvolution.png, id=1218, 626.34pt x 402.50375pt> | |
File: Figures/BayesianEvolution.png Graphic file (type png) | 1736 | 1736 | File: Figures/BayesianEvolution.png Graphic file (type png) | |
<use Figures/BayesianEvolution.png> | 1737 | 1737 | <use Figures/BayesianEvolution.png> | |
Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 465. | 1738 | 1738 | Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 465. | |
1739 | 1739 | |||
(pdftex.def) Requested size: 313.16922pt x 201.25137pt. | 1740 | 1740 | (pdftex.def) Requested size: 313.16922pt x 201.25137pt. | |
[68 <./Figures/agent.png>] | 1741 | 1741 | [68 <./Figures/agent.png>] | |
Underfull \hbox (badness 10000) in paragraph at lines 506--506 | 1742 | 1742 | Underfull \hbox (badness 10000) in paragraph at lines 506--506 | |
[]|\T1/phv/m/n/8 Input. | 1743 | 1743 | []|\T1/phv/m/n/8 Input. | |
[] | 1744 | 1744 | [] | |
1745 | 1745 | |||
1746 | 1746 | |||
Underfull \hbox (badness 10000) in paragraph at lines 506--507 | 1747 | 1747 | Underfull \hbox (badness 10000) in paragraph at lines 506--507 | |
[]|\T1/phv/m/n/8 Output | 1748 | 1748 | []|\T1/phv/m/n/8 Output | |
[] | 1749 | 1749 | [] | |
1750 | 1750 | |||
<Figures/boxplot2.png, id=1233, 1615.03375pt x 835.12pt> | 1751 | 1751 | <Figures/boxplot2.png, id=1233, 1615.03375pt x 835.12pt> | |
File: Figures/boxplot2.png Graphic file (type png) | 1752 | 1752 | File: Figures/boxplot2.png Graphic file (type png) | |
<use Figures/boxplot2.png> | 1753 | 1753 | <use Figures/boxplot2.png> | |
Package pdftex.def Info: Figures/boxplot2.png used on input line 638. | 1754 | 1754 | Package pdftex.def Info: Figures/boxplot2.png used on input line 638. | |
(pdftex.def) Requested size: 427.43153pt x 221.01265pt. | 1755 | 1755 | (pdftex.def) Requested size: 427.43153pt x 221.01265pt. | |
1756 | 1756 | |||
Overfull \hbox (5.60397pt too wide) has occurred while \output is active | 1757 | 1757 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | 1758 | 1758 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | |
S ESCBR \T1/phv/m/n/10.95 69 | 1759 | 1759 | S ESCBR \T1/phv/m/n/10.95 69 | |
[] | 1760 | 1760 | [] | |
1761 | 1761 | |||
[69 <./Figures/BayesianEvolution.png>] | 1762 | 1762 | [69 <./Figures/BayesianEvolution.png>] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1763 | 1763 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1764 | 1764 | |||
[70] | 1765 | 1765 | [70] | |
1766 | 1766 | |||
LaTeX Warning: Text page 71 contains only floats. | 1767 | 1767 | LaTeX Warning: Text page 71 contains only floats. | |
1768 | 1768 | |||
1769 | 1769 | |||
Overfull \hbox (5.60397pt too wide) has occurred while \output is active | 1770 | 1770 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | 1771 | 1771 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | |
S ESCBR \T1/phv/m/n/10.95 71 | 1772 | 1772 | S ESCBR \T1/phv/m/n/10.95 71 | |
[] | 1773 | 1773 | [] | |
1774 | 1774 | |||
[71 <./Figures/boxplot2.png>]) [72] | 1775 | 1775 | [71 <./Figures/boxplot2.png>]) [72] | |
\openout2 = `./chapters/TS.aux'. | 1776 | 1776 | \openout2 = `./chapters/TS.aux'. | |
1777 | 1777 | |||
(./chapters/TS.tex | 1778 | 1778 | (./chapters/TS.tex | |
Chapitre 7. | 1779 | 1779 | Chapitre 7. | |
1780 | 1780 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1781 | 1781 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1782 | 1782 | |||
[73 | 1783 | 1783 | [73 | |
1784 | 1784 | |||
1785 | 1785 | |||
1786 | 1786 | |||
1787 | 1787 | |||
] | 1788 | 1788 | ] | |
Overfull \hbox (19.02232pt too wide) in paragraph at lines 37--63 | 1789 | 1789 | Overfull \hbox (19.02232pt too wide) in paragraph at lines 33--59 | |
[][] | 1790 | 1790 | [][] | |
[] | 1791 | 1791 | [] | |
1792 | 1792 | |||
[74] | 1793 | 1793 | ||
1794 | Underfull \vbox (badness 1226) has occurred while \output is active [] | |||
1795 | ||||
1796 | [74] | |||
Package hyperref Info: bookmark level for unknown algorithm defaults to 0 on in | 1794 | 1797 | Package hyperref Info: bookmark level for unknown algorithm defaults to 0 on in | |
put line 101. | 1795 | 1798 | put line 97. | |
[75] | 1796 | 1799 | ||
1800 | [75] | |||
<./Figures/dataset.png, id=1293, 15.13687pt x 8.08058pt> | 1797 | 1801 | <./Figures/dataset.png, id=1293, 15.13687pt x 8.08058pt> | |
File: ./Figures/dataset.png Graphic file (type png) | 1798 | 1802 | File: ./Figures/dataset.png Graphic file (type png) | |
<use ./Figures/dataset.png> | 1799 | 1803 | <use ./Figures/dataset.png> | |
Package pdftex.def Info: ./Figures/dataset.png used on input line 122. | 1800 | 1804 | Package pdftex.def Info: ./Figures/dataset.png used on input line 118. | |
(pdftex.def) Requested size: 427.43153pt x 228.35583pt. | 1801 | 1805 | (pdftex.def) Requested size: 427.43153pt x 228.35583pt. | |
[76] | 1802 | 1806 | [76] | |
<./Figures/comp2.png, id=1305, 14.98512pt x 7.33133pt> | 1803 | 1807 | <./Figures/comp2.png, id=1305, 14.98512pt x 7.33133pt> | |
File: ./Figures/comp2.png Graphic file (type png) | 1804 | 1808 | File: ./Figures/comp2.png Graphic file (type png) | |
<use ./Figures/comp2.png> | 1805 | 1809 | <use ./Figures/comp2.png> | |
Package pdftex.def Info: ./Figures/comp2.png used on input line 158. | 1806 | 1810 | Package pdftex.def Info: ./Figures/comp2.png used on input line 154. | |
(pdftex.def) Requested size: 427.43153pt x 209.34462pt. | 1807 | 1811 | (pdftex.def) Requested size: 427.43153pt x 209.34462pt. | |
<./Figures/comp3.png, id=1307, 14.98512pt x 7.33133pt> | 1808 | 1812 | <./Figures/comp3.png, id=1307, 14.98512pt x 7.33133pt> | |
File: ./Figures/comp3.png Graphic file (type png) | 1809 | 1813 | File: ./Figures/comp3.png Graphic file (type png) | |
<use ./Figures/comp3.png> | 1810 | 1814 | <use ./Figures/comp3.png> | |
Package pdftex.def Info: ./Figures/comp3.png used on input line 168. | 1811 | 1815 | Package pdftex.def Info: ./Figures/comp3.png used on input line 164. | |
(pdftex.def) Requested size: 427.43153pt x 209.34462pt. | 1812 | 1816 | (pdftex.def) Requested size: 427.43153pt x 209.34462pt. | |
1813 | 1817 | |||
Underfull \vbox (badness 1132) has occurred while \output is active [] | 1814 | 1818 | Underfull \vbox (badness 1132) has occurred while \output is active [] | |
1815 | 1819 |
main.pdf
View file @
d5c40fb
main.synctex.gz
View file @
d5c40fb