Commit 6769ad655edb23e21d909fc49c0f86d633c4973f

Authored by dsotofor
1 parent 43da41ce58
Exists in main

version correct to chapter 5 and corrections to do in chapter 6

Showing 7 changed files with 53 additions and 82 deletions Inline Diff

chapters/Conclusions.tex View file @ 6769ad6
\chapter{Conclusions et Perspectives} 1 1 \chapter{Conclusions et Perspectives}
2 2
\section{Conclusion générale} 3 3 \section{Conclusion générale}
4 4
Étant donné l'importance des modules de recommandation dans le EIAH pour améliorer le système, le faire plus dynamique et aider l'apprenant dans son processus d'apprentissage et acquisition de la connaissance, il est nécessaire de trouver des stratégies et algorithmes adaptés et intégrables qui permettent de exploiter et analyser toute l'information récolté pour le système sur l'évolution de l'apprenant et ses possibles lacunes ainsi comme des algorithmes capables de proposer des alternatives de parcours dynamiques et diverses pour chaque cas en visant la réussite prédéfinie par l'apprenant et le professeur. 5 5 Étant donné l'importance des modules de recommandation dans les EIAH pour améliorer le système, le faire plus dynamique et aider l'apprenant dans son processus d'apprentissage et acquisition de la connaissance, il est nécessaire de trouver des stratégies et algorithmes adaptés et intégrables qui permettent d'exploiter et d'analyser toute l'information récolté pour le système sur l'évolution de l'apprenant et ses possibles lacunes ainsi comme des algorithmes capables de proposer des alternatives de parcours dynamiques et diverses pour chaque cas en visant la réussite prédéfinie par l'apprenant et le professeur.
6 6
C'est ainsi que les outils de IA et apprentissage automatique se trouvent au centre des possibles solutions dans cette problématique, car ils permettent de travailler avec des données structurées selon un contexte déterminé, explorer et exploiter les espaces ou sont définis ces données, analyser et extraire l'information utile pour connaître les comportements, tendances, . 7 7 C'est ainsi que les outils de IA et apprentissage automatique se trouvent au centre des possibles solutions dans cette problématique, car ils permettent de travailler avec des données structurées selon un contexte déterminé, explorer et exploiter les espaces ou sont définis ces données, analyser et extraire l'information utile pour connaître les comportements, tendances et faiblesses des apprenants.
8 8
Les contributions réalisées dans ce travail ont permis d'améliorer l'environnement informatique d'apprentissage humain AI-VT, en proposant des recommandations dynamiques et plus adaptées à chaque apprenant. 9 9 Les contributions réalisées dans ce travail ont permis d'améliorer l'environnement informatique d'apprentissage humain AI-VT, en proposant des recommandations dynamiques et plus adaptées à chaque apprenant.
10 10
\section{Perspectives} 11 11 \section{Perspectives}
12 12
Le système devrait être testé avec des données réelles dans un environnement standard réel afin d'obtenir des informations sur certains groupes caractéristiques spécifiques d'étudiants et de comparer les résultats obtenus avec les résultats théoriques, consolidant ainsi les preuves comportementales et l'efficacité du modèle proposé. 13 13 Le système devrait être testé avec des données réelles dans un environnement standard réel afin d'obtenir des informations sur certains groupes caractéristiques spécifiques d'étudiants et de comparer les résultats obtenus avec les résultats théoriques, consolidant ainsi les preuves comportementales et l'efficacité du modèle proposé.
14 14
Comme travail futur, il est proposé d'intégrer dans le modèle d'autres variables obtenues avec des algorithmes d'intelligence artificielle complémentaires tels que l'analyse vidéo, l'analyse audio et même l'analyse des données obtenues des apprenants tout au long du processus d'apprentissage. Analyser le modèle avec différentes configurations paramétriques, afin de déterminer quelles sont les configurations les plus appropriées et comment chaque variable influence le comportement global des algorithmes exécutés et le résultat final. 15 15 Comme travail futur, il est proposé d'intégrer dans le modèle d'autres variables obtenues avec des algorithmes d'intelligence artificielle complémentaires tels que l'analyse vidéo, l'analyse audio et même l'analyse des données obtenues des apprenants tout au long du processus d'apprentissage. Analyser le modèle avec différentes configurations paramétriques, afin de déterminer quelles sont les configurations les plus appropriées et comment chaque variable influence le comportement global des algorithmes exécutés et le résultat final.
16 16
Comme perspectives de ce travail peuvent être envisagées : 17 17 Comme perspectives de ce travail peuvent être envisagées :
\begin{itemize} 18 18 \begin{itemize}
\item L'étude du modèle de raisonnement à partir de cas en profondeur avec l'analyse de changement des paramètres. 19 19 \item L'étude du modèle de raisonnement à partir de cas en profondeur avec l'analyse de changement des paramètres.
\item Analyser le comportement de l'algorithme avec des metriques de distance différentes de la distance Euclidiene. 20 20 \item Analyser le comportement de l'algorithme avec des metriques de distance différentes de la distance Euclidiene.
\item Analyser la modification de la fonction de optimisation associé au choix de la meilleure solution dans les solutions générées par le second stacking processus. 21 21 \item Analyser la modification de la fonction de optimisation associé au choix de la meilleure solution dans les solutions générées par le second stacking processus.
\item Détérminer le point de rupture pour différents scénarios. 22 22 \item Détérminer le point de rupture pour différents scénarios.
\end{itemize} 23 23 \end{itemize}
24 24
Pour l'échantillonage de Thompson les perspectives ouvertes par ce travail sont : 25 25 Pour l'échantillonage de Thompson les perspectives ouvertes par ce travail sont :
chapters/TS.aux View file @ 6769ad6
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{Soto2} 3 3 \citation{Soto2}
\citation{MUANGPRATHUB2020e05227} 4 4 \citation{MUANGPRATHUB2020e05227}
\citation{9870279} 5 5 \citation{9870279}
\@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 7 7 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 8 8 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent } 9 9 \@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent }
\citation{Liu2023} 10 10 \citation{Liu2023}
\@writefile{toc}{\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}\protected@file@percent } 11 11 \@writefile{toc}{\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Modèle Proposé}{74}{subsection.7.2.1}\protected@file@percent } 12 12 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Modèle Proposé}{74}{subsection.7.2.1}\protected@file@percent }
\newlabel{eqBeta}{{7.1}{75}{Modèle Proposé}{equation.7.2.1}{}} 13 13 \newlabel{eqBeta}{{7.1}{75}{Modèle Proposé}{equation.7.2.1}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.1}{\ignorespaces Variables et paramètres du modèle proposé\relax }}{75}{table.caption.45}\protected@file@percent } 14 14 \@writefile{lot}{\contentsline {table}{\numberline {7.1}{\ignorespaces Variables et paramètres du modèle proposé\relax }}{75}{table.caption.45}\protected@file@percent }
\newlabel{tabPar}{{7.1}{75}{Variables et paramètres du modèle proposé\relax }{table.caption.45}{}} 15 15 \newlabel{tabPar}{{7.1}{75}{Variables et paramètres du modèle proposé\relax }{table.caption.45}{}}
\citation{Arthurs} 16 16 \citation{Arthurs}
\newlabel{eqsMg}{{7.2}{76}{Modèle Proposé}{equation.7.2.2}{}} 17 17 \newlabel{eqsMg}{{7.2}{76}{Modèle Proposé}{equation.7.2.2}{}}
\newlabel{eqgtc}{{7.3}{76}{Modèle Proposé}{equation.7.2.3}{}} 18 18 \newlabel{eqgtc}{{7.3}{76}{Modèle Proposé}{equation.7.2.3}{}}
\newlabel{eqltc}{{7.4}{76}{Modèle Proposé}{equation.7.2.4}{}} 19 19 \newlabel{eqltc}{{7.4}{76}{Modèle Proposé}{equation.7.2.4}{}}
\newlabel{eqBRnd}{{7.5}{76}{Modèle Proposé}{equation.7.2.5}{}} 20 20 \newlabel{eqBRnd}{{7.5}{76}{Modèle Proposé}{equation.7.2.5}{}}
\newlabel{eqsncl}{{7.6}{76}{Modèle Proposé}{equation.7.2.6}{}} 21 21 \newlabel{eqsncl}{{7.6}{76}{Modèle Proposé}{equation.7.2.6}{}}
\newlabel{eqsGT}{{7.7}{76}{Modèle Proposé}{equation.7.2.7}{}} 22 22 \newlabel{eqsGT}{{7.7}{76}{Modèle Proposé}{equation.7.2.7}{}}
\@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Stochastic Recommendation Model\relax }}{76}{algorithm.1}\protected@file@percent } 23 23 \@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Stochastic Recommendation Model\relax }}{76}{algorithm.1}\protected@file@percent }
\newlabel{alg2}{{1}{76}{Stochastic Recommendation Model\relax }{algorithm.1}{}} 24 24 \newlabel{alg2}{{1}{76}{Stochastic Recommendation Model\relax }{algorithm.1}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent } 25 25 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Boîte à moustaches pour la base de données générée\relax }}{77}{figure.caption.46}\protected@file@percent } 26 26 \@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Boîte à moustaches pour la base de données générée\relax }}{77}{figure.caption.46}\protected@file@percent }
\newlabel{figData}{{7.1}{77}{Boîte à moustaches pour la base de données générée\relax }{figure.caption.46}{}} 27 27 \newlabel{figData}{{7.1}{77}{Boîte à moustaches pour la base de données générée\relax }{figure.caption.46}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des variables utilisées dans la base de données evaluée\relax }}{77}{table.caption.47}\protected@file@percent } 28 28 \@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des variables utilisées dans la base de données evaluée\relax }}{77}{table.caption.47}\protected@file@percent }
\newlabel{tabDataSet}{{7.2}{77}{Description des variables utilisées dans la base de données evaluée\relax }{table.caption.47}{}} 29 29 \newlabel{tabDataSet}{{7.2}{77}{Description des variables utilisées dans la base de données evaluée\relax }{table.caption.47}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios evalués\relax }}{77}{table.caption.48}\protected@file@percent } 30 30 \@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios evalués\relax }}{77}{table.caption.48}\protected@file@percent }
\newlabel{tabgm1}{{7.3}{77}{Valeurs des paramètres pour les scénarios evalués\relax }{table.caption.48}{}} 31 31 \newlabel{tabgm1}{{7.3}{77}{Valeurs des paramètres pour les scénarios evalués\relax }{table.caption.48}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.2}{\ignorespaces Résultats pour le premier test\relax }}{78}{figure.caption.49}\protected@file@percent } 32 32 \@writefile{lof}{\contentsline {figure}{\numberline {7.2}{\ignorespaces Résultats pour le premier test\relax }}{78}{figure.caption.49}\protected@file@percent }
\newlabel{figCmp2}{{7.2}{78}{Résultats pour le premier test\relax }{figure.caption.49}{}} 33 33 \newlabel{figCmp2}{{7.2}{78}{Résultats pour le premier test\relax }{figure.caption.49}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.3}{\ignorespaces Résultats pour le deuxième Test\relax }}{79}{figure.caption.50}\protected@file@percent } 34 34 \@writefile{lof}{\contentsline {figure}{\numberline {7.3}{\ignorespaces Résultats pour le deuxième Test\relax }}{79}{figure.caption.50}\protected@file@percent }
\newlabel{figCmp3}{{7.3}{79}{Résultats pour le deuxième Test\relax }{figure.caption.50}{}} 35 35 \newlabel{figCmp3}{{7.3}{79}{Résultats pour le deuxième Test\relax }{figure.caption.50}{}}
\newlabel{eqMetric1}{{7.8}{79}{Résultats}{equation.7.2.8}{}} 36 36 \newlabel{eqMetric1}{{7.8}{79}{Résultats}{equation.7.2.8}{}}
\newlabel{eqMetric2}{{7.9}{79}{Résultats}{equation.7.2.9}{}} 37 37 \newlabel{eqMetric2}{{7.9}{79}{Résultats}{equation.7.2.9}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.4}{\ignorespaces Résultats pour le troisième Test\relax }}{80}{figure.caption.51}\protected@file@percent } 38 38 \@writefile{lof}{\contentsline {figure}{\numberline {7.4}{\ignorespaces Résultats pour le troisième Test\relax }}{80}{figure.caption.51}\protected@file@percent }
\newlabel{figCmp4}{{7.4}{80}{Résultats pour le troisième Test\relax }{figure.caption.51}{}} 39 39 \newlabel{figCmp4}{{7.4}{80}{Résultats pour le troisième Test\relax }{figure.caption.51}{}}
\newlabel{eqXc}{{7.10}{80}{Résultats}{equation.7.2.10}{}} 40 40 \newlabel{eqXc}{{7.10}{80}{Résultats}{equation.7.2.10}{}}
\newlabel{eqYc}{{7.11}{80}{Résultats}{equation.7.2.11}{}} 41 41 \newlabel{eqYc}{{7.11}{80}{Résultats}{equation.7.2.11}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{80}{table.caption.53}\protected@file@percent } 42 42 \@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{80}{table.caption.53}\protected@file@percent }
\newlabel{tabRM}{{7.4}{80}{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.53}{}} 43 43 \newlabel{tabRM}{{7.4}{80}{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.53}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Métrique pour le parcours standard\relax }}{81}{figure.caption.52}\protected@file@percent } 44 44 \@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Métrique pour le parcours standard\relax }}{81}{figure.caption.52}\protected@file@percent }
\newlabel{figMetric}{{7.5}{81}{Métrique pour le parcours standard\relax }{figure.caption.52}{}} 45 45 \newlabel{figMetric}{{7.5}{81}{Métrique pour le parcours standard\relax }{figure.caption.52}{}}
\newlabel{eqMetricS1}{{7.12}{81}{Résultats}{equation.7.2.12}{}} 46 46 \newlabel{eqMetricS1}{{7.12}{81}{Résultats}{equation.7.2.12}{}}
\newlabel{eqMetricS2}{{7.13}{81}{Résultats}{equation.7.2.13}{}} 47 47 \newlabel{eqMetricS2}{{7.13}{81}{Résultats}{equation.7.2.13}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }}{82}{figure.caption.54}\protected@file@percent } 48 48 \@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }}{82}{figure.caption.54}\protected@file@percent }
\newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }{figure.caption.54}{}} 49 49 \newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }{figure.caption.54}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.55}\protected@file@percent } 50 50 \@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.55}\protected@file@percent }
\newlabel{tabRM2}{{7.5}{82}{Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.55}{}} 51 51 \newlabel{tabRM2}{{7.5}{82}{Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.55}{}}
\newlabel{eqCS}{{7.14}{82}{Résultats}{equation.7.2.14}{}} 52 52 \newlabel{eqCS}{{7.14}{82}{Résultats}{equation.7.2.14}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.56}\protected@file@percent } 53 53 \@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.56}\protected@file@percent }
\newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.56}{}} 54 54 \newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.56}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{83}{subsection.7.2.3}\protected@file@percent } 55 55 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{83}{subsection.7.2.3}\protected@file@percent }
\citation{jmse11050890} 56 56 \citation{jmse11050890}
\citation{ZHANG2018189} 57 57 \citation{ZHANG2018189}
\citation{NEURIPS2023_9d8cf124} 58 58 \citation{NEURIPS2023_9d8cf124}
\citation{pmlr-v238-ou24a} 59 59 \citation{pmlr-v238-ou24a}
\citation{math12111758} 60 60 \citation{math12111758}
\citation{NGUYEN2024111566} 61 61 \citation{NGUYEN2024111566}
\@writefile{toc}{\contentsline {section}{\numberline {7.3}ESCBR-SMA et Échantillonnage de Thompson}{84}{section.7.3}\protected@file@percent } 62 62 \@writefile{toc}{\contentsline {section}{\numberline {7.3}ESCBR-SMA et Échantillonnage de Thompson}{84}{section.7.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}\protected@file@percent } 63 63 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}\protected@file@percent }
\newlabel{eqbkt1}{{7.15}{84}{Concepts Associés}{equation.7.3.15}{}} 64 64 \newlabel{eqbkt1}{{7.15}{84}{Concepts Associés}{equation.7.3.15}{}}
\newlabel{eqbkt2}{{7.16}{84}{Concepts Associés}{equation.7.3.16}{}} 65 65 \newlabel{eqbkt2}{{7.16}{84}{Concepts Associés}{equation.7.3.16}{}}
\newlabel{eqbkt3}{{7.17}{84}{Concepts Associés}{equation.7.3.17}{}} 66 66 \newlabel{eqbkt3}{{7.17}{84}{Concepts Associés}{equation.7.3.17}{}}
\newlabel{fbeta}{{7.18}{85}{Concepts Associés}{equation.7.3.18}{}} 67 67 \newlabel{fbeta}{{7.18}{85}{Concepts Associés}{equation.7.3.18}{}}
\newlabel{eqGamma1}{{7.19}{85}{Concepts Associés}{equation.7.3.19}{}} 68 68 \newlabel{eqGamma1}{{7.19}{85}{Concepts Associés}{equation.7.3.19}{}}
\newlabel{f2beta}{{7.20}{85}{Concepts Associés}{equation.7.3.20}{}} 69 69 \newlabel{f2beta}{{7.20}{85}{Concepts Associés}{equation.7.3.20}{}}
\newlabel{f3Beta}{{7.21}{85}{Concepts Associés}{equation.7.3.21}{}} 70 70 \newlabel{f3Beta}{{7.21}{85}{Concepts Associés}{equation.7.3.21}{}}
\newlabel{eqJac}{{7.22}{85}{Concepts Associés}{equation.7.3.22}{}} 71 71 \newlabel{eqJac}{{7.22}{85}{Concepts Associés}{equation.7.3.22}{}}
\newlabel{f4Beta}{{7.23}{85}{Concepts Associés}{equation.7.3.23}{}} 72 72 \newlabel{f4Beta}{{7.23}{85}{Concepts Associés}{equation.7.3.23}{}}
\newlabel{f5Beta}{{7.24}{85}{Concepts Associés}{equation.7.3.24}{}} 73 73 \newlabel{f5Beta}{{7.24}{85}{Concepts Associés}{equation.7.3.24}{}}
\newlabel{f6Beta}{{7.25}{85}{Concepts Associés}{equation.7.3.25}{}} 74 74 \newlabel{f6Beta}{{7.25}{85}{Concepts Associés}{equation.7.3.25}{}}
\citation{Li_2024} 75 75 \citation{Li_2024}
\citation{Kim2024} 76 76 \citation{Kim2024}
\citation{10.1007/978-3-031-63646-2_11} 77 77 \citation{10.1007/978-3-031-63646-2_11}
\newlabel{f7Beta}{{7.26}{86}{Concepts Associés}{equation.7.3.26}{}} 78 78 \newlabel{f7Beta}{{7.26}{86}{Concepts Associés}{equation.7.3.26}{}}
\newlabel{dkl}{{7.27}{86}{Concepts Associés}{equation.7.3.27}{}} 79 79 \newlabel{dkl}{{7.27}{86}{Concepts Associés}{equation.7.3.27}{}}
\newlabel{djs}{{7.28}{86}{Concepts Associés}{equation.7.3.28}{}} 80 80 \newlabel{djs}{{7.28}{86}{Concepts Associés}{equation.7.3.28}{}}
\newlabel{djs2}{{7.29}{86}{Concepts Associés}{equation.7.3.29}{}} 81 81 \newlabel{djs2}{{7.29}{86}{Concepts Associés}{equation.7.3.29}{}}
\citation{10.1145/3578337.3605122} 82 82 \citation{10.1145/3578337.3605122}
\citation{lei2024analysis} 83 83 \citation{lei2024analysis}
\@writefile{lof}{\contentsline {figure}{\numberline {7.7}{\ignorespaces Schéma de l'architecture du modèle proposé\relax }}{87}{figure.caption.57}\protected@file@percent } 84 84 \@writefile{lof}{\contentsline {figure}{\numberline {7.7}{\ignorespaces Schéma de l'architecture du modèle proposé\relax }}{87}{figure.caption.57}\protected@file@percent }
\newlabel{fig:Amodel}{{7.7}{87}{Schéma de l'architecture du modèle proposé\relax }{figure.caption.57}{}} 85 85 \newlabel{fig:Amodel}{{7.7}{87}{Schéma de l'architecture du modèle proposé\relax }{figure.caption.57}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.2}Modèle Proposé}{87}{subsection.7.3.2}\protected@file@percent } 86 86 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.2}Modèle Proposé}{87}{subsection.7.3.2}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {7.7}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées\relax }}{88}{table.caption.58}\protected@file@percent } 87 87 \@writefile{lot}{\contentsline {table}{\numberline {7.7}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées\relax }}{88}{table.caption.58}\protected@file@percent }
\newlabel{tabvp}{{7.7}{88}{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées\relax }{table.caption.58}{}} 88 88 \newlabel{tabvp}{{7.7}{88}{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées\relax }{table.caption.58}{}}
\newlabel{IntEq1_}{{7.30}{88}{Modèle Proposé}{equation.7.3.30}{}} 89 89 \newlabel{IntEq1_}{{7.30}{88}{Modèle Proposé}{equation.7.3.30}{}}
\newlabel{IntEq2_}{{7.31}{88}{Modèle Proposé}{equation.7.3.31}{}} 90 90 \newlabel{IntEq2_}{{7.31}{88}{Modèle Proposé}{equation.7.3.31}{}}
\newlabel{eqMixModels_}{{7.32}{88}{Modèle Proposé}{equation.7.3.32}{}} 91 91 \newlabel{eqMixModels_}{{7.32}{88}{Modèle Proposé}{equation.7.3.32}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}\protected@file@percent } 92
\citation{badier:hal-04092828} 93 92 \citation{badier:hal-04092828}
\citation{doi:10.1137/23M1592420} 94 93 \citation{doi:10.1137/23M1592420}
94 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{89}{subsection.7.3.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.1}Régression dans la base de données des apprenants avec ESCBR-SMA}{89}{subsubsection.7.3.3.1}\protected@file@percent } 95 95 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.1}Régression dans la base de données des apprenants avec ESCBR-SMA}{89}{subsubsection.7.3.3.1}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {7.8}{\ignorespaces Description des scénarios\relax }}{90}{table.caption.59}\protected@file@percent } 96 96 \@writefile{lot}{\contentsline {table}{\numberline {7.8}{\ignorespaces Description des scénarios\relax }}{90}{table.caption.59}\protected@file@percent }
\newlabel{tab:scenarios}{{7.8}{90}{Description des scénarios\relax }{table.caption.59}{}} 97 97 \newlabel{tab:scenarios}{{7.8}{90}{Description des scénarios\relax }{table.caption.59}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.9}{\ignorespaces Liste des algorithmes évalués \relax }}{90}{table.caption.60}\protected@file@percent } 98 98 \@writefile{lot}{\contentsline {table}{\numberline {7.9}{\ignorespaces Liste des algorithmes évalués \relax }}{90}{table.caption.60}\protected@file@percent }
\newlabel{tabAlgs}{{7.9}{90}{Liste des algorithmes évalués \relax }{table.caption.60}{}} 99 99 \newlabel{tabAlgs}{{7.9}{90}{Liste des algorithmes évalués \relax }{table.caption.60}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.10}{\ignorespaces Résultats de la régression pour la base de données des apprenants avec 100 exécutions\relax }}{90}{table.caption.61}\protected@file@percent } 100 100 \@writefile{lot}{\contentsline {table}{\numberline {7.10}{\ignorespaces Résultats de la régression pour la base de données des apprenants avec 100 exécutions\relax }}{90}{table.caption.61}\protected@file@percent }
\newlabel{tab:results}{{7.10}{90}{Résultats de la régression pour la base de données des apprenants avec 100 exécutions\relax }{table.caption.61}{}} 101 101 \newlabel{tab:results}{{7.10}{90}{Résultats de la régression pour la base de données des apprenants avec 100 exécutions\relax }{table.caption.61}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{90}{subsubsection.7.3.3.2}\protected@file@percent } 102 102 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{90}{subsubsection.7.3.3.2}\protected@file@percent }
\newlabel{eqprog1}{{7.33}{91}{Progression des connaissances}{equation.7.3.33}{}} 103 103 \newlabel{eqprog1}{{7.33}{91}{Progression des connaissances}{equation.7.3.33}{}}
\newlabel{eqprog2}{{7.34}{91}{Progression des connaissances}{equation.7.3.34}{}} 104 104 \newlabel{eqprog2}{{7.34}{91}{Progression des connaissances}{equation.7.3.34}{}}
\newlabel{eqVarP}{{7.35}{91}{Progression des connaissances}{equation.7.3.35}{}} 105 105 \newlabel{eqVarP}{{7.35}{91}{Progression des connaissances}{equation.7.3.35}{}}
\newlabel{eqTEK}{{7.36}{91}{Progression des connaissances}{equation.7.3.36}{}} 106 106 \newlabel{eqTEK}{{7.36}{91}{Progression des connaissances}{equation.7.3.36}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Comparaison entre TS et BKT}{91}{subsubsection.7.3.3.3}\protected@file@percent } 107 107 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Comparaison entre TS et BKT}{91}{subsubsection.7.3.3.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }}{92}{figure.caption.62}\protected@file@percent } 108 108 \@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }}{92}{figure.caption.62}\protected@file@percent }
\newlabel{fig:evolution}{{7.8}{92}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }{figure.caption.62}{}} 109 109 \newlabel{fig:evolution}{{7.8}{92}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }{figure.caption.62}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Système de recommandation avec ESCBR-SMA}{92}{subsubsection.7.3.3.4}\protected@file@percent } 110 110 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Système de recommandation avec ESCBR-SMA}{92}{subsubsection.7.3.3.4}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }}{93}{figure.caption.63}\protected@file@percent } 111 111 \@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }}{93}{figure.caption.63}\protected@file@percent }
\newlabel{fig:EvGrades}{{7.9}{93}{Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }{figure.caption.63}{}} 112 112 \newlabel{fig:EvGrades}{{7.9}{93}{Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }{figure.caption.63}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent } 113 113 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent }
\newlabel{eqjs4}{{7.37}{93}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.37}{}} 114 114 \newlabel{eqjs4}{{7.37}{93}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.37}{}}
\newlabel{eqjs5}{{7.38}{93}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.38}{}} 115
\@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }}{94}{figure.caption.64}\protected@file@percent } 116 115 \@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }}{94}{figure.caption.64}\protected@file@percent }
\newlabel{fig:EvCL}{{7.10}{94}{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }{figure.caption.64}{}} 117 116 \newlabel{fig:EvCL}{{7.10}{94}{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }{figure.caption.64}{}}
117 \newlabel{eqjs5}{{7.38}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.38}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{94}{subsection.7.3.4}\protected@file@percent } 118 118 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{94}{subsection.7.3.4}\protected@file@percent }
\citation{10.1145/3578337.3605122} 119 119 \citation{10.1145/3578337.3605122}
\@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, Échantillonnage de Thompson et Processus de Hawkes}{95}{section.7.4}\protected@file@percent } 120 120 \@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, Échantillonnage de Thompson et Processus de Hawkes}{95}{section.7.4}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{95}{subsection.7.4.1}\protected@file@percent } 121 121 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{95}{subsection.7.4.1}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Architecture de modèle proposé avec Hawkes\relax }}{95}{figure.caption.65}\protected@file@percent } 122 122 \newlabel{hp1}{{7.39}{95}{Modèle Proposé}{equation.7.4.39}{}}
\newlabel{fig:Amodel}{{7.11}{95}{Architecture de modèle proposé avec Hawkes\relax }{figure.caption.65}{}} 123 123 \citation{Kuzilek2017}
\@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et les métriques\relax }}{96}{table.caption.66}\protected@file@percent } 124 124 \@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Architecture de modèle proposé avec Hawkes\relax }}{96}{figure.caption.65}\protected@file@percent }
\newlabel{tabvp}{{7.11}{96}{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et les métriques\relax }{table.caption.66}{}} 125 125 \newlabel{fig:Amodel}{{7.11}{96}{Architecture de modèle proposé avec Hawkes\relax }{figure.caption.65}{}}
\newlabel{hp1}{{7.39}{96}{Modèle Proposé}{equation.7.4.39}{}} 126
\newlabel{hp21}{{7.40}{96}{Modèle Proposé}{equation.7.4.40}{}} 127 126 \newlabel{hp21}{{7.40}{96}{Modèle Proposé}{equation.7.4.40}{}}
\newlabel{hp22}{{7.41}{96}{Modèle Proposé}{equation.7.4.41}{}} 128 127 \newlabel{hp22}{{7.41}{96}{Modèle Proposé}{equation.7.4.41}{}}
\newlabel{hp31}{{7.42}{96}{Modèle Proposé}{equation.7.4.42}{}} 129 128 \newlabel{hp31}{{7.42}{96}{Modèle Proposé}{equation.7.4.42}{}}
\newlabel{hpfa}{{7.43}{96}{Modèle Proposé}{equation.7.4.43}{}} 130 129 \newlabel{hpfa}{{7.43}{96}{Modèle Proposé}{equation.7.4.43}{}}
\newlabel{hpfb}{{7.44}{96}{Modèle Proposé}{equation.7.4.44}{}} 131 130 \newlabel{hpfb}{{7.44}{96}{Modèle Proposé}{equation.7.4.44}{}}
\citation{Kuzilek2017} 132 131 \newlabel{eqBetaH}{{7.45}{96}{Modèle Proposé}{equation.7.4.45}{}}
\newlabel{eqBetaH}{{7.45}{97}{Modèle Proposé}{equation.7.4.45}{}} 133
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{97}{subsection.7.4.2}\protected@file@percent } 134 132 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{97}{subsection.7.4.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{97}{subsubsection.7.4.2.1}\protected@file@percent } 135 133 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{97}{subsubsection.7.4.2.1}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{97}{subsubsection.7.4.2.2}\protected@file@percent } 136 134 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{97}{subsubsection.7.4.2.2}\protected@file@percent }
\newlabel{metric1}{{7.46}{97}{Base de données simulée (ESCBR, TS avec Hawkes)}{equation.7.4.46}{}} 137 135 \newlabel{metric1}{{7.46}{97}{Base de données simulée (ESCBR, TS avec Hawkes)}{equation.7.4.46}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Nombre de recommandations par niveau de complexité (à gauche processus d'apprentissage statique, à droite processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{98}{figure.caption.67}\protected@file@percent } 138 136 \@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Comparison entre ESCBR-TS et ESCBR-TS-Hawkes\relax }}{97}{table.caption.67}\protected@file@percent }
\newlabel{fig:stabilityBP}{{7.12}{98}{Nombre de recommandations par niveau de complexité (à gauche processus d'apprentissage statique, à droite processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.67}{}} 139 137 \newlabel{tab:my_label}{{7.11}{97}{Comparison entre ESCBR-TS et ESCBR-TS-Hawkes\relax }{table.caption.67}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.12}{\ignorespaces Comparison entre ESCBR-TS et ESCBR-TS-Hawkes\relax }}{99}{table.caption.68}\protected@file@percent } 140 138 \@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Nombre de recommandations par niveau de complexité (à gauche processus d'apprentissage statique, à droite processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{98}{figure.caption.66}\protected@file@percent }
\newlabel{tab:my_label}{{7.12}{99}{Comparison entre ESCBR-TS et ESCBR-TS-Hawkes\relax }{table.caption.68}{}} 141 139 \newlabel{fig:stabilityBP}{{7.12}{98}{Nombre de recommandations par niveau de complexité (à gauche processus d'apprentissage statique, à droite processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.66}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{99}{subsection.7.4.3}\protected@file@percent } 142 140 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{99}{subsection.7.4.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Évolution de la variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{100}{figure.caption.69}\protected@file@percent } 143 141 \@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Évolution de la variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{100}{figure.caption.68}\protected@file@percent }
\newlabel{fig:vars}{{7.13}{100}{Évolution de la variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.69}{}} 144 142 \newlabel{fig:vars}{{7.13}{100}{Évolution de la variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.68}{}}
\@setckpt{./chapters/TS}{ 145 143 \@setckpt{./chapters/TS}{
\setcounter{page}{101} 146 144 \setcounter{page}{101}
\setcounter{equation}{46} 147 145 \setcounter{equation}{46}
\setcounter{enumi}{0} 148 146 \setcounter{enumi}{0}
\setcounter{enumii}{0} 149 147 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 150 148 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 151 149 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 152 150 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 153 151 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 154 152 \setcounter{part}{3}
\setcounter{chapter}{7} 155 153 \setcounter{chapter}{7}
\setcounter{section}{4} 156 154 \setcounter{section}{4}
\setcounter{subsection}{3} 157 155 \setcounter{subsection}{3}
\setcounter{subsubsection}{0} 158 156 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 159 157 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 160 158 \setcounter{subparagraph}{0}
\setcounter{figure}{13} 161 159 \setcounter{figure}{13}
\setcounter{table}{12} 162 160 \setcounter{table}{11}
\setcounter{caption@flags}{2} 163 161 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 164 162 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 165 163 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 166 164 \setcounter{subtable}{0}
\setcounter{parentequation}{0} 167 165 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 168 166 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 169 167 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 170 168 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 171 169 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{2} 172 170 \setcounter{upm@format@section@sectionlevel}{2}
\setcounter{upm@fmt@savedcounter}{0} 173 171 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 174 172 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 175 173 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 176 174 \setcounter{upmdefinition}{0}
\setcounter{section@level}{2} 177 175 \setcounter{section@level}{2}
\setcounter{Item}{0} 178 176 \setcounter{Item}{0}
\setcounter{Hfootnote}{0} 179 177 \setcounter{Hfootnote}{0}
\setcounter{bookmark@seq@number}{88} 180 178 \setcounter{bookmark@seq@number}{88}
\setcounter{DefaultLines}{2} 181 179 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 182 180 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 183 181 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 184 182 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 185 183 \setcounter{float@type}{8}
\setcounter{algorithm}{1} 186 184 \setcounter{algorithm}{1}
\setcounter{ALG@line}{8} 187 185 \setcounter{ALG@line}{8}
\setcounter{ALG@rem}{8} 188 186 \setcounter{ALG@rem}{8}
\setcounter{ALG@nested}{0} 189 187 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 190 188 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 191 189 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 192 190 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 193 191 \setcounter{ALG@tmpcounter}{0}
} 194 192 }
195 193
chapters/TS.tex View file @ 6769ad6
\chapter{Système de Recommandation dans AI-VT} 1 1 \chapter{Système de Recommandation dans AI-VT}
2 2
\section{Introduction} 3 3 \section{Introduction}
4 4
Ce chapitre est divisé en trois parties, la première partie explicite un algorithme de recommandation proposé fondé sur les résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans Soto \textit{et al.} \cite{Soto2}. C'est un modèle d'adaptation automatique en temps réel d'une séance prédéterminée à l'intérieur du système AI-VT. Dans cette adaptation le processus fait partie d'un modèle global de raisonnement à partir de cas. Le modèle proposé est stochastique et a été testé avec trois scénarios différents. Les résultats montrent l'adaptation dynamique du modèle proposé, les adaptations obtenues aidant le système à évoluer plus rapidement et identifier les faiblesses des apprenants dans les différents niveaux de complexité ainsi que la génération de recommandations pertinentes dans des cas spécifiques pour chaque capacité d'apprenant. 5 5 Ce chapitre est divisé en trois parties, la première partie explicite un algorithme de recommandation proposé fondé sur les résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans Soto \textit{et al.} \cite{Soto2}. C'est un modèle d'adaptation automatique en temps réel d'une séance prédéterminée à l'intérieur du système AI-VT. Dans cette adaptation le processus fait partie d'un modèle global de raisonnement à partir de cas. Le modèle proposé est stochastique et a été testé avec trois scénarios différents. Les résultats montrent l'adaptation dynamique du modèle proposé, les adaptations obtenues aidant le système à évoluer plus rapidement et identifier les faiblesses des apprenants dans les différents niveaux de complexité ainsi que la génération de recommandations pertinentes dans des cas spécifiques pour chaque capacité d'apprenant.
6 6
Le module mis en œuvre pour AI-VT est classé dans la catégorie des systèmes de recommandation. Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les talents, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise des concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types, l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et l'adaptation de la navigation qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}. 7 7 Le module mis en œuvre pour AI-VT est classé dans la catégorie des systèmes de recommandation. Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les talents, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise des concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types, l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et l'adaptation de la navigation qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}.
8 8
Les techniques de recommandation sont utiles dans les EIAH car elles peuvent détecter les changements et évoluer vers un état optimal, comme l'algorithme d'échantillonnage de Thompson (TS), qui est un algorithme de type probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement, où l'algorithme choisit au temps $t$ une action $a$ à partir d'un ensemble $A$, obtient une récompense pour l'action $a$ et, en fonction de la valeur de la récompense, ajuste sa stratégie de décision pour choisir au temps $t + 1$ une autre action $a$, dans le but de maximiser la récompense. Il est fondé sur le principe Bayésien, où il y a une distribution de probabilité a priori et avec les données obtenues une distribution de probabilité a posteriori est générée qui vise à maximiser l'estimation de la valeur attendue. Pour la variante de Bernoulli, où la récompense n'a que deux valeurs possibles 0 et 1 ou succès et échec, la distribution de base utilisée est la distribution Beta qui est définie sur [0, 1] et paramétrée par deux valeurs $\alpha$ et $\beta$ \cite{9870279}. 9 9 Les techniques de recommandation sont utiles dans les EIAH car elles peuvent détecter les changements et évoluer vers un état optimal, comme l'algorithme d'échantillonnage de Thompson (TS), qui est un algorithme de type probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement, où l'algorithme choisit au temps $t$ une action $a$ à partir d'un ensemble $A$, obtient une récompense pour l'action $a$ et, en fonction de la valeur de la récompense, ajuste sa stratégie de décision pour choisir au temps $t + 1$ une autre action $a$, dans le but de maximiser la récompense. Il est fondé sur le principe Bayésien, où il y a une distribution de probabilité a priori et avec les données obtenues une distribution de probabilité a posteriori est générée qui vise à maximiser l'estimation de la valeur attendue. Pour la variante de Bernoulli, où la récompense n'a que deux valeurs possibles 0 et 1 ou succès et échec, la distribution de base utilisée est la distribution Beta qui est définie sur [0, 1] et paramétrée par deux valeurs $\alpha$ et $\beta$ \cite{9870279}.
10 10
La deuxième partie de ce chapitre présente l'intégration de tous les algorithmes développés et explicités dans les chapitres précédents. Le modèle intégré est appliqué au système AI-VT sur une base de données générée et une base de données réelle. Plusieurs types de test sont exécutés pour montrer que le modèle final permet en effet d'améliorer les capacités d'identification et adaptation. 11 11 La deuxième partie de ce chapitre présente l'intégration de tous les algorithmes développés et explicités dans les chapitres précédents. Le modèle intégré est appliqué au système AI-VT sur une base de données générée et une base de données réelle. Plusieurs types de test sont exécutés pour montrer que le modèle final permet en effet d'améliorer les capacités d'identification et adaptation.
12 12
Les contributions de la deuxième partie sont : 13 13 Les contributions de la deuxième partie sont :
\begin{itemize} 14 14 \begin{itemize}
\item Vérification de l'efficacité du modèle de raisonnement à partir de cas pour la prédiction avec une base de données de notes d'apprenants par rapport à d'autres algorithmes. 15 15 \item Vérification de l'efficacité du modèle de raisonnement à partir de cas pour la prédiction avec une base de données de notes d'apprenants par rapport à d'autres algorithmes.
\item Calcul explicite de l'évolution de l'acquisition des connaissances en analysant le changement des distributions de probabilité générées par le modèle de recommandation stochastique. 16 16 \item Calcul explicite de l'évolution de l'acquisition des connaissances en analysant le changement des distributions de probabilité générées par le modèle de recommandation stochastique.
\item Intégration du modèle de recommandation stochastique à la prédiction par raisonnement à partir de cas pour améliorer la personnalisation de l'EIAH. 17 17 \item Intégration du modèle de recommandation stochastique à la prédiction par raisonnement à partir de cas pour améliorer la personnalisation de l'EIAH.
\end{itemize} 18 18 \end{itemize}
19 19
L'un des principaux modules des EIAH est le système de recommandation, qui vise à trouver les faiblesses et à adapter la plateforme localement ou globalement pour faciliter le processus d'apprentissage et l'acquisition des connaissances, ce module est très important car il permet d'adapter le système et de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants, l'efficacité du système dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce module \cite{Liu2023}. Il est donc nécessaire de trouver des techniques et des algorithmes capables d'exploiter les données disponibles et d'explorer les options d'apprentissage de manière dynamique, afin d'améliorer les performances globales des EIAH. 20 20 L'un des principaux modules des EIAH est le système de recommandation, qui vise à trouver les faiblesses et à adapter la plateforme localement ou globalement pour faciliter le processus d'apprentissage et l'acquisition des connaissances, ce module est très important car il permet d'adapter le système et de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants, l'efficacité du système dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce module \cite{Liu2023}. Il est donc nécessaire de trouver des techniques et des algorithmes capables d'exploiter les données disponibles et d'explorer les options d'apprentissage de manière dynamique, afin d'améliorer les performances globales des EIAH.
21 21
Dans la troisième partie seront détaillées les contributions réalisées avec l'incorporation du processus de Hawkes : 22 22 Dans la troisième partie seront détaillées les contributions réalisées avec l'incorporation du processus de Hawkes :
23 23
\begin{itemize} 24 24 \begin{itemize}
\item Simulation de la courbe d'oubli dans le processus d'apprentissage à l'aide du processus stochastique de Hawkes. 25 25 \item Simulation de la courbe d'oubli dans le processus d'apprentissage à l'aide du processus stochastique de Hawkes.
\item Intégration du raisonnement par cas, des systèmes multi-agents et du processus de Hawkes dans un algorithme de recommandation. 26 26 \item Intégration du raisonnement par cas, des systèmes multi-agents et du processus de Hawkes dans un algorithme de recommandation.
\item Vérification de la progression, de la stabilité, la précision et évolution de l'algorithme de recommandation stochastique proposé à l'aide de bases de données simulées et hétérogènes d'étudiants réels.\\\\ 27 27 \item Vérification de la progression, de la stabilité, la précision et évolution de l'algorithme de recommandation stochastique proposé à l'aide de bases de données simulées et hétérogènes d'étudiants réels.\\\\
\end{itemize} 28 28 \end{itemize}
29 29
\section{Système de recommandation stochastique fondé sur l'échantillonnage de Thompson} 30 30 \section{Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}
\sectionmark{Système de recommandation fondé sur TS} 31 31 \sectionmark{Système de recommandation fondé sur TS}
32 32
\subsection{Modèle Proposé} 33 33 \subsection{Modèle Proposé}
34 34
Le modèle proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT, puis adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. Le modèle est conçu comme une modification de l'algorithme d'échantillonnage de Thompson avec l'intégration de l'échantillonnage stratifié pour obtenir l'adaptation. 35 35 Le modèle proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT, puis adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. Le modèle est conçu comme une modification de l'algorithme d'échantillonnage de Thompson avec l'intégration de l'échantillonnage stratifié pour obtenir l'adaptation.
36 36
La famille de distributions de probabilité Betq est utilisée pour définir dynamiquement le nouveau niveau de complexité (équation \ref{eqBeta}) inspiré de l'algorithme d'échantillonnage de Thompson. Cette version du modèle permet de recommander des niveaux de complexité non contigus, mais la priorité est de recommander les niveaux dans lesquels des défauts ont été détectés. La paramétrisation initiale de toutes les distributions de probabilité peut forcer le modèle à recommander des niveaux de complexité contigus plus élémentaires. 37 37 La famille de distributions de probabilité Betq est utilisée pour définir dynamiquement le nouveau niveau de complexité (équation \ref{eqBeta}) inspiré de l'algorithme d'échantillonnage de Thompson. Cette version du modèle permet de recommander des niveaux de complexité non contigus, mais la priorité est de recommander les niveaux dans lesquels des défauts ont été détectés. La paramétrisation initiale de toutes les distributions de probabilité peut forcer le modèle à recommander des niveaux de complexité contigus plus élémentaires.
38 38
\begin{equation} 39 39 \begin{equation}
B(x, \alpha, \beta) = 40 40 B(x, \alpha, \beta) =
\begin{cases} 41 41 \begin{cases}
\frac{x^{\alpha-1}(1-x)^{\beta - 1}}{\int_0^1 u^{\alpha - 1}(1-u)^{\beta - 1}du} & si \; x \in [0, 1] \\ 42 42 \frac{x^{\alpha-1}(1-x)^{\beta - 1}}{\int_0^1 u^{\alpha - 1}(1-u)^{\beta - 1}du} & si \; x \in [0, 1] \\
0&sinon 43 43 0&sinon
\end{cases} 44 44 \end{cases}
\label{eqBeta} 45 45 \label{eqBeta}
\end{equation} 46 46 \end{equation}
47 47
Les variables qui font partie du modèle sont spécifiées dans le tableau \ref{tabPar}. 48 48 Les variables qui font partie du modèle sont spécifiées dans le tableau \ref{tabPar}.
49 49
\begin{table}[!ht] 50 50 \begin{table}[!ht]
\centering 51 51 \centering
\begin{tabular}{ccc} 52 52 \begin{tabular}{ccc}
ID&Description&Domain\\ 53 53 ID&Description&Domain\\
\hline 54 54 \hline
$c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\ 55 55 $c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\
$g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\ 56 56 $g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\
$g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\ 57 57 $g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\
$s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\ 58 58 $s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\
$s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\ 59 59 $s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\
$\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\ 60 60 $\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\
$t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\ 61 61 $t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\
$g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\ 62 62 $g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\
$ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\ 63 63 $ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\
$t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\ 64 64 $t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\
$ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\ 65 65 $ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\
$\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\ 66 66 $\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\
$\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\ 67 67 $\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\
$\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\ 68 68 $\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\
$\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\ 69 69 $\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\
$G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\ 70 70 $G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\
$x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\ 71 71 $x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\
$n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\\ 72 72 $n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\\
$ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\ 73 73 $ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\
$y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\ 74 74 $y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\
$r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\ 75 75 $r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\
$sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\ 76 76 $sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\
\end{tabular} 77 77 \end{tabular}
\caption{Variables et paramètres du modèle proposé} 78 78 \caption{Variables et paramètres du modèle proposé}
\label{tabPar} 79 79 \label{tabPar}
\end{table} 80 80 \end{table}
81 81
Dans ce cas, il est nécessaire d'utiliser la variable de seuil de grade $g_t$ pour déterminer la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les équations \ref{eqsMg}, \ref{eqgtc} et \ref{eqltc} montrent les règles de mise à jour corrélées, ces règles modifient les valeurs par récompense inverse. Chaque niveau de complexité est associé à une distribution de probabilité Beta avec des valeurs initiales prédéfinies pour les paramètres $\alpha$ et $\beta$. 82 82 Dans ce cas, il est nécessaire d'utiliser la variable de seuil de grade $g_t$ pour déterminer la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les équations \ref{eqsMg}, \ref{eqgtc} et \ref{eqltc} montrent les règles de mise à jour corrélées, ces règles modifient les valeurs par récompense inverse. Chaque niveau de complexité est associé à une distribution de probabilité Beta avec des valeurs initiales prédéfinies pour les paramètres $\alpha$ et $\beta$.
83 83
\begin{equation} 84 84 \begin{equation}
ng_c=g_c 85 85 ng_c=g_c
\label{eqsMg} 86 86 \label{eqsMg}
\end{equation} 87 87 \end{equation}
88 88
\begin{equation} 89 89 \begin{equation}
ng_c \ge g_t \rightarrow 90 90 ng_c \ge g_t \rightarrow
\begin{cases} 91 91 \begin{cases}
\beta_c=\beta_c+\Delta_s\\ 92 92 \beta_c=\beta_c+\Delta_s\\
\beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\ 93 93 \beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\
\alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2} 94 94 \alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2}
\end{cases} 95 95 \end{cases}
\label{eqgtc} 96 96 \label{eqgtc}
\end{equation} 97 97 \end{equation}
98 98
\begin{equation} 99 99 \begin{equation}
ng_c < g_t \rightarrow 100 100 ng_c < g_t \rightarrow
\begin{cases} 101 101 \begin{cases}
\alpha_c=\alpha_c+\Delta_s\\ 102 102 \alpha_c=\alpha_c+\Delta_s\\
\alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\ 103 103 \alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\
\beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2} 104 104 \beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2}
\end{cases} 105 105 \end{cases}
\label{eqltc} 106 106 \label{eqltc}
\end{equation} 107 107 \end{equation}
108 108
Le nouveau niveau de complexité est l'indice de la valeur aléatoire maximale (générée à partir de la distribution Beta de chaque niveau de complexité, équation \ref{eqBRnd}) pour tous les niveaux de complexité (équation \ref{eqsncl}). 109 109 Le nouveau niveau de complexité est l'indice de la valeur aléatoire maximale (générée à partir de la distribution Beta de chaque niveau de complexité, équation \ref{eqBRnd}) pour tous les niveaux de complexité (équation \ref{eqsncl}).
110 110
\begin{equation} 111 111 \begin{equation}
\theta_c = Beta(\alpha_c, \beta_c) 112 112 \theta_c = Beta(\alpha_c, \beta_c)
\label{eqBRnd} 113 113 \label{eqBRnd}
\end{equation} 114 114 \end{equation}
115 115
\begin{equation} 116 116 \begin{equation}
ncl=max_x(\mathbb{E}[\theta_x]), 0<=x<=c_n 117 117 ncl=max_x(\mathbb{E}[\theta_x]), 0<=x<=c_n
\label{eqsncl} 118 118 \label{eqsncl}
\end{equation} 119 119 \end{equation}
120 120
La note des apprenants peut considérer aussi le temps de réponse comme une pénalité, et dans ce cas-là la note est calcule comme la équation \ref{eqsGT}. 121 121 La note des apprenants peut considérer aussi le temps de réponse comme une pénalité, et dans ce cas-là la note est calcule comme la équation \ref{eqsGT}.
122 122
\begin{equation} 123 123 \begin{equation}
ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right) 124 124 ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right)
\label{eqsGT} 125 125 \label{eqsGT}
\end{equation} 126 126 \end{equation}
127 127
Le détail des pas d'exécution du modèle proposé sont dans l'algorithme \ref{alg2}. 128 128 Le détail des pas d'exécution du modèle proposé sont dans l'algorithme \ref{alg2}.
129 129
\begin{algorithm} 130 130 \begin{algorithm}
\caption{Stochastic Recommendation Model} 131 131 \caption{Stochastic Recommendation Model}
\begin{algorithmic} 132 132 \begin{algorithmic}
\State Initialize the a-priori distributions of probability 133 133 \State Initialize the a-priori distributions of probability
\For {\textbf{each} questions $q$} 134 134 \For {\textbf{each} questions $q$}
\State With $i$ as actual complexity level $c$ 135 135 \State With $i$ as actual complexity level $c$
\State Calculate $ng_i$ \Comment{eq \ref{eqsMg} or eq \ref{eqsGT}} 136 136 \State Calculate $ng_i$ \Comment{eq \ref{eqsMg} or eq \ref{eqsGT}}
\State Update parameters $\alpha_i$ and $\beta_i$ \Comment{eq \ref{eqgtc} and eq \ref{eqltc}} 137 137 \State Update parameters $\alpha_i$ and $\beta_i$ \Comment{eq \ref{eqgtc} and eq \ref{eqltc}}
\State Get random values $\theta_c$ with Beta distribution\Comment{$\forall c$, eq \ref{eqBRnd}} 138 138 \State Get random values $\theta_c$ with Beta distribution\Comment{$\forall c$, eq \ref{eqBRnd}}
\State Get $ncl$ \Comment{eq \ref{eqsncl}} 139 139 \State Get $ncl$ \Comment{eq \ref{eqsncl}}
\EndFor 140 140 \EndFor
\end{algorithmic} 141 141 \end{algorithmic}
\label{alg2} 142 142 \label{alg2}
\end{algorithm} 143 143 \end{algorithm}
144 144
\subsection{Résultats} 145 145 \subsection{Résultats}
146 146
Le comportement du modèle a été testé avec un jeu de données généré, ce jeu de données contient les notes et les temps de réponse de 1000 apprenants pour 5 niveaux de complexité différents, la description des données est indiquée dans le Tableau \ref{tabDataSet}. Les notes des apprenants sont générées avec la distribution logit-normale de probabilité, car c'est expérimentalement le meilleur modèle de représentation \cite{Arthurs}. 147 147 Le comportement du modèle a été testé avec un jeu de données généré, ce jeu de données contient les notes et les temps de réponse de 1000 apprenants pour 5 niveaux de complexité différents, la description des données est indiquée dans le Tableau \ref{tabDataSet}. Les notes des apprenants sont générées avec la distribution logit-normale de probabilité, car c'est expérimentalement le meilleur modèle de représentation \cite{Arthurs}.
148 148
L'ensemble de données généré est une simulation des notes des apprenants pour les réponses à quinze questions à chacun des cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants dans les dix premières questions. La difficulté de la complexité est également simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la distribution de l'ensemble de données des notes de 1000 apprenants par niveau de complexité. 149 149 L'ensemble de données généré est une simulation des notes des apprenants pour les réponses à quinze questions à chacun des cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants dans les dix premières questions. La difficulté de la complexité est également simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la distribution de l'ensemble de données des notes de 1000 apprenants par niveau de complexité.
150 150
\begin{figure} 151 151 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/dataset.png} 152 152 \includegraphics[width=\textwidth]{./Figures/dataset.png}
\caption{Boîte à moustaches pour la base de données générée} 153 153 \caption{Boîte à moustaches pour la base de données générée}
\label{figData} 154 154 \label{figData}
\end{figure} 155 155 \end{figure}
156 156
\begin{table}[!ht] 157 157 \begin{table}[!ht]
\centering 158 158 \centering
\begin{tabular}{ccc} 159 159 \begin{tabular}{ccc}
ID&Description&Domain\\ 160 160 ID&Description&Domain\\
\hline 161 161 \hline
$q_{c}$&Niveau de complexité de une question $q$&$[0, c_n] \in \mathbb{N}$\\ 162 162 $q_{c}$&Niveau de complexité de une question $q$&$[0, c_n] \in \mathbb{N}$\\
$q_{g,c}$&Note obtenue $g$ pour la question $q$ avec complexité $c$ &$[0,g_m] \in \mathbb{R}$\\ 163 163 $q_{g,c}$&Note obtenue $g$ pour la question $q$ avec complexité $c$ &$[0,g_m] \in \mathbb{R}$\\
$q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\ 164 164 $q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\
\end{tabular} 165 165 \end{tabular}
\caption{Description des variables utilisées dans la base de données evaluée} 166 166 \caption{Description des variables utilisées dans la base de données evaluée}
\label{tabDataSet} 167 167 \label{tabDataSet}
\end{table} 168 168 \end{table}
169 169
Toutes les valeurs des paramètres pour tester le modèle sont dans le tableau \ref{tabgm1}. 170 170 Toutes les valeurs des paramètres pour tester le modèle sont dans le tableau \ref{tabgm1}.
171 171
\begin{table}[!ht] 172 172 \begin{table}[!ht]
\centering 173 173 \centering
\begin{tabular}{c|cccccccccccccc} 174 174 \begin{tabular}{c|cccccccccccccc}
ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\ 175 175 ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\
\hline 176 176 \hline
Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\ 177 177 Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\
\end{tabular} 178 178 \end{tabular}
\caption{Valeurs des paramètres pour les scénarios evalués} 179 179 \caption{Valeurs des paramètres pour les scénarios evalués}
\label{tabgm1} 180 180 \label{tabgm1}
\end{table} 181 181 \end{table}
182 182
Les résultats de la première comparaison sans données historiques (démarrage à froid) entre le modèle proposé, un système de recommandation déterministe et le système original (RàPC) sont présentés dans la figure \ref{figCmp2}, où apparaissent différents nombres et échelles de transitions, le système original ne présente pas de transitions, tous les apprenants sont évalués au niveau de complexité 0, les notes obtenues pendant la séance ne sont pas prises en compte. Le système avec des modèles de recommandation tente d'adapter le niveau de complexité en fonction des notes obtenues. Le modèle déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus, la tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. Le modèle proposé (stochastique), commence par proposer tous les niveaux de complexité possibles mais se concentre sur le niveau 0, les transitions sont constantes mais pour un petit nombre d'apprenants, la tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la hausse pour les niveaux 1, 2 et 3. 183 183 Les résultats de la première comparaison sans données historiques (démarrage à froid) entre le modèle proposé, un système de recommandation déterministe et le système original (RàPC) sont présentés dans la figure \ref{figCmp2}, où apparaissent différents nombres et échelles de transitions, le système original ne présente pas de transitions, tous les apprenants sont évalués au niveau de complexité 0, les notes obtenues pendant la séance ne sont pas prises en compte. Le système avec des modèles de recommandation tente d'adapter le niveau de complexité en fonction des notes obtenues. Le modèle déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus, la tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. Le modèle proposé (stochastique), commence par proposer tous les niveaux de complexité possibles mais se concentre sur le niveau 0, les transitions sont constantes mais pour un petit nombre d'apprenants, la tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la hausse pour les niveaux 1, 2 et 3.
184 184
\begin{figure} 185 185 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp2.png} 186 186 \includegraphics[width=\textwidth]{./Figures/comp2.png}
\caption{Résultats pour le premier test} 187 187 \caption{Résultats pour le premier test}
\label{figCmp2} 188 188 \label{figCmp2}
\end{figure} 189 189 \end{figure}
190 190
Après la génération de la première séance, le système peut continuer avec la liste suivante d'exercices, dans ce cas les trois modèles ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir la première transition du système original, cette transition montre que le système agit uniquement avec les notes obtenues dans le passé et les transitions sont très lentes, même si les notes sont différentes au cours de la séance, tous les apprenants doivent suivre le même chemin. Cependant, les modèles de recommandation changent, le modèle déterministe présente trois transitions dans les questions 3, 5 et 12. Les tendances sont statiques pour le niveau 3, variables pour le niveau 2 et fortement descendantes pour le niveau 0. Le modèle stochastique continue avec des transitions douces mais essaie toujours de préférer le niveau le plus faible, dans ce cas le modèle a identifié le niveau de complexité 1. Ici, les niveaux 0 et 1 sont descendants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. 191 191 Après la génération de la première séance, le système peut continuer avec la liste suivante d'exercices, dans ce cas les trois modèles ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir la première transition du système original, cette transition montre que le système agit uniquement avec les notes obtenues dans le passé et les transitions sont très lentes, même si les notes sont différentes au cours de la séance, tous les apprenants doivent suivre le même chemin. Cependant, les modèles de recommandation changent, le modèle déterministe présente trois transitions dans les questions 3, 5 et 12. Les tendances sont statiques pour le niveau 3, variables pour le niveau 2 et fortement descendantes pour le niveau 0. Le modèle stochastique continue avec des transitions douces mais essaie toujours de préférer le niveau le plus faible, dans ce cas le modèle a identifié le niveau de complexité 1. Ici, les niveaux 0 et 1 sont descendants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants.
192 192
\begin{figure} 193 193 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp3.png} 194 194 \includegraphics[width=\textwidth]{./Figures/comp3.png}
\caption{Résultats pour le deuxième Test} 195 195 \caption{Résultats pour le deuxième Test}
\label{figCmp3} 196 196 \label{figCmp3}
\end{figure} 197 197 \end{figure}
198 198
Enfin, les données d'initialisation considèrent comme évalués deux niveaux de complexité 0 et 1, alors naturellement le système doit commencer avec le niveau 1 ou 2. Comme le système original est très lent à passer d'un niveau à l'autre, ce système commence par le niveau de complexité 1, comme le montre la figure \ref{figCmp4}, comme les deux autres comparaisons, les changements dans ce système ne sont pas progressifs, mais directs pour tous. Dans ce cas, le modèle de recommandation déterministe adopte la même stratégie et propose un changement direct pour tous les apprenants autour de la cinquième question. Le modèle stochastique continue avec des changements faibles mais constants, mais avec une préférence pour le niveau 2, la tendance est très stable sauf pour 1 (à la hausse) et 2 (à la baisse) niveaux. 199 199 Enfin, les données d'initialisation considèrent comme évalués deux niveaux de complexité 0 et 1, alors naturellement le système doit commencer avec le niveau 1 ou 2. Comme le système original est très lent à passer d'un niveau à l'autre, ce système commence par le niveau de complexité 1, comme le montre la figure \ref{figCmp4}, comme les deux autres comparaisons, les changements dans ce système ne sont pas progressifs, mais directs pour tous. Dans ce cas, le modèle de recommandation déterministe adopte la même stratégie et propose un changement direct pour tous les apprenants autour de la cinquième question. Le modèle stochastique continue avec des changements faibles mais constants, mais avec une préférence pour le niveau 2, la tendance est très stable sauf pour 1 (à la hausse) et 2 (à la baisse) niveaux.
200 200
\begin{figure} 201 201 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp4.png} 202 202 \includegraphics[width=\textwidth]{./Figures/comp4.png}
\caption{Résultats pour le troisième Test} 203 203 \caption{Résultats pour le troisième Test}
\label{figCmp4} 204 204 \label{figCmp4}
\end{figure} 205 205 \end{figure}
206 206
Pour comparer numériquement le système original, le modèle déterministe et le modèle de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}) qui décrit le système de recommandation idéal si l'objectif de l'apprenant est l'apprentissage standard, la métrique calcule une valeur pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette métrique est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, dans l'idée de renforcer les connaissances à ce niveau de complexité, de même s'ils proposent moins d'exercices aux niveaux de complexité où la note moyenne est élevée, puisqu'il est supposé que l'étudiant a déjà acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées. 207 207 Pour comparer numériquement le système original, le modèle déterministe et le modèle de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}) qui décrit le système de recommandation idéal si l'objectif de l'apprenant est l'apprentissage standard, la métrique calcule une valeur pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette métrique est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, dans l'idée de renforcer les connaissances à ce niveau de complexité, de même s'ils proposent moins d'exercices aux niveaux de complexité où la note moyenne est élevée, puisqu'il est supposé que l'étudiant a déjà acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées.
208 208
\begin{equation} 209 209 \begin{equation}
%r_c=x+y-2xy 210 210 %r_c=x+y-2xy
%r_c=x^2+y^2-2x^2y^2 211 211 %r_c=x^2+y^2-2x^2y^2
rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} 212 212 rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\}
\label{eqMetric1} 213 213 \label{eqMetric1}
\end{equation} 214 214 \end{equation}
215 215
\begin{equation} 216 216 \begin{equation}
r=\sum_{c=0}^{c_n-1} rp_c 217 217 r=\sum_{c=0}^{c_n-1} rp_c
\label{eqMetric2} 218 218 \label{eqMetric2}
\end{equation} 219 219 \end{equation}
220 220
Les propriétés de la métrique sont : 221 221 Les propriétés de la métrique sont :
\begin{itemize} 222 222 \begin{itemize}
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$ 223 223 \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$
\item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$ 224 224 \item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$
\item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\ 225 225 \item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\
\end{itemize} 226 226 \end{itemize}
227 227
Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions répondues dans le niveau de complexité $c$ (équation \ref{eqYc}). 228 228 Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions répondues dans le niveau de complexité $c$ (équation \ref{eqYc}).
229 229
\begin{equation} 230 230 \begin{equation}
x_{0,c}=\frac{<g_c>_{G_c}}{g_m} 231 231 x_{0,c}=\frac{<g_c>_{G_c}}{g_m}
\label{eqXc} 232 232 \label{eqXc}
\end{equation} 233 233 \end{equation}
234 234
\begin{equation} 235 235 \begin{equation}
x_{1,c}=\frac{ny_c}{n_c} 236 236 x_{1,c}=\frac{ny_c}{n_c}
\label{eqYc} 237 237 \label{eqYc}
\end{equation} 238 238 \end{equation}
239 239
La figure \ref{figMetric} montre l'équation globale pour la métrique $rp$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5. Un bon système de recommandation devrait donc avoir une valeur $r$ élevée. 240 240 La figure \ref{figMetric} montre l'équation globale pour la métrique $rp$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5. Un bon système de recommandation devrait donc avoir une valeur $r$ élevée.
241 241
\begin{figure} 242 242 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/metric.png} 243 243 \includegraphics[width=\textwidth]{./Figures/metric.png}
\caption{Métrique pour le parcours standard} 244 244 \caption{Métrique pour le parcours standard}
\label{figMetric} 245 245 \label{figMetric}
\end{figure} 246 246 \end{figure}
247 247
Les résultats des calculs de la métrique établie pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM}. 248 248 Les résultats des calculs de la métrique établie pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM}.
249 249
\begin{table}[!ht] 250 250 \begin{table}[!ht]
\centering 251 251 \centering
\begin{tabular}{cccccccc} 252 252 \begin{tabular}{cccccccc}
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ 253 253 &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\
\hline 254 254 \hline
Test 1\\ 255 255 Test 1\\
\hline 256 256 \hline
RàPC&0.5388&-&-&-&-&0.5388&10.776\\ 257 257 RàPC&0.5388&-&-&-&-&0.5388&10.776\\
DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\ 258 258 DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\
SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\ 259 259 SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\
\hline 260 260 \hline
Test 2\\ 261 261 Test 2\\
\hline 262 262 \hline
RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\ 263 263 RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\
DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\ 264 264 DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\
SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\ 265 265 SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\
\hline 266 266 \hline
Test3\\ 267 267 Test3\\
\hline 268 268 \hline
RàPC&-&0.8559&0.7377&-&-&1.5936&31.872 269 269 RàPC&-&0.8559&0.7377&-&-&1.5936&31.872
\\ 270 270 \\
DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\ 271 271 DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\
SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\ 272 272 SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\
\end{tabular} 273 273 \end{tabular}
\caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} 274 274 \caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}
\label{tabRM} 275 275 \label{tabRM}
\end{table} 276 276 \end{table}
277 277
Une métrique pour l'apprentissage en douceur est définie dans l'équation \ref{eqMetricS1} et l'équation \ref{eqMetricS2}, avec cette métrique un score élevé est attribué aux systèmes qui proposent plus d'exercices dans un niveau de complexité où les notes moyennes sont d'environ 0,4 et qui sont plus flexibles avec des notes moyennes plus basses, également si le nombre d'exercices proposés est faible pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent un nombre élevé de questions dans un niveau de complexité avec des notes moyennes élevées et si le nombre d'exercices recommandés est trop élevé ou trop faible pour les notes inférieures. 278 278 Une métrique pour l'apprentissage en douceur est définie dans l'équation \ref{eqMetricS1} et l'équation \ref{eqMetricS2}, avec cette métrique un score élevé est attribué aux systèmes qui proposent plus d'exercices dans un niveau de complexité où les notes moyennes sont d'environ 0,4 et qui sont plus flexibles avec des notes moyennes plus basses, également si le nombre d'exercices proposés est faible pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent un nombre élevé de questions dans un niveau de complexité avec des notes moyennes élevées et si le nombre d'exercices recommandés est trop élevé ou trop faible pour les notes inférieures.
279 279
\begin{equation} 280 280 \begin{equation}
rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} 281 281 rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\}
\label{eqMetricS1} 282 282 \label{eqMetricS1}
\end{equation} 283 283 \end{equation}
284 284
\begin{equation} 285 285 \begin{equation}
r=\sum_{c=0}^{c_n-1} rs_c 286 286 r=\sum_{c=0}^{c_n-1} rs_c
\label{eqMetricS2} 287 287 \label{eqMetricS2}
\end{equation} 288 288 \end{equation}
289 289
Les propriétés de la métrique sont : 290 290 Les propriétés de la métrique sont :
\begin{itemize} 291 291 \begin{itemize}
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$ 292 292 \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$
\item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\ 293 293 \item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\
\end{itemize} 294 294 \end{itemize}
295 295
La figure \ref{figMetric2} montre l'équation globale pour la métrique $rs$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5, un bon système de recommandation doit donc avoir une valeur $r$ élevée. 296 296 La figure \ref{figMetric2} montre l'équation globale pour la métrique $rs$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5, un bon système de recommandation doit donc avoir une valeur $r$ élevée.
297 297
Les résultats du calcul des métriques pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}. 298 298 Les résultats du calcul des métriques pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}.
299 299
\begin{figure}[!ht] 300 300 \begin{figure}[!ht]
\centering 301 301 \centering
\includegraphics[width=\textwidth]{./Figures/metric2.png} 302 302 \includegraphics[width=\textwidth]{./Figures/metric2.png}
\caption{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)} 303 303 \caption{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)}
\label{figMetric2} 304 304 \label{figMetric2}
\end{figure} 305 305 \end{figure}
306 306
\begin{table}[!ht] 307 307 \begin{table}[!ht]
\centering 308 308 \centering
\begin{tabular}{cccccccc} 309 309 \begin{tabular}{cccccccc}
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ 310 310 &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\
\hline 311 311 \hline
Test 1\\ 312 312 Test 1\\
\hline 313 313 \hline
RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\\ 314 314 RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\\
DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\ 315 315 DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\
SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\ 316 316 SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\
\hline 317 317 \hline
Test 2\\ 318 318 Test 2\\
\hline 319 319 \hline
RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\\ 320 320 RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\\
DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\ 321 321 DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\
SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\ 322 322 SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\
\hline 323 323 \hline
Test3\\ 324 324 Test3\\
\hline 325 325 \hline
RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74 326 326 RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74
\\ 327 327 \\
DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\ 328 328 DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\
SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\ 329 329 SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\
\end{tabular} 330 330 \end{tabular}
\caption{Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} 331 331 \caption{Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}
\label{tabRM2} 332 332 \label{tabRM2}
\end{table} 333 333 \end{table}
334 334
Pour comparer le système original et le modèle de recommandation, est utilisée la métrique de la diversité des propositions, avec la similarité en cosinus (La similarité en cosinus entre un vecteur $A$ et un vecteur $B$, Équation \ref{eqCS}) entre toutes les propositions des apprenants. Les résultats de la similarité cosinus moyenne sont présentés dans le tableau \ref{tabCS}. 335 335 Pour comparer le système original et le modèle de recommandation, est utilisée la métrique de la diversité des propositions, avec la similarité en cosinus (La similarité en cosinus entre un vecteur $A$ et un vecteur $B$, Équation \ref{eqCS}) entre toutes les propositions des apprenants. Les résultats de la similarité cosinus moyenne sont présentés dans le tableau \ref{tabCS}.
336 336
\begin{equation} 337 337 \begin{equation}
sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}} 338 338 sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}}
\label{eqCS} 339 339 \label{eqCS}
\end{equation} 340 340 \end{equation}
341 341
\begin{table}[!ht] 342 342 \begin{table}[!ht]
\centering 343 343 \centering
\begin{tabular}{cccc} 344 344 \begin{tabular}{cccc}
Model&Scenario 1&Scenario 2&Scenario 3\\ 345 345 Model&Scenario 1&Scenario 2&Scenario 3\\
\hline 346 346 \hline
RàPC&1&1&1\\ 347 347 RàPC&1&1&1\\
DM&0.9540&0.9887&0.9989\\ 348 348 DM&0.9540&0.9887&0.9989\\
SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\ 349 349 SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\
\end{tabular} 350 350 \end{tabular}
\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} 351 351 \caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}
\label{tabCS} 352 352 \label{tabCS}
\end{table} 353 353 \end{table}
354 354
\subsection{Discussion et Conclusions} 355 355 \subsection{Discussion et Conclusions}
Avec la génération d'exercices RàPC, le système propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, presque un changement toutes les 3 ou 4 séances, ceci parce que le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes de recommandation sont plus dynamiques et les évolutions sont plus rapides mais en considérant les notes des apprenants, le modèle déterministe suggère des changements de niveaux à un grand nombre d'apprenants soudainement parce qu'ils sont regroupés à l'intérieur d'un intervalle de taux de maîtrise, alors que le modèle stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modèles proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers. 356 356 Avec la génération d'exercices RàPC, le système propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, presque un changement toutes les 3 ou 4 séances, ceci parce que le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes de recommandation sont plus dynamiques et les évolutions sont plus rapides mais en considérant les notes des apprenants, le modèle déterministe suggère des changements de niveaux à un grand nombre d'apprenants soudainement parce qu'ils sont regroupés à l'intérieur d'un intervalle de taux de maîtrise, alors que le modèle stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modèles proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers.
357 357
La base de données générée a permis de simuler diverses situations avec les notes de 1000 apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations. 358 358 La base de données générée a permis de simuler diverses situations avec les notes de 1000 apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations.
359 359
Les résultats numériques utilisant la métrique définie montrent que les distributions des questions dans une séance par les deux versions du modèle de recommandation sont différentes mais avec une tendance générale similaire pour tous les apprenants. Le modèle proposé tente de répartir les questions dans tous les niveaux de complexité définis. Globalement, avec la métrique définie, le modèle stochastique a obtenu un meilleur score. Par rapport au système original, le modèle de recommandation (versions déterministe et stochastique) obtient une augmentation globale de l'adaptabilité comprise entre 15\% et 68\% pour tous les niveaux de complexité. 360 360 Les résultats numériques utilisant la métrique définie montrent que les distributions des questions dans une séance par les deux versions du modèle de recommandation sont différentes mais avec une tendance générale similaire pour tous les apprenants. Le modèle proposé tente de répartir les questions dans tous les niveaux de complexité définis. Globalement, avec la métrique définie, le modèle stochastique a obtenu un meilleur score. Par rapport au système original, le modèle de recommandation (versions déterministe et stochastique) obtient une augmentation globale de l'adaptabilité comprise entre 15\% et 68\% pour tous les niveaux de complexité.
361 361
Selon la métrique de la similarité cosinus, le modèle de recommandation proposé augmente la diversité des propositions par rapport au système original dans les trois scénarios évalués, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de faire progresser les apprenants entre les niveaux de complexité. La diversité des propositions est une caractéristique essentielle du modèle de recommandation dans ses deux versions. 362 362 Selon la métrique de la similarité cosinus, le modèle de recommandation proposé augmente la diversité des propositions par rapport au système original dans les trois scénarios évalués, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de faire progresser les apprenants entre les niveaux de complexité. La diversité des propositions est une caractéristique essentielle du modèle de recommandation dans ses deux versions.
363 363
Les modules de recommandation sont une pièce essentielle pour certaines EIAH car ils aident à guider le processus d'apprentissage individuel, permettent d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les versions du modèle proposé peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le meilleur niveau de complexité possible afin d'aider l'apprenant à acquérir et à maîtriser les connaissances avant de passer aux niveaux de complexité supérieurs, car généralement les connaissances des niveaux de complexité inférieurs sont nécessaires pour compléter les niveaux supérieurs. Même si l'ensemble de données généré est une simulation des temps de réponse et des notes des apprenants, les tests qui l'utilisent permettent de voir la flexibilité et la robustesse du modèle de recommandation proposé, car les données relatives aux apprenants présentent une grande diversité et obligent le système à s'adapter à différents types de configurations. Par conséquent, il est possible de conclure que le modèle de recommandation proposé a la capacité de fonctionner dans différentes situations et dans chaque cas de proposer des chemins alternatifs pour améliorer le processus d'apprentissage global, même si l'objectif d'apprentissage est différent pour chaque apprenant, comme le démontrent les résultats obtenus dans l'évaluation des deux métriques proposées. Le modèle proposé permet également la diversité et la personnalisation du système, puisque selon les résultats de la comparaison avec la similarité cosinus entre toutes les recommandations générées pour chaque apprenant, il y a une augmentation par rapport au système original.\\\\ 364 364 Les modules de recommandation sont une pièce essentielle pour certaines EIAH car ils aident à guider le processus d'apprentissage individuel, permettent d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les versions du modèle proposé peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le meilleur niveau de complexité possible afin d'aider l'apprenant à acquérir et à maîtriser les connaissances avant de passer aux niveaux de complexité supérieurs, car généralement les connaissances des niveaux de complexité inférieurs sont nécessaires pour compléter les niveaux supérieurs. Même si l'ensemble de données généré est une simulation des temps de réponse et des notes des apprenants, les tests qui l'utilisent permettent de voir la flexibilité et la robustesse du modèle de recommandation proposé, car les données relatives aux apprenants présentent une grande diversité et obligent le système à s'adapter à différents types de configurations. Par conséquent, il est possible de conclure que le modèle de recommandation proposé a la capacité de fonctionner dans différentes situations et dans chaque cas de proposer des chemins alternatifs pour améliorer le processus d'apprentissage global, même si l'objectif d'apprentissage est différent pour chaque apprenant, comme le démontrent les résultats obtenus dans l'évaluation des deux métriques proposées. Le modèle proposé permet également la diversité et la personnalisation du système, puisque selon les résultats de la comparaison avec la similarité cosinus entre toutes les recommandations générées pour chaque apprenant, il y a une augmentation par rapport au système original.\\\\
365 365
\section{ESCBR-SMA et Échantillonnage de Thompson} 366 366 \section{ESCBR-SMA et Échantillonnage de Thompson}
\sectionmark{ESCB-SMA et TS} 367 367 \sectionmark{ESCB-SMA et TS}
368 368
\subsection{Concepts Associés} 369 369 \subsection{Concepts Associés}
370 370
Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du modèle proposé, ainsi que les modèles et les mesures fondamentaux. Le premier paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances historiquement acquises et l'expérience accumulée en ce qui concerne un problème spécifique. Ce paradigme est utilisé pour générer des solutions émergentes pour un nouveau problème en utilisant une base de données de connaissances. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC est particulièrement utile lorsque les causes sous-jacentes d'un problème ne sont pas bien comprises. Le raisonnement à base de cas définit un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}. 371 371 Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du modèle proposé, ainsi que les modèles et les mesures fondamentaux. Le premier paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances historiquement acquises et l'expérience accumulée en ce qui concerne un problème spécifique. Ce paradigme est utilisé pour générer des solutions émergentes pour un nouveau problème en utilisant une base de données de connaissances. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC est particulièrement utile lorsque les causes sous-jacentes d'un problème ne sont pas bien comprises. Le raisonnement à base de cas définit un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}.
372 372
Puisque l'objectif ici est d'adapter les exercices proposés par AI-VT, il est nécessaire de connaître le fonctionnement de l'un des algorithmes les plus utilisés pour effectuer l'adaptation du contenu et des exercices dans certains STI, afin de comparer les résultats avec l'algorithme proposé et de voir dans quelle mesure il permet d'obtenir une amélioration de l'adaptation et de la performance des apprenants. L'un des modèles les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (Bayesian Knowledge Tracing) \cite{ZHANG2018189}. Ce modèle utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur.$P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour avec les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée. 373 373 Puisque l'objectif ici est d'adapter les exercices proposés par AI-VT, il est nécessaire de connaître le fonctionnement de l'un des algorithmes les plus utilisés pour effectuer l'adaptation du contenu et des exercices dans certains STI, afin de comparer les résultats avec l'algorithme proposé et de voir dans quelle mesure il permet d'obtenir une amélioration de l'adaptation et de la performance des apprenants. L'un des modèles les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (Bayesian Knowledge Tracing) \cite{ZHANG2018189}. Ce modèle utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur.$P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour avec les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée.
374 374
\begin{equation} 375 375 \begin{equation}
P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)} 376 376 P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)}
\label{eqbkt1} 377 377 \label{eqbkt1}
\end{equation} 378 378 \end{equation}
379 379
\begin{equation} 380 380 \begin{equation}
P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))} 381 381 P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))}
\label{eqbkt2} 382 382 \label{eqbkt2}
\end{equation} 383 383 \end{equation}
384 384
\begin{equation} 385 385 \begin{equation}
P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w) 386 386 P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w)
\label{eqbkt3} 387 387 \label{eqbkt3}
\end{equation} 388 388 \end{equation}
389 389
Le modèle de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. L'algorithme utilisé pour l'adaptation est un algorithme d'apprentissage par renforcement appelé échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus analysé spécifique \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Bêta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}. 390 390 Le modèle de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. L'algorithme utilisé pour l'adaptation est un algorithme d'apprentissage par renforcement appelé échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus analysé spécifique \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Bêta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}.
391 391
%\begin{equation} 392 392 %\begin{equation}
% Beta(x,\alpha,\beta)=\begin{cases} 393 393 % Beta(x,\alpha,\beta)=\begin{cases}
% \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\ 394 394 % \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\
% 0&otherwise 395 395 % 0&otherwise
% \end{cases} 396 396 % \end{cases}
%\end{equation} 397 397 %\end{equation}
398 398
\begin{equation} 399 399 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} 400 400 Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{fbeta} 401 401 \label{fbeta}
\end{equation} 402 402 \end{equation}
403 403
En utilisant la definition formelle de la fonction Gamma $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant des variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}). 404 404 En utilisant la definition formelle de la fonction Gamma $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant des variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}).
405 405
\begin{equation} 406 406 \begin{equation}
\Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx 407 407 \Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx
\label{eqGamma1} 408 408 \label{eqGamma1}
\end{equation} 409 409 \end{equation}
410 410
\begin{equation} 411 411 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1} 412 412 Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{f2beta} 413 413 \label{f2beta}
\end{equation} 414 414 \end{equation}
415 415
En exprimant les deux intégrales du denominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue. 416 416 En exprimant les deux intégrales du denominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue.
417 417
\begin{equation} 418 418 \begin{equation}
\int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv 419 419 \int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv
\label{f3Beta} 420 420 \label{f3Beta}
\end{equation} 421 421 \end{equation}
422 422
Après, sont remplacées $u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$, avec le résultat du Jacobien \ref{eqJac}, alors l'expression finale est comme montre l'équation \ref{f4Beta}. 423 423 Après, sont remplacées $u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$, avec le résultat du Jacobien \ref{eqJac}, alors l'expression finale est comme montre l'équation \ref{f4Beta}.
424 424
\begin{equation} 425 425 \begin{equation}
\left ( 426 426 \left (
\begin{matrix} 427 427 \begin{matrix}
\frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\ 428 428 \frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\
\frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\ 429 429 \frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\
\end{matrix} 430 430 \end{matrix}
\right ) = 431 431 \right ) =
\left ( 432 432 \left (
\begin{matrix} 433 433 \begin{matrix}
sdt & tds \\ 434 434 sdt & tds \\
-sdt & (1-t)ds\\ 435 435 -sdt & (1-t)ds\\
\end{matrix} 436 436 \end{matrix}
\right ) = s \; dtds 437 437 \right ) = s \; dtds
\label{eqJac} 438 438 \label{eqJac}
\end{equation} 439 439 \end{equation}
440 440
\begin{equation} 441 441 \begin{equation}
\int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt 442 442 \int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt
\label{f4Beta} 443 443 \label{f4Beta}
\end{equation} 444 444 \end{equation}
445 445
Si les intégrales sont exprimées en fonction des variables indépendantes $s$ et $t$ l'équation \ref{f5Beta} est générée. 446 446 Si les intégrales sont exprimées en fonction des variables indépendantes $s$ et $t$ l'équation \ref{f5Beta} est générée.
447 447
\begin{equation} 448 448 \begin{equation}
\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 449 449 \int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
\label{f5Beta} 450 450 \label{f5Beta}
\end{equation} 451 451 \end{equation}
452 452
En plaçant les termes dans l'équation le résultat est l'équation \ref{f6Beta}. 453 453 En plaçant les termes dans l'équation le résultat est l'équation \ref{f6Beta}.
454 454
\begin{equation} 455 455 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 456 456 Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
}\theta^{\alpha-1}(1-\theta)^{\beta-1} 457 457 }\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{f6Beta} 458 458 \label{f6Beta}
\end{equation} 459 459 \end{equation}
460 460
Finalement, la famille de fonctions de distribution Beta peut être exprimée comme l'équation \ref{f7Beta}. Les métriques utilisées dans ce chapitre s'expriment en fonction de cette définition. 461 461 Finalement, la famille de fonctions de distribution Beta peut être exprimée comme l'équation \ref{f7Beta}. Les métriques utilisées dans ce chapitre s'expriment en fonction de cette définition.
462 462
\begin{equation} 463 463 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 464 464 Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
} 465 465 }
\label{f7Beta} 466 466 \label{f7Beta}
\end{equation} 467 467 \end{equation}
468 468
L'évolution de l'algorithme de recommandation TS est établie par le changement des distributions de probabilité, mais au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude, sous la forme d'une métrique qui détermine numériquement les différences entre elles. L'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'information nécessaire pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. La divergence de Kullback-Liebler (équation \ref{dkl}) est largement utilisée, mais elle présente l'inconvénient de ne pas pouvoir être utilisée comme métrique dans certains cas, car il ne s'agit pas d'une mesure symétrique, $D_{KL}(p,q) \neq D_{KL}(q,p)$, elle ne satisfait pas à l'inégalité triangulaire et elle n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon. 469 469 L'évolution de l'algorithme de recommandation TS est établie par le changement des distributions de probabilité, mais au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude, sous la forme d'une métrique qui détermine numériquement les différences entre elles. L'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'information nécessaire pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. La divergence de Kullback-Liebler (équation \ref{dkl}) est largement utilisée, mais elle présente l'inconvénient de ne pas pouvoir être utilisée comme métrique dans certains cas, car il ne s'agit pas d'une mesure symétrique, $D_{KL}(p,q) \neq D_{KL}(q,p)$, elle ne satisfait pas à l'inégalité triangulaire et elle n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon.
470 470
\begin{equation} 471 471 \begin{equation}
D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx 472 472 D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx
\label{dkl} 473 473 \label{dkl}
\end{equation} 474 474 \end{equation}
475 475
La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler, à la différence qu'une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$, l'équation \ref{djs2} montre comment elle est calculée. La divergence de Jensen-Shannon est un mélange de distributions de probabilités fondé sur $p(x)$ et $q(x)$. 476 476 La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler, à la différence qu'une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$, l'équation \ref{djs2} montre comment elle est calculée. La divergence de Jensen-Shannon est un mélange de distributions de probabilités fondé sur $p(x)$ et $q(x)$.
477 477
%Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\ 478 478 %Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\
479 479
\begin{equation} 480 480 \begin{equation}
D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x)) 481 481 D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x))
\label{djs} 482 482 \label{djs}
\end{equation} 483 483 \end{equation}
484 484
\begin{equation} 485 485 \begin{equation}
m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x) 486 486 m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x)
\label{djs2} 487 487 \label{djs2}
\end{equation} 488 488 \end{equation}
489 489
Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine. 490 490 Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine.
491 491
La prédiction utilisée dans le modèle proposé est fondée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement à partir de cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle fondé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet fondé sur le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation dans le raisonnement à partir de cas. 492 492 La prédiction utilisée dans le modèle proposé est fondée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement à partir de cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle fondé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet fondé sur le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation dans le raisonnement à partir de cas.
493 493
\subsection{Modèle Proposé} 494 494 \subsection{Modèle Proposé}
495 495
Le modèle proposé est une intégration du modèle d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec le raisonnement à partir de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée. 496 496 Le modèle proposé est une intégration du modèle d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec le raisonnement à partir de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée.
497 497
L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en utilisant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec RàPC). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel}, où l'on peut voir que les deux modèles TS et RàPC sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui est calculée avec l'expression \ref{eqMixModels_}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}. 498 498 L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en utilisant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec RàPC). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel}, où l'on peut voir que les deux modèles TS et RàPC sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui est calculée avec l'expression \ref{eqMixModels_}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}.
499 499
\begin{figure} 500 500 \begin{figure}
\centering 501 501 \centering
\includegraphics[width=0.7\linewidth]{Figures/Model.png} 502 502 \includegraphics[width=0.7\linewidth]{Figures/Model.png}
\caption{Schéma de l'architecture du modèle proposé} 503 503 \caption{Schéma de l'architecture du modèle proposé}
\label{fig:Amodel} 504 504 \label{fig:Amodel}
\end{figure} 505 505 \end{figure}
506 506
La première étape est l'adaptation avec l'échantillonnage de Thompson, puis la prédiction ECBR-SMA et enfin la prise de décision à envoyer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité de l'apprenant et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées. 507 507 La première étape est l'adaptation avec l'échantillonnage de Thompson, puis la prédiction ECBR-SMA et enfin la prise de décision à envoyer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité de l'apprenant et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées.
508 508
\begin{table}[!ht] 509 509 \begin{table}[!ht]
\centering 510 510 \centering
\footnotesize 511 511 \footnotesize
\begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c} 512 512 \begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c}
ID&Type&Description&Domain\\ 513 513 ID&Type&Description&Domain\\
\hline 514 514 \hline
$\alpha$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\ 515 515 $\alpha$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\
$\beta$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\ 516 516 $\beta$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\
$t$&p&Temps défini comme itérations&$\mathbb{N}$\\ 517 517 $t$&p&Temps défini comme itérations&$\mathbb{N}$\\
$c$&p&Niveau de complexité&$\mathbb{N}$\\ 518 518 $c$&p&Niveau de complexité&$\mathbb{N}$\\
519 $x_c$&p&Mean grades for complexity level $c$&$\mathbb{R}$\\
520 $y_c$&p&Number of questions for complexity level $c$&$\mathbb{N}$\\
521 $r$&f&Recommender metric function&$[0,1] \in \mathbb{R}$\\
$k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ 519 522 $k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\
$vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\ 520 523 $vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\
$TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ 521 524 $TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\
$TSN_c$&v&Normalization de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\ 522 525 $TSN_c$&v&Normalization de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\
$ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\ 523 526 $ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\
$p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\ 524 527 $p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\
$D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\ 525 528 $D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\
526 529
\end{tabular} 527 530 \end{tabular}
\caption{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées} 528 531 \caption{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées}
\label{tabvp} 529 532 \label{tabvp}
\end{table} 530 533 \end{table}
531 534
L'intégration se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le modèle TS (équation \ref{IntEq1_}), une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée comme indiqué dans l'équation \ref{IntEq2_}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par le modèle ESCBR-SMA, comme le montre l'équation \ref{eqMixModels_}. 532 535 L'intégration se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le modèle TS (équation \ref{IntEq1_}), une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée comme indiqué dans l'équation \ref{IntEq2_}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par le modèle ESCBR-SMA, comme le montre l'équation \ref{eqMixModels_}.
533 536
\begin{equation} 534 537 \begin{equation}
TS_c=rand(Beta(\alpha_c, \beta_c)) 535 538 TS_c=rand(Beta(\alpha_c, \beta_c))
\label{IntEq1_} 536 539 \label{IntEq1_}
\end{equation} 537 540 \end{equation}
538 541
\begin{equation} 539 542 \begin{equation}
TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i} 540 543 TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i}
\label{IntEq2_} 541 544 \label{IntEq2_}
\end{equation} 542 545 \end{equation}
543 546
\begin{equation} 544 547 \begin{equation}
n_c=argmax_c(TSN_c*ESCBR_c) 545 548 n_c=argmax_c(TSN_c*ESCBR_c)
\label{eqMixModels_} 546 549 \label{eqMixModels_}
\end{equation} 547 550 \end{equation}
548 551
Avec les valeurs finales calculées pour chaque niveau de complexité, le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels_}). Le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels_}). 549 552 Avec les valeurs finales calculées pour chaque niveau de complexité, le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels_}). Le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels_}).
550 553
\subsection{Résultats et Discussion} 551 554 \subsection{Résultats et Discussion}
552 555
Cette section présente la description de la base de données et les paramètres utilisés pour mesurer la précision, la performance et la progression des connaissances, les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'AI-VT. Cette section présente les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'AI-VT. 553 556 Cette section présente la description de la base de données et les paramètres utilisés pour mesurer la précision, la performance et la progression des connaissances, les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'AI-VT. Cette section présente les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'AI-VT.
554 557
La base de données a été générée avec la distribution logit-normale pour simuler les notes des apprenants, car il s'agit d'un bon modèle pour se rapprocher du monde réel. La base de données représente les notes et les temps de réponse d'un apprenant pour cinq questions à chaque niveau de complexité. 555 558 La base de données a été générée avec la distribution logit-normale pour simuler les notes des apprenants, car il s'agit d'un bon modèle pour se rapprocher du monde réel. La base de données représente les notes et les temps de réponse d'un apprenant pour cinq questions à chaque niveau de complexité.
556 559
Le principal inconvénient de ce système de validation « en situation réelle » est la difficulté de la collecte des données. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulé, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment et que les données peuvent être incomplètes \cite{badier:hal-04092828}. 557 560 Le principal inconvénient de ce système de validation « en situation réelle » est la difficulté de la collecte des données. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulé, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment et que les données peuvent être incomplètes \cite{badier:hal-04092828}.
558 561
Quatre tests différents ont été effectués pour démontrer les avantages de l'intégration de la TS et de la RàPC dans les EIAH. Le premier est l'utilisation du RàPC pour la régression avec une base de données d'apprenants afin de démontrer la capacité du modèle à prédire les notes à différents niveaux de complexité, le deuxième est l'évaluation de la progression des connaissances avec TS afin de déterminer l'efficacité du modèle dans la recommandation personnalisée pour chaque apprenant, La troisième est la comparaison entre les modèles de recommandation BKT et TS afin d'établir la performance du modèle TS en utilisant BKT comme modèle de base et enfin, la comparaison entre TS seul et TS avec ESCBR-SMA pour démontrer que l'intégration entre les deux modèles améliore l'ensemble du système de recommandation dans AI-VT. 559 562 Quatre tests différents ont été effectués pour démontrer les avantages de l'intégration de la TS et de la RàPC dans les EIAH. Le premier est l'utilisation du RàPC pour la régression avec une base de données d'apprenants afin de démontrer la capacité du modèle à prédire les notes à différents niveaux de complexité, le deuxième est l'évaluation de la progression des connaissances avec TS afin de déterminer l'efficacité du modèle dans la recommandation personnalisée pour chaque apprenant, La troisième est la comparaison entre les modèles de recommandation BKT et TS afin d'établir la performance du modèle TS en utilisant BKT comme modèle de base et enfin, la comparaison entre TS seul et TS avec ESCBR-SMA pour démontrer que l'intégration entre les deux modèles améliore l'ensemble du système de recommandation dans AI-VT.
560 563
\subsubsection{Régression dans la base de données des apprenants avec ESCBR-SMA} 561 564 \subsubsection{Régression dans la base de données des apprenants avec ESCBR-SMA}
562 565
Le SMA utilise le raisonnement bayésien, ce qui permet aux agents d'apprendre des données et des interactions au cours de l'exécution et de l'exploration. 563 566 Le SMA utilise le raisonnement bayésien, ce qui permet aux agents d'apprendre des données et des interactions au cours de l'exécution et de l'exploration.
564 567
L'algorithme utilise une fonction noyau pour obtenir la meilleure approximation de la solution du nouveau problème, le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions. Le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions \cite{doi:10.1137/23M1592420}. 565 568 L'algorithme utilise une fonction noyau pour obtenir la meilleure approximation de la solution du nouveau problème, le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions. Le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions \cite{doi:10.1137/23M1592420}.
566 569
La première série de tests est définie sous la forme de différents scénarios, comme le montre le tableau \ref{tab:scenarios}. Dans le scénario 1 (E1), il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario 2 (E2) contient les notes de 8 questions et l'objectif est de prédire la note de 9 questions dans le même niveau de complexité. Le scénario 3 (E3) contient les données permettant de prédire le passage à un niveau de complexité supérieur après 4 questions. Le scénario 4 (E4) contient 4 questions et la prédiction de 2 notes dans un niveau de complexité supérieur. 567 570 La première série de tests est définie sous la forme de différents scénarios, comme le montre le tableau \ref{tab:scenarios}. Dans le scénario 1 (E1), il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario 2 (E2) contient les notes de 8 questions et l'objectif est de prédire la note de 9 questions dans le même niveau de complexité. Le scénario 3 (E3) contient les données permettant de prédire le passage à un niveau de complexité supérieur après 4 questions. Le scénario 4 (E4) contient 4 questions et la prédiction de 2 notes dans un niveau de complexité supérieur.
568 571
\begin{table}[!ht] 569 572 \begin{table}[!ht]
\centering 570 573 \centering
\begin{tabular}{ccc} 571 574 \begin{tabular}{ccc}
Scenario&Features&Output Dimension\\ 572 575 Scenario&Features&Output Dimension\\
\hline 573 576 \hline
E1 & 5 & 1\\ 574 577 E1 & 5 & 1\\
E2 & 15& 1\\ 575 578 E2 & 15& 1\\
E3 & 9 & 1\\ 576 579 E3 & 9 & 1\\
E4 & 9 & 2\\ 577 580 E4 & 9 & 2\\
\end{tabular} 578 581 \end{tabular}
\caption{Description des scénarios} 579 582 \caption{Description des scénarios}
\label{tab:scenarios} 580 583 \label{tab:scenarios}
\end{table} 581 584 \end{table}
582 585
Le modèle a été comparé à neuf algorithmes bien connus utilisés pour résoudre les problèmes de régression. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}. 583 586 Le modèle a été comparé à neuf algorithmes bien connus utilisés pour résoudre les problèmes de régression. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}.
584 587
\begin{table}[!ht] 585 588 \begin{table}[!ht]
\centering 586 589 \centering
\footnotesize 587 590 \footnotesize
\begin{tabular}{ll|ll} 588 591 \begin{tabular}{ll|ll}
ID&Algorithm&ID&Algorithm\\ 589 592 ID&Algorithm&ID&Algorithm\\
\hline 590 593 \hline
A1&Linear Regression&A6&Polinomial Regression\\ 591 594 A1&Linear Regression&A6&Polinomial Regression\\
A2&K-Nearest Neighbor&A7&Ridge Regression\\ 592 595 A2&K-Nearest Neighbor&A7&Ridge Regression\\
A3&Decision Tree&A8&Lasso Regression\\ 593 596 A3&Decision Tree&A8&Lasso Regression\\
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ 594 597 A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\
A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\\ 595 598 A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\\
\end{tabular} 596 599 \end{tabular}
\caption{Liste des algorithmes évalués } 597 600 \caption{Liste des algorithmes évalués }
\label{tabAlgs} 598 601 \label{tabAlgs}
\end{table} 599 602 \end{table}
600 603
Les algorithmes ont été évalués à l'aide de trois mesures (Root Mean Squared Error - RMSE, Median Absolute Error - MedAE, Mean Absolute Error - MAE), dont les résultats figurent dans le tableau \ref{tab:results}, où l'on constate que l'algorithme proposé obtient de meilleurs résultats que les autres algorithmes avec lesquels il a été comparé, sauf dans les cas E1(MedAE), E1(MAE), E2(MedAE), E2(MAE), E3 et E4(MedAE) où les meilleurs résultats sont obtenus par l'algorithme A9, mais l'algorithme proposé occupe la deuxième place dans ces cas avec des résultats très proches. Il est possible de conclure que l'intégration de plusieurs algorithmes de recherche et de génération de solutions dans le cadre des paradigmes RàPC et Stacking est efficace dans le cas de l'application à la prédiction des notes des apprenants. 601 604 Les algorithmes ont été évalués à l'aide de trois mesures (Root Mean Squared Error - RMSE, Median Absolute Error - MedAE, Mean Absolute Error - MAE), dont les résultats figurent dans le tableau \ref{tab:results}, où l'on constate que l'algorithme proposé obtient de meilleurs résultats que les autres algorithmes avec lesquels il a été comparé, sauf dans les cas E1(MedAE), E1(MAE), E2(MedAE), E2(MAE), E3 et E4(MedAE) où les meilleurs résultats sont obtenus par l'algorithme A9, mais l'algorithme proposé occupe la deuxième place dans ces cas avec des résultats très proches. Il est possible de conclure que l'intégration de plusieurs algorithmes de recherche et de génération de solutions dans le cadre des paradigmes RàPC et Stacking est efficace dans le cas de l'application à la prédiction des notes des apprenants.
602 605
\begin{table}[!ht] 603 606 \begin{table}[!ht]
\centering 604 607 \centering
\footnotesize 605 608 \footnotesize
\begin{tabular}{c|cccccccccc} 606 609 \begin{tabular}{c|cccccccccc}
&\multicolumn{10}{c}{\textbf{Algorithme}}\\ 607 610 &\multicolumn{10}{c}{\textbf{Algorithme}}\\
\hline 608 611 \hline
& A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ 609 612 & A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
\textbf{Scenario (Metrique)}\\ 610 613 \textbf{Scenario (Metrique)}\\
\hline 611 614 \hline
E1 (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\ 612 615 E1 (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\
E1 (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\ 613 616 E1 (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\
E1 (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\ 614 617 E1 (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\
\hline 615 618 \hline
E2 (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\ 616 619 E2 (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\
E2 (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\ 617 620 E2 (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\
E2 (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\ 618 621 E2 (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\
\hline 619 622 \hline
E3 (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\ 620 623 E3 (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\
E3 (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\ 621 624 E3 (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\
E3 (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\ 622 625 E3 (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\
\hline 623 626 \hline
E4 (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\ 624 627 E4 (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\
E4 (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\ 625 628 E4 (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\
E4 (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\ 626 629 E4 (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\
\end{tabular} 627 630 \end{tabular}
\caption{Résultats de la régression pour la base de données des apprenants avec 100 exécutions} 628 631 \caption{Résultats de la régression pour la base de données des apprenants avec 100 exécutions}
\label{tab:results} 629 632 \label{tab:results}
\end{table} 630 633 \end{table}
631 634
\subsubsection{Progression des connaissances} 632 635 \subsubsection{Progression des connaissances}
633 636
Le modèle de recommandation TS est fondé sur le paradigme bayésien, ce qui est très utile lorsque les données sont limitées et l'incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ fois a été utilisée comme second test. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). 634 637 Le modèle de recommandation TS est fondé sur le paradigme bayésien, ce qui est très utile lorsque les données sont limitées et l'incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ fois a été utilisée comme second test. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
635 638
%\begin{equation} 636 639 %\begin{equation}
\begin{multline} 637 640 \begin{multline}
k_{t,c}=\frac{1}{2} 638 641 k_{t,c}=\frac{1}{2}
\int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx 639 642 \int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx
\\ 640 643 \\
+\frac{1}{2} 641 644 +\frac{1}{2}
\int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx 642 645 \int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx
\label{eqprog1} 643 646 \label{eqprog1}
\end{multline} 644 647 \end{multline}
%\end{equation} 645 648 %\end{equation}
646 649
\begin{multline} 647 650 \begin{multline}
m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\ 648 651 m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\
+\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right ) 649 652 +\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right )
%\end{equation} 650 653 %\end{equation}
\label{eqprog2} 651 654 \label{eqprog2}
\end{multline} 652 655 \end{multline}
653 656
La progression totale des connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). en utilisant l'évaluation de la progression de la variabilité (équation \ref{eqVarP}). 654 657 La progression totale des connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). en utilisant l'évaluation de la progression de la variabilité (équation \ref{eqVarP}).
655 658
\begin{equation} 656 659 \begin{equation}
vk_{t,c}=\begin{cases} 657 660 vk_{t,c}=\begin{cases}
D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\ 658 661 D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\
-D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise 659 662 -D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise
\end{cases} 660 663 \end{cases}
\label{eqVarP} 661 664 \label{eqVarP}
\end{equation} 662 665 \end{equation}
663 666
\begin{equation} 664 667 \begin{equation}
k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0} 665 668 k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0}
\begin{cases} 666 669 \begin{cases}
\alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\ 667 670 \alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\
0;&Otherwise 668 671 0;&Otherwise
\end{cases} 669 672 \end{cases}
\label{eqTEK} 670 673 \label{eqTEK}
\end{equation} 671 674 \end{equation}
672 675
\begin{figure}[!ht] 673 676 \begin{figure}[!ht]
\centering 674 677 \centering
\includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg} 675 678 \includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg}
\caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon} 676 679 \caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon}
\label{fig:evolution} 677 680 \label{fig:evolution}
\end{figure} 678 681 \end{figure}
679 682
La figure \ref{fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une seule séance de formation. Entre la première et la dernière question de la même séance, tous les apprenants ont statistiquement augmenté leur niveau de connaissance puisque la moyenne a augmenté, la variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants, à partir de là la variabilité diminue et la moyenne augmente. La figure {fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une même séance de formation. 680 683 La figure \ref{fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une seule séance de formation. Entre la première et la dernière question de la même séance, tous les apprenants ont statistiquement augmenté leur niveau de connaissance puisque la moyenne a augmenté, la variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants, à partir de là la variabilité diminue et la moyenne augmente. La figure {fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une même séance de formation.
681 684
\subsubsection{Comparaison entre TS et BKT} 682 685 \subsubsection{Comparaison entre TS et BKT}
683 686
L'évolution du système de recommandation TS est testée en comparaison avec BKT, la figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le modèle TS génère moins de variabilité que BKT, mais si est faite la comparaison des moyennes générées par chaque question, l'évolution est très similaire. La figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent au cours de la même séance. 684 687 L'évolution du système de recommandation TS est testée en comparaison avec BKT, la figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le modèle TS génère moins de variabilité que BKT, mais si est faite la comparaison des moyennes générées par chaque question, l'évolution est très similaire. La figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent au cours de la même séance.
685 688
\begin{figure}[!ht] 686 689 \begin{figure}[!ht]
\centering 687 690 \centering
\includegraphics[width=\textwidth]{Figures/GradesEv.jpg} 688 691 \includegraphics[width=\textwidth]{Figures/GradesEv.jpg}
\caption{Comparaison de l'évolution des notes entre les algorithmes BKT et TS} 689 692 \caption{Comparaison de l'évolution des notes entre les algorithmes BKT et TS}
\label{fig:EvGrades} 690 693 \label{fig:EvGrades}
\end{figure} 691 694 \end{figure}
692 695
Mais, si les résultats obtenus sont comparés par rapport à l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), le modèle TS fait évoluer le niveau de complexité des apprenants, alors que le modèle BKT a tendance à laisser les apprenants au même niveau de complexité, c'est-à-dire qu'avec le modèle BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En examinant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}) et en établissant des comparaisons, le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité.\N- Le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité. Le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité. 693 696 Mais, si les résultats obtenus sont comparés par rapport à l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), le modèle TS fait évoluer le niveau de complexité des apprenants, alors que le modèle BKT a tendance à laisser les apprenants au même niveau de complexité, c'est-à-dire qu'avec le modèle BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En examinant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}) et en établissant des comparaisons, le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité.\N- Le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité. Le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité.
694 697
\begin{figure}[!ht] 695 698 \begin{figure}[!ht]
\centering 696 699 \centering
\includegraphics[width=\textwidth]{Figures/LevelsEv.jpg} 697 700 \includegraphics[width=\textwidth]{Figures/LevelsEv.jpg}
\caption{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS} 698 701 \caption{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS}
\label{fig:EvCL} 699 702 \label{fig:EvCL}
\end{figure} 700 703 \end{figure}
701 704
\subsubsection{Système de recommandation avec ESCBR-SMA} 702 705 \subsubsection{Système de recommandation avec ESCBR-SMA}
703 706
Le troisième test est l'intégration entre deux modèles. Cette combinaison est faite fondée sur le paradoxe de Stein, en essayant de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (Thomson sampling recommender) et le filtre collaboratif (Case-base reasoning prediction) pour améliorer la personnalisation. Le test est une comparaison entre le système de recommandation TS et le système de recommandation TS avec la prédiction ESCBR-SMA afin de déterminer si l'intégration des deux modèles permet d'améliorer l'évolution du processus d'apprentissage proposé par le système AI-VT. 704 707 Le troisième test est l'intégration entre deux modèles. Cette combinaison est faite fondée sur le paradoxe de Stein, en essayant de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (Thomson sampling recommender) et le filtre collaboratif (Case-base reasoning prediction) pour améliorer la personnalisation. Le test est une comparaison entre le système de recommandation TS et le système de recommandation TS avec la prédiction ESCBR-SMA afin de déterminer si l'intégration des deux modèles permet d'améliorer l'évolution du processus d'apprentissage proposé par le système AI-VT.
705 708
La comparaison est effectuée après la question 6 pour tous les apprenants, car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité pour la question suivante. 706 709 La comparaison est effectuée après la question 6 pour tous les apprenants, car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité pour la question suivante.
707 710
\subsubsection{Progression des connaissances TS vs TS et ESCBR-SMA} 708 711 \subsubsection{Progression des connaissances TS vs TS et ESCBR-SMA}
709 712
Pour établir la différence entre le modèle de recommandation TS et le même modèle associé à la prédiction fondée sur le raisonnement à partir de cas ESCBR-SMA, le quatrième test est défini en utilisant la métrique de Jensen-Shannon, mais dans ce cas la comparaison est faite entre les différents modèles (TS, TS-ESCBR) sur le même niveau de complexité dans le même temps $t$. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}. 710 713 Pour établir la différence entre le modèle de recommandation TS et le même modèle associé à la prédiction fondée sur le raisonnement à partir de cas ESCBR-SMA, le quatrième test est défini en utilisant la métrique de Jensen-Shannon, mais dans ce cas la comparaison est faite entre les différents modèles (TS, TS-ESCBR) sur le même niveau de complexité dans le même temps $t$. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}.
711 714
\begin{multline} 712 715 \begin{multline}
k_{t,c}=\frac{1}{2} 713 716 k_{t,c}=\frac{1}{2}
\int_{0}^{1}p_c(\alpha_{p1,t},\beta_{p1,t},x) 714 717 \int_{0}^{1}p_c(\alpha_{p1,t},\beta_{p1,t},x)
This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 27 JUN 2025 14:24 1 1 This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 27 JUN 2025 22:44
entering extended mode 2 2 entering extended mode
restricted \write18 enabled. 3 3 restricted \write18 enabled.
%&-line parsing enabled. 4 4 %&-line parsing enabled.
**main.tex 5 5 **main.tex
(./main.tex 6 6 (./main.tex
LaTeX2e <2022-11-01> patch level 1 7 7 LaTeX2e <2022-11-01> patch level 1
L3 programming layer <2023-05-22> (./spimufcphdthesis.cls 8 8 L3 programming layer <2023-05-22> (./spimufcphdthesis.cls
Document Class: spimufcphdthesis 2022/02/10 9 9 Document Class: spimufcphdthesis 2022/02/10
10 10
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-docum 11 11 (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-docum
ent.cls 12 12 ent.cls
Document Class: upmethodology-document 2022/10/04 13 13 Document Class: upmethodology-document 2022/10/04
(./upmethodology-p-common.sty 14 14 (./upmethodology-p-common.sty
Package: upmethodology-p-common 2015/04/24 15 15 Package: upmethodology-p-common 2015/04/24
16 16
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/ifthen.sty 17 17 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/ifthen.sty
Package: ifthen 2022/04/13 v1.1d Standard LaTeX ifthen package (DPC) 18 18 Package: ifthen 2022/04/13 v1.1d Standard LaTeX ifthen package (DPC)
) 19 19 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/xspace.sty 20 20 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/xspace.sty
Package: xspace 2014/10/28 v1.13 Space after command names (DPC,MH) 21 21 Package: xspace 2014/10/28 v1.13 Space after command names (DPC,MH)
) 22 22 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/xcolor/xcolor.sty 23 23 (/usr/local/texlive/2023/texmf-dist/tex/latex/xcolor/xcolor.sty
Package: xcolor 2022/06/12 v2.14 LaTeX color extensions (UK) 24 24 Package: xcolor 2022/06/12 v2.14 LaTeX color extensions (UK)
25 25
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/color.cfg 26 26 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/color.cfg
File: color.cfg 2016/01/02 v1.6 sample color configuration 27 27 File: color.cfg 2016/01/02 v1.6 sample color configuration
) 28 28 )
Package xcolor Info: Driver file: pdftex.def on input line 227. 29 29 Package xcolor Info: Driver file: pdftex.def on input line 227.
30 30
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-def/pdftex.def 31 31 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-def/pdftex.def
File: pdftex.def 2022/09/22 v1.2b Graphics/color driver for pdftex 32 32 File: pdftex.def 2022/09/22 v1.2b Graphics/color driver for pdftex
) 33 33 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/mathcolor.ltx) 34 34 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/mathcolor.ltx)
Package xcolor Info: Model `cmy' substituted by `cmy0' on input line 1353. 35 35 Package xcolor Info: Model `cmy' substituted by `cmy0' on input line 1353.
Package xcolor Info: Model `hsb' substituted by `rgb' on input line 1357. 36 36 Package xcolor Info: Model `hsb' substituted by `rgb' on input line 1357.
Package xcolor Info: Model `RGB' extended on input line 1369. 37 37 Package xcolor Info: Model `RGB' extended on input line 1369.
Package xcolor Info: Model `HTML' substituted by `rgb' on input line 1371. 38 38 Package xcolor Info: Model `HTML' substituted by `rgb' on input line 1371.
Package xcolor Info: Model `Hsb' substituted by `hsb' on input line 1372. 39 39 Package xcolor Info: Model `Hsb' substituted by `hsb' on input line 1372.
Package xcolor Info: Model `tHsb' substituted by `hsb' on input line 1373. 40 40 Package xcolor Info: Model `tHsb' substituted by `hsb' on input line 1373.
Package xcolor Info: Model `HSB' substituted by `hsb' on input line 1374. 41 41 Package xcolor Info: Model `HSB' substituted by `hsb' on input line 1374.
Package xcolor Info: Model `Gray' substituted by `gray' on input line 1375. 42 42 Package xcolor Info: Model `Gray' substituted by `gray' on input line 1375.
Package xcolor Info: Model `wave' substituted by `hsb' on input line 1376. 43 43 Package xcolor Info: Model `wave' substituted by `hsb' on input line 1376.
) 44 44 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifpdf.sty 45 45 (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifpdf.sty
Package: ifpdf 2019/10/25 v3.4 ifpdf legacy package. Use iftex instead. 46 46 Package: ifpdf 2019/10/25 v3.4 ifpdf legacy package. Use iftex instead.
47 47
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/iftex.sty 48 48 (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/iftex.sty
Package: iftex 2022/02/03 v1.0f TeX engine tests 49 49 Package: iftex 2022/02/03 v1.0f TeX engine tests
)) 50 50 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/UPMVERSION.def)) 51 51 (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/UPMVERSION.def))
*********** UPMETHODOLOGY BOOK CLASS (WITH PART AND CHAPTER) 52 52 *********** UPMETHODOLOGY BOOK CLASS (WITH PART AND CHAPTER)
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/book.cls 53 53 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/book.cls
Document Class: book 2022/07/02 v1.4n Standard LaTeX document class 54 54 Document Class: book 2022/07/02 v1.4n Standard LaTeX document class
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/bk11.clo 55 55 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/bk11.clo
File: bk11.clo 2022/07/02 v1.4n Standard LaTeX file (size option) 56 56 File: bk11.clo 2022/07/02 v1.4n Standard LaTeX file (size option)
) 57 57 )
\c@part=\count185 58 58 \c@part=\count185
\c@chapter=\count186 59 59 \c@chapter=\count186
\c@section=\count187 60 60 \c@section=\count187
\c@subsection=\count188 61 61 \c@subsection=\count188
\c@subsubsection=\count189 62 62 \c@subsubsection=\count189
\c@paragraph=\count190 63 63 \c@paragraph=\count190
\c@subparagraph=\count191 64 64 \c@subparagraph=\count191
\c@figure=\count192 65 65 \c@figure=\count192
\c@table=\count193 66 66 \c@table=\count193
\abovecaptionskip=\skip48 67 67 \abovecaptionskip=\skip48
\belowcaptionskip=\skip49 68 68 \belowcaptionskip=\skip49
\bibindent=\dimen140 69 69 \bibindent=\dimen140
) 70 70 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/a4wide/a4wide.sty 71 71 (/usr/local/texlive/2023/texmf-dist/tex/latex/a4wide/a4wide.sty
Package: a4wide 1994/08/30 72 72 Package: a4wide 1994/08/30
73 73
(/usr/local/texlive/2023/texmf-dist/tex/latex/ntgclass/a4.sty 74 74 (/usr/local/texlive/2023/texmf-dist/tex/latex/ntgclass/a4.sty
Package: a4 2023/01/10 v1.2g A4 based page layout 75 75 Package: a4 2023/01/10 v1.2g A4 based page layout
)) 76 76 ))
(./upmethodology-document.sty 77 77 (./upmethodology-document.sty
Package: upmethodology-document 2015/04/24 78 78 Package: upmethodology-document 2015/04/24
79 79
**** upmethodology-document is using French language **** 80 80 **** upmethodology-document is using French language ****
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/babel.sty 81 81 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/babel.sty
Package: babel 2023/05/11 v3.89 The Babel package 82 82 Package: babel 2023/05/11 v3.89 The Babel package
\babel@savecnt=\count194 83 83 \babel@savecnt=\count194
\U@D=\dimen141 84 84 \U@D=\dimen141
\l@unhyphenated=\language87 85 85 \l@unhyphenated=\language87
86 86
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/txtbabel.def) 87 87 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/txtbabel.def)
\bbl@readstream=\read2 88 88 \bbl@readstream=\read2
\bbl@dirlevel=\count195 89 89 \bbl@dirlevel=\count195
90 90
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf 91 91 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf
Language: french 2023/03/08 v3.5q French support from the babel system 92 92 Language: french 2023/03/08 v3.5q French support from the babel system
Package babel Info: Hyphen rules for 'acadian' set to \l@french 93 93 Package babel Info: Hyphen rules for 'acadian' set to \l@french
(babel) (\language29). Reported on input line 91. 94 94 (babel) (\language29). Reported on input line 91.
Package babel Info: Hyphen rules for 'canadien' set to \l@french 95 95 Package babel Info: Hyphen rules for 'canadien' set to \l@french
(babel) (\language29). Reported on input line 92. 96 96 (babel) (\language29). Reported on input line 92.
\FB@nonchar=\count196 97 97 \FB@nonchar=\count196
Package babel Info: Making : an active character on input line 395. 98 98 Package babel Info: Making : an active character on input line 395.
Package babel Info: Making ; an active character on input line 396. 99 99 Package babel Info: Making ; an active character on input line 396.
Package babel Info: Making ! an active character on input line 397. 100 100 Package babel Info: Making ! an active character on input line 397.
Package babel Info: Making ? an active character on input line 398. 101 101 Package babel Info: Making ? an active character on input line 398.
\FBguill@level=\count197 102 102 \FBguill@level=\count197
\FBold@everypar=\toks16 103 103 \FBold@everypar=\toks16
\FB@Mht=\dimen142 104 104 \FB@Mht=\dimen142
\mc@charclass=\count198 105 105 \mc@charclass=\count198
\mc@charfam=\count199 106 106 \mc@charfam=\count199
\mc@charslot=\count266 107 107 \mc@charslot=\count266
\std@mcc=\count267 108 108 \std@mcc=\count267
\dec@mcc=\count268 109 109 \dec@mcc=\count268
\FB@parskip=\dimen143 110 110 \FB@parskip=\dimen143
\listindentFB=\dimen144 111 111 \listindentFB=\dimen144
\descindentFB=\dimen145 112 112 \descindentFB=\dimen145
\labelindentFB=\dimen146 113 113 \labelindentFB=\dimen146
\labelwidthFB=\dimen147 114 114 \labelwidthFB=\dimen147
\leftmarginFB=\dimen148 115 115 \leftmarginFB=\dimen148
\parindentFFN=\dimen149 116 116 \parindentFFN=\dimen149
\FBfnindent=\dimen150 117 117 \FBfnindent=\dimen150
) 118 118 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/frenchb.ldf 119 119 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/frenchb.ldf
Language: frenchb 2023/03/08 v3.5q French support from the babel system 120 120 Language: frenchb 2023/03/08 v3.5q French support from the babel system
121 121
122 122
Package babel-french Warning: Option `frenchb' for Babel is *deprecated*, 123 123 Package babel-french Warning: Option `frenchb' for Babel is *deprecated*,
(babel-french) it might be removed sooner or later. Please 124 124 (babel-french) it might be removed sooner or later. Please
(babel-french) use `french' instead; reported on input line 35. 125 125 (babel-french) use `french' instead; reported on input line 35.
126 126
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf 127 127 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf
Language: french 2023/03/08 v3.5q French support from the babel system 128 128 Language: french 2023/03/08 v3.5q French support from the babel system
))) 129 129 )))
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/locale/fr/babel-french.te 130 130 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/locale/fr/babel-french.te
x 131 131 x
Package babel Info: Importing font and identification data for french 132 132 Package babel Info: Importing font and identification data for french
(babel) from babel-fr.ini. Reported on input line 11. 133 133 (babel) from babel-fr.ini. Reported on input line 11.
) (/usr/local/texlive/2023/texmf-dist/tex/latex/carlisle/scalefnt.sty) 134 134 ) (/usr/local/texlive/2023/texmf-dist/tex/latex/carlisle/scalefnt.sty)
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/keyval.sty 135 135 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/keyval.sty
Package: keyval 2022/05/29 v1.15 key=value parser (DPC) 136 136 Package: keyval 2022/05/29 v1.15 key=value parser (DPC)
\KV@toks@=\toks17 137 137 \KV@toks@=\toks17
) 138 138 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/vmargin/vmargin.sty 139 139 (/usr/local/texlive/2023/texmf-dist/tex/latex/vmargin/vmargin.sty
Package: vmargin 2004/07/15 V2.5 set document margins (VK) 140 140 Package: vmargin 2004/07/15 V2.5 set document margins (VK)
141 141
Package: vmargin 2004/07/15 V2.5 set document margins (VK) 142 142 Package: vmargin 2004/07/15 V2.5 set document margins (VK)
\PaperWidth=\dimen151 143 143 \PaperWidth=\dimen151
\PaperHeight=\dimen152 144 144 \PaperHeight=\dimen152
) (./upmethodology-extension.sty 145 145 ) (./upmethodology-extension.sty
Package: upmethodology-extension 2012/09/21 146 146 Package: upmethodology-extension 2012/09/21
\upmext@tmp@putx=\skip50 147 147 \upmext@tmp@putx=\skip50
148 148
*** define extension value frontillustrationsize **** 149 149 *** define extension value frontillustrationsize ****
*** define extension value watermarksize **** 150 150 *** define extension value watermarksize ****
*** undefine extension value publisher **** 151 151 *** undefine extension value publisher ****
*** undefine extension value copyrighter **** 152 152 *** undefine extension value copyrighter ****
*** undefine extension value printedin ****) 153 153 *** undefine extension value printedin ****)
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-fmt.s 154 154 (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-fmt.s
ty 155 155 ty
Package: upmethodology-fmt 2022/10/04 156 156 Package: upmethodology-fmt 2022/10/04
**** upmethodology-fmt is using French language **** 157 157 **** upmethodology-fmt is using French language ****
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphicx.sty 158 158 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphicx.sty
Package: graphicx 2021/09/16 v1.2d Enhanced LaTeX Graphics (DPC,SPQR) 159 159 Package: graphicx 2021/09/16 v1.2d Enhanced LaTeX Graphics (DPC,SPQR)
160 160
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphics.sty 161 161 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphics.sty
Package: graphics 2022/03/10 v1.4e Standard LaTeX Graphics (DPC,SPQR) 162 162 Package: graphics 2022/03/10 v1.4e Standard LaTeX Graphics (DPC,SPQR)
163 163
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/trig.sty 164 164 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/trig.sty
Package: trig 2021/08/11 v1.11 sin cos tan (DPC) 165 165 Package: trig 2021/08/11 v1.11 sin cos tan (DPC)
) 166 166 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/graphics.cfg 167 167 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/graphics.cfg
File: graphics.cfg 2016/06/04 v1.11 sample graphics configuration 168 168 File: graphics.cfg 2016/06/04 v1.11 sample graphics configuration
) 169 169 )
Package graphics Info: Driver file: pdftex.def on input line 107. 170 170 Package graphics Info: Driver file: pdftex.def on input line 107.
) 171 171 )
\Gin@req@height=\dimen153 172 172 \Gin@req@height=\dimen153
\Gin@req@width=\dimen154 173 173 \Gin@req@width=\dimen154
) 174 174 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/subcaption.sty 175 175 (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/subcaption.sty
Package: subcaption 2023/02/19 v1.6 Sub-captions (AR) 176 176 Package: subcaption 2023/02/19 v1.6 Sub-captions (AR)
177 177
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption.sty 178 178 (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption.sty
Package: caption 2023/03/12 v3.6j Customizing captions (AR) 179 179 Package: caption 2023/03/12 v3.6j Customizing captions (AR)
180 180
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption3.sty 181 181 (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption3.sty
Package: caption3 2023/03/12 v2.4 caption3 kernel (AR) 182 182 Package: caption3 2023/03/12 v2.4 caption3 kernel (AR)
\caption@tempdima=\dimen155 183 183 \caption@tempdima=\dimen155
\captionmargin=\dimen156 184 184 \captionmargin=\dimen156
\caption@leftmargin=\dimen157 185 185 \caption@leftmargin=\dimen157
\caption@rightmargin=\dimen158 186 186 \caption@rightmargin=\dimen158
\caption@width=\dimen159 187 187 \caption@width=\dimen159
\caption@indent=\dimen160 188 188 \caption@indent=\dimen160
\caption@parindent=\dimen161 189 189 \caption@parindent=\dimen161
\caption@hangindent=\dimen162 190 190 \caption@hangindent=\dimen162
Package caption Info: Standard document class detected. 191 191 Package caption Info: Standard document class detected.
Package caption Info: french babel package is loaded. 192 192 Package caption Info: french babel package is loaded.
) 193 193 )
\c@caption@flags=\count269 194 194 \c@caption@flags=\count269
\c@continuedfloat=\count270 195 195 \c@continuedfloat=\count270
) 196 196 )
Package caption Info: New subtype `subfigure' on input line 239. 197 197 Package caption Info: New subtype `subfigure' on input line 239.
\c@subfigure=\count271 198 198 \c@subfigure=\count271
Package caption Info: New subtype `subtable' on input line 239. 199 199 Package caption Info: New subtype `subtable' on input line 239.
\c@subtable=\count272 200 200 \c@subtable=\count272
) 201 201 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/tabularx.sty 202 202 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/tabularx.sty
Package: tabularx 2020/01/15 v2.11c `tabularx' package (DPC) 203 203 Package: tabularx 2020/01/15 v2.11c `tabularx' package (DPC)
204 204
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/array.sty 205 205 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/array.sty
Package: array 2022/09/04 v2.5g Tabular extension package (FMi) 206 206 Package: array 2022/09/04 v2.5g Tabular extension package (FMi)
\col@sep=\dimen163 207 207 \col@sep=\dimen163
\ar@mcellbox=\box51 208 208 \ar@mcellbox=\box51
\extrarowheight=\dimen164 209 209 \extrarowheight=\dimen164
\NC@list=\toks18 210 210 \NC@list=\toks18
\extratabsurround=\skip51 211 211 \extratabsurround=\skip51
\backup@length=\skip52 212 212 \backup@length=\skip52
\ar@cellbox=\box52 213 213 \ar@cellbox=\box52
) 214 214 )
\TX@col@width=\dimen165 215 215 \TX@col@width=\dimen165
\TX@old@table=\dimen166 216 216 \TX@old@table=\dimen166
\TX@old@col=\dimen167 217 217 \TX@old@col=\dimen167
\TX@target=\dimen168 218 218 \TX@target=\dimen168
\TX@delta=\dimen169 219 219 \TX@delta=\dimen169
\TX@cols=\count273 220 220 \TX@cols=\count273
\TX@ftn=\toks19 221 221 \TX@ftn=\toks19
) 222 222 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/multicol.sty 223 223 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/multicol.sty
Package: multicol 2021/11/30 v1.9d multicolumn formatting (FMi) 224 224 Package: multicol 2021/11/30 v1.9d multicolumn formatting (FMi)
\c@tracingmulticols=\count274 225 225 \c@tracingmulticols=\count274
\mult@box=\box53 226 226 \mult@box=\box53
\multicol@leftmargin=\dimen170 227 227 \multicol@leftmargin=\dimen170
\c@unbalance=\count275 228 228 \c@unbalance=\count275
\c@collectmore=\count276 229 229 \c@collectmore=\count276
\doublecol@number=\count277 230 230 \doublecol@number=\count277
\multicoltolerance=\count278 231 231 \multicoltolerance=\count278
\multicolpretolerance=\count279 232 232 \multicolpretolerance=\count279
\full@width=\dimen171 233 233 \full@width=\dimen171
\page@free=\dimen172 234 234 \page@free=\dimen172
\premulticols=\dimen173 235 235 \premulticols=\dimen173
\postmulticols=\dimen174 236 236 \postmulticols=\dimen174
\multicolsep=\skip53 237 237 \multicolsep=\skip53
\multicolbaselineskip=\skip54 238 238 \multicolbaselineskip=\skip54
\partial@page=\box54 239 239 \partial@page=\box54
\last@line=\box55 240 240 \last@line=\box55
\maxbalancingoverflow=\dimen175 241 241 \maxbalancingoverflow=\dimen175
\mult@rightbox=\box56 242 242 \mult@rightbox=\box56
\mult@grightbox=\box57 243 243 \mult@grightbox=\box57
\mult@firstbox=\box58 244 244 \mult@firstbox=\box58
\mult@gfirstbox=\box59 245 245 \mult@gfirstbox=\box59
\@tempa=\box60 246 246 \@tempa=\box60
\@tempa=\box61 247 247 \@tempa=\box61
\@tempa=\box62 248 248 \@tempa=\box62
\@tempa=\box63 249 249 \@tempa=\box63
\@tempa=\box64 250 250 \@tempa=\box64
\@tempa=\box65 251 251 \@tempa=\box65
\@tempa=\box66 252 252 \@tempa=\box66
\@tempa=\box67 253 253 \@tempa=\box67
\@tempa=\box68 254 254 \@tempa=\box68
\@tempa=\box69 255 255 \@tempa=\box69
\@tempa=\box70 256 256 \@tempa=\box70
\@tempa=\box71 257 257 \@tempa=\box71
\@tempa=\box72 258 258 \@tempa=\box72
\@tempa=\box73 259 259 \@tempa=\box73
\@tempa=\box74 260 260 \@tempa=\box74
\@tempa=\box75 261 261 \@tempa=\box75
\@tempa=\box76 262 262 \@tempa=\box76
\@tempa=\box77 263 263 \@tempa=\box77
\@tempa=\box78 264 264 \@tempa=\box78
\@tempa=\box79 265 265 \@tempa=\box79
\@tempa=\box80 266 266 \@tempa=\box80
\@tempa=\box81 267 267 \@tempa=\box81
\@tempa=\box82 268 268 \@tempa=\box82
\@tempa=\box83 269 269 \@tempa=\box83
\@tempa=\box84 270 270 \@tempa=\box84
\@tempa=\box85 271 271 \@tempa=\box85
\@tempa=\box86 272 272 \@tempa=\box86
\@tempa=\box87 273 273 \@tempa=\box87
\@tempa=\box88 274 274 \@tempa=\box88
\@tempa=\box89 275 275 \@tempa=\box89
\@tempa=\box90 276 276 \@tempa=\box90
\@tempa=\box91 277 277 \@tempa=\box91
\@tempa=\box92 278 278 \@tempa=\box92
\@tempa=\box93 279 279 \@tempa=\box93
\@tempa=\box94 280 280 \@tempa=\box94
\@tempa=\box95 281 281 \@tempa=\box95
\c@minrows=\count280 282 282 \c@minrows=\count280
\c@columnbadness=\count281 283 283 \c@columnbadness=\count281
\c@finalcolumnbadness=\count282 284 284 \c@finalcolumnbadness=\count282
\last@try=\dimen176 285 285 \last@try=\dimen176
\multicolovershoot=\dimen177 286 286 \multicolovershoot=\dimen177
\multicolundershoot=\dimen178 287 287 \multicolundershoot=\dimen178
\mult@nat@firstbox=\box96 288 288 \mult@nat@firstbox=\box96
\colbreak@box=\box97 289 289 \colbreak@box=\box97
\mc@col@check@num=\count283 290 290 \mc@col@check@num=\count283
) 291 291 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/colortbl/colortbl.sty 292 292 (/usr/local/texlive/2023/texmf-dist/tex/latex/colortbl/colortbl.sty
Package: colortbl 2022/06/20 v1.0f Color table columns (DPC) 293 293 Package: colortbl 2022/06/20 v1.0f Color table columns (DPC)
\everycr=\toks20 294 294 \everycr=\toks20
\minrowclearance=\skip55 295 295 \minrowclearance=\skip55
\rownum=\count284 296 296 \rownum=\count284
) 297 297 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/picinpar/picinpar.sty 298 298 (/usr/local/texlive/2023/texmf-dist/tex/latex/picinpar/picinpar.sty
Pictures in Paragraphs. Version 1.3, November 22, 2022 299 299 Pictures in Paragraphs. Version 1.3, November 22, 2022
\br=\count285 300 300 \br=\count285
\bl=\count286 301 301 \bl=\count286
\na=\count287 302 302 \na=\count287
\nb=\count288 303 303 \nb=\count288
\tcdsav=\count289 304 304 \tcdsav=\count289
\tcl=\count290 305 305 \tcl=\count290
\tcd=\count291 306 306 \tcd=\count291
\tcn=\count292 307 307 \tcn=\count292
\cumtcl=\count293 308 308 \cumtcl=\count293
\cumpartcl=\count294 309 309 \cumpartcl=\count294
\lftside=\dimen179 310 310 \lftside=\dimen179
\rtside=\dimen180 311 311 \rtside=\dimen180
\hpic=\dimen181 312 312 \hpic=\dimen181
\vpic=\dimen182 313 313 \vpic=\dimen182
\strutilg=\dimen183 314 314 \strutilg=\dimen183
\picwd=\dimen184 315 315 \picwd=\dimen184
\topheight=\dimen185 316 316 \topheight=\dimen185
\ilg=\dimen186 317 317 \ilg=\dimen186
\lpic=\dimen187 318 318 \lpic=\dimen187
\lwindowsep=\dimen188 319 319 \lwindowsep=\dimen188
\rwindowsep=\dimen189 320 320 \rwindowsep=\dimen189
\cumpar=\dimen190 321 321 \cumpar=\dimen190
\twa=\toks21 322 322 \twa=\toks21
\la=\toks22 323 323 \la=\toks22
\ra=\toks23 324 324 \ra=\toks23
\ha=\toks24 325 325 \ha=\toks24
\pictoc=\toks25 326 326 \pictoc=\toks25
\rawtext=\box98 327 327 \rawtext=\box98
\holder=\box99 328 328 \holder=\box99
\windowbox=\box100 329 329 \windowbox=\box100
\wartext=\box101 330 330 \wartext=\box101
\finaltext=\box102 331 331 \finaltext=\box102
\aslice=\box103 332 332 \aslice=\box103
\bslice=\box104 333 333 \bslice=\box104
\wbox=\box105 334 334 \wbox=\box105
\wstrutbox=\box106 335 335 \wstrutbox=\box106
\picbox=\box107 336 336 \picbox=\box107
\waslice=\box108 337 337 \waslice=\box108
\wbslice=\box109 338 338 \wbslice=\box109
\fslice=\box110 339 339 \fslice=\box110
) (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsmath.sty 340 340 ) (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsmath.sty
Package: amsmath 2022/04/08 v2.17n AMS math features 341 341 Package: amsmath 2022/04/08 v2.17n AMS math features
\@mathmargin=\skip56 342 342 \@mathmargin=\skip56
343 343
For additional information on amsmath, use the `?' option. 344 344 For additional information on amsmath, use the `?' option.
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amstext.sty 345 345 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amstext.sty
Package: amstext 2021/08/26 v2.01 AMS text 346 346 Package: amstext 2021/08/26 v2.01 AMS text
347 347
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsgen.sty 348 348 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsgen.sty
File: amsgen.sty 1999/11/30 v2.0 generic functions 349 349 File: amsgen.sty 1999/11/30 v2.0 generic functions
\@emptytoks=\toks26 350 350 \@emptytoks=\toks26
\ex@=\dimen191 351 351 \ex@=\dimen191
)) 352 352 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsbsy.sty 353 353 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsbsy.sty
Package: amsbsy 1999/11/29 v1.2d Bold Symbols 354 354 Package: amsbsy 1999/11/29 v1.2d Bold Symbols
\pmbraise@=\dimen192 355 355 \pmbraise@=\dimen192
) 356 356 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsopn.sty 357 357 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsopn.sty
Package: amsopn 2022/04/08 v2.04 operator names 358 358 Package: amsopn 2022/04/08 v2.04 operator names
) 359 359 )
\inf@bad=\count295 360 360 \inf@bad=\count295
LaTeX Info: Redefining \frac on input line 234. 361 361 LaTeX Info: Redefining \frac on input line 234.
\uproot@=\count296 362 362 \uproot@=\count296
\leftroot@=\count297 363 363 \leftroot@=\count297
LaTeX Info: Redefining \overline on input line 399. 364 364 LaTeX Info: Redefining \overline on input line 399.
LaTeX Info: Redefining \colon on input line 410. 365 365 LaTeX Info: Redefining \colon on input line 410.
\classnum@=\count298 366 366 \classnum@=\count298
\DOTSCASE@=\count299 367 367 \DOTSCASE@=\count299
LaTeX Info: Redefining \ldots on input line 496. 368 368 LaTeX Info: Redefining \ldots on input line 496.
LaTeX Info: Redefining \dots on input line 499. 369 369 LaTeX Info: Redefining \dots on input line 499.
LaTeX Info: Redefining \cdots on input line 620. 370 370 LaTeX Info: Redefining \cdots on input line 620.
\Mathstrutbox@=\box111 371 371 \Mathstrutbox@=\box111
\strutbox@=\box112 372 372 \strutbox@=\box112
LaTeX Info: Redefining \big on input line 722. 373 373 LaTeX Info: Redefining \big on input line 722.
LaTeX Info: Redefining \Big on input line 723. 374 374 LaTeX Info: Redefining \Big on input line 723.
LaTeX Info: Redefining \bigg on input line 724. 375 375 LaTeX Info: Redefining \bigg on input line 724.
LaTeX Info: Redefining \Bigg on input line 725. 376 376 LaTeX Info: Redefining \Bigg on input line 725.
\big@size=\dimen193 377 377 \big@size=\dimen193
LaTeX Font Info: Redeclaring font encoding OML on input line 743. 378 378 LaTeX Font Info: Redeclaring font encoding OML on input line 743.
LaTeX Font Info: Redeclaring font encoding OMS on input line 744. 379 379 LaTeX Font Info: Redeclaring font encoding OMS on input line 744.
\macc@depth=\count300 380 380 \macc@depth=\count300
LaTeX Info: Redefining \bmod on input line 905. 381 381 LaTeX Info: Redefining \bmod on input line 905.
LaTeX Info: Redefining \pmod on input line 910. 382 382 LaTeX Info: Redefining \pmod on input line 910.
LaTeX Info: Redefining \smash on input line 940. 383 383 LaTeX Info: Redefining \smash on input line 940.
LaTeX Info: Redefining \relbar on input line 970. 384 384 LaTeX Info: Redefining \relbar on input line 970.
LaTeX Info: Redefining \Relbar on input line 971. 385 385 LaTeX Info: Redefining \Relbar on input line 971.
\c@MaxMatrixCols=\count301 386 386 \c@MaxMatrixCols=\count301
\dotsspace@=\muskip16 387 387 \dotsspace@=\muskip16
\c@parentequation=\count302 388 388 \c@parentequation=\count302
\dspbrk@lvl=\count303 389 389 \dspbrk@lvl=\count303
\tag@help=\toks27 390 390 \tag@help=\toks27
\row@=\count304 391 391 \row@=\count304
\column@=\count305 392 392 \column@=\count305
\maxfields@=\count306 393 393 \maxfields@=\count306
\andhelp@=\toks28 394 394 \andhelp@=\toks28
\eqnshift@=\dimen194 395 395 \eqnshift@=\dimen194
\alignsep@=\dimen195 396 396 \alignsep@=\dimen195
\tagshift@=\dimen196 397 397 \tagshift@=\dimen196
\tagwidth@=\dimen197 398 398 \tagwidth@=\dimen197
\totwidth@=\dimen198 399 399 \totwidth@=\dimen198
\lineht@=\dimen199 400 400 \lineht@=\dimen199
\@envbody=\toks29 401 401 \@envbody=\toks29
\multlinegap=\skip57 402 402 \multlinegap=\skip57
\multlinetaggap=\skip58 403 403 \multlinetaggap=\skip58
\mathdisplay@stack=\toks30 404 404 \mathdisplay@stack=\toks30
LaTeX Info: Redefining \[ on input line 2953. 405 405 LaTeX Info: Redefining \[ on input line 2953.
LaTeX Info: Redefining \] on input line 2954. 406 406 LaTeX Info: Redefining \] on input line 2954.
) 407 407 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/amscls/amsthm.sty 408 408 (/usr/local/texlive/2023/texmf-dist/tex/latex/amscls/amsthm.sty
Package: amsthm 2020/05/29 v2.20.6 409 409 Package: amsthm 2020/05/29 v2.20.6
\thm@style=\toks31 410 410 \thm@style=\toks31
\thm@bodyfont=\toks32 411 411 \thm@bodyfont=\toks32
\thm@headfont=\toks33 412 412 \thm@headfont=\toks33
\thm@notefont=\toks34 413 413 \thm@notefont=\toks34
\thm@headpunct=\toks35 414 414 \thm@headpunct=\toks35
\thm@preskip=\skip59 415 415 \thm@preskip=\skip59
\thm@postskip=\skip60 416 416 \thm@postskip=\skip60
\thm@headsep=\skip61 417 417 \thm@headsep=\skip61
\dth@everypar=\toks36 418 418 \dth@everypar=\toks36
) 419 419 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thmtools.sty 420 420 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thmtools.sty
Package: thmtools 2023/05/04 v0.76 421 421 Package: thmtools 2023/05/04 v0.76
\thmt@toks=\toks37 422 422 \thmt@toks=\toks37
\c@thmt@dummyctr=\count307 423 423 \c@thmt@dummyctr=\count307
424 424
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-patch.sty 425 425 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-patch.sty
Package: thm-patch 2023/05/04 v0.76 426 426 Package: thm-patch 2023/05/04 v0.76
427 427
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/parseargs.sty 428 428 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/parseargs.sty
Package: parseargs 2023/05/04 v0.76 429 429 Package: parseargs 2023/05/04 v0.76
\@parsespec=\toks38 430 430 \@parsespec=\toks38
)) 431 431 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-kv.sty 432 432 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-kv.sty
Package: thm-kv 2023/05/04 v0.76 433 433 Package: thm-kv 2023/05/04 v0.76
Package thm-kv Info: Theorem names will be uppercased on input line 42. 434 434 Package thm-kv Info: Theorem names will be uppercased on input line 42.
435 435
(/usr/local/texlive/2023/texmf-dist/tex/latex/kvsetkeys/kvsetkeys.sty 436 436 (/usr/local/texlive/2023/texmf-dist/tex/latex/kvsetkeys/kvsetkeys.sty
Package: kvsetkeys 2022-10-05 v1.19 Key value parser (HO) 437 437 Package: kvsetkeys 2022-10-05 v1.19 Key value parser (HO)
) 438 438 )
Package thm-kv Info: kvsetkeys patch (v1.16 or later) on input line 158. 439 439 Package thm-kv Info: kvsetkeys patch (v1.16 or later) on input line 158.
) 440 440 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-autoref.sty 441 441 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-autoref.sty
Package: thm-autoref 2023/05/04 v0.76 442 442 Package: thm-autoref 2023/05/04 v0.76
443 443
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/aliasctr.sty 444 444 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/aliasctr.sty
Package: aliasctr 2023/05/04 v0.76 445 445 Package: aliasctr 2023/05/04 v0.76
)) 446 446 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-listof.sty 447 447 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-listof.sty
Package: thm-listof 2023/05/04 v0.76 448 448 Package: thm-listof 2023/05/04 v0.76
) 449 449 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-restate.sty 450 450 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-restate.sty
Package: thm-restate 2023/05/04 v0.76 451 451 Package: thm-restate 2023/05/04 v0.76
) 452 452 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-amsthm.sty 453 453 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-amsthm.sty
Package: thm-amsthm 2023/05/04 v0.76 454 454 Package: thm-amsthm 2023/05/04 v0.76
\thmt@style@headstyle=\toks39 455 455 \thmt@style@headstyle=\toks39
)) 456 456 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/pifont.sty 457 457 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/pifont.sty
Package: pifont 2020/03/25 PSNFSS-v9.3 Pi font support (SPQR) 458 458 Package: pifont 2020/03/25 PSNFSS-v9.3 Pi font support (SPQR)
LaTeX Font Info: Trying to load font information for U+pzd on input line 63. 459 459 LaTeX Font Info: Trying to load font information for U+pzd on input line 63.
460 460
461 461
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upzd.fd 462 462 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upzd.fd
File: upzd.fd 2001/06/04 font definitions for U/pzd. 463 463 File: upzd.fd 2001/06/04 font definitions for U/pzd.
) 464 464 )
LaTeX Font Info: Trying to load font information for U+psy on input line 64. 465 465 LaTeX Font Info: Trying to load font information for U+psy on input line 64.
466 466
467 467
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upsy.fd 468 468 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upsy.fd
File: upsy.fd 2001/06/04 font definitions for U/psy. 469 469 File: upsy.fd 2001/06/04 font definitions for U/psy.
)) 470 470 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/setspace/setspace.sty 471 471 (/usr/local/texlive/2023/texmf-dist/tex/latex/setspace/setspace.sty
Package: setspace 2022/12/04 v6.7b set line spacing 472 472 Package: setspace 2022/12/04 v6.7b set line spacing
) 473 473 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/varioref.sty 474 474 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/varioref.sty
Package: varioref 2022/01/09 v1.6f package for extended references (FMi) 475 475 Package: varioref 2022/01/09 v1.6f package for extended references (FMi)
\c@vrcnt=\count308 476 476 \c@vrcnt=\count308
) 477 477 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/txfonts.sty 478 478 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/txfonts.sty
Package: txfonts 2008/01/22 v3.2.1 479 479 Package: txfonts 2008/01/22 v3.2.1
LaTeX Font Info: Redeclaring symbol font `operators' on input line 21. 480 480 LaTeX Font Info: Redeclaring symbol font `operators' on input line 21.
LaTeX Font Info: Overwriting symbol font `operators' in version `normal' 481 481 LaTeX Font Info: Overwriting symbol font `operators' in version `normal'
(Font) OT1/cmr/m/n --> OT1/txr/m/n on input line 21. 482 482 (Font) OT1/cmr/m/n --> OT1/txr/m/n on input line 21.
LaTeX Font Info: Overwriting symbol font `operators' in version `bold' 483 483 LaTeX Font Info: Overwriting symbol font `operators' in version `bold'
(Font) OT1/cmr/bx/n --> OT1/txr/m/n on input line 21. 484 484 (Font) OT1/cmr/bx/n --> OT1/txr/m/n on input line 21.
LaTeX Font Info: Overwriting symbol font `operators' in version `bold' 485 485 LaTeX Font Info: Overwriting symbol font `operators' in version `bold'
(Font) OT1/txr/m/n --> OT1/txr/bx/n on input line 22. 486 486 (Font) OT1/txr/m/n --> OT1/txr/bx/n on input line 22.
\symitalic=\mathgroup4 487 487 \symitalic=\mathgroup4
LaTeX Font Info: Overwriting symbol font `italic' in version `bold' 488 488 LaTeX Font Info: Overwriting symbol font `italic' in version `bold'
(Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 26. 489 489 (Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 26.
LaTeX Font Info: Redeclaring math alphabet \mathbf on input line 29. 490 490 LaTeX Font Info: Redeclaring math alphabet \mathbf on input line 29.
LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `normal' 491 491 LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `normal'
(Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. 492 492 (Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29.
LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `bold' 493 493 LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `bold'
(Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. 494 494 (Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29.
LaTeX Font Info: Redeclaring math alphabet \mathit on input line 30. 495 495 LaTeX Font Info: Redeclaring math alphabet \mathit on input line 30.
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `normal' 496 496 LaTeX Font Info: Overwriting math alphabet `\mathit' in version `normal'
(Font) OT1/cmr/m/it --> OT1/txr/m/it on input line 30. 497 497 (Font) OT1/cmr/m/it --> OT1/txr/m/it on input line 30.
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' 498 498 LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold'
(Font) OT1/cmr/bx/it --> OT1/txr/m/it on input line 30. 499 499 (Font) OT1/cmr/bx/it --> OT1/txr/m/it on input line 30.
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' 500 500 LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold'
(Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 31. 501 501 (Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 31.
LaTeX Font Info: Redeclaring math alphabet \mathsf on input line 40. 502 502 LaTeX Font Info: Redeclaring math alphabet \mathsf on input line 40.
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `normal' 503 503 LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `normal'
(Font) OT1/cmss/m/n --> OT1/txss/m/n on input line 40. 504 504 (Font) OT1/cmss/m/n --> OT1/txss/m/n on input line 40.
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' 505 505 LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold'
(Font) OT1/cmss/bx/n --> OT1/txss/m/n on input line 40. 506 506 (Font) OT1/cmss/bx/n --> OT1/txss/m/n on input line 40.
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' 507 507 LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold'
(Font) OT1/txss/m/n --> OT1/txss/b/n on input line 41. 508 508 (Font) OT1/txss/m/n --> OT1/txss/b/n on input line 41.
LaTeX Font Info: Redeclaring math alphabet \mathtt on input line 50. 509 509 LaTeX Font Info: Redeclaring math alphabet \mathtt on input line 50.
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `normal' 510 510 LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `normal'
(Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. 511 511 (Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50.
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' 512 512 LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold'
(Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. 513 513 (Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50.
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' 514 514 LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold'
(Font) OT1/txtt/m/n --> OT1/txtt/b/n on input line 51. 515 515 (Font) OT1/txtt/m/n --> OT1/txtt/b/n on input line 51.
LaTeX Font Info: Redeclaring symbol font `letters' on input line 58. 516 516 LaTeX Font Info: Redeclaring symbol font `letters' on input line 58.
LaTeX Font Info: Overwriting symbol font `letters' in version `normal' 517 517 LaTeX Font Info: Overwriting symbol font `letters' in version `normal'
(Font) OML/cmm/m/it --> OML/txmi/m/it on input line 58. 518 518 (Font) OML/cmm/m/it --> OML/txmi/m/it on input line 58.
LaTeX Font Info: Overwriting symbol font `letters' in version `bold' 519 519 LaTeX Font Info: Overwriting symbol font `letters' in version `bold'
(Font) OML/cmm/b/it --> OML/txmi/m/it on input line 58. 520 520 (Font) OML/cmm/b/it --> OML/txmi/m/it on input line 58.
LaTeX Font Info: Overwriting symbol font `letters' in version `bold' 521 521 LaTeX Font Info: Overwriting symbol font `letters' in version `bold'
(Font) OML/txmi/m/it --> OML/txmi/bx/it on input line 59. 522 522 (Font) OML/txmi/m/it --> OML/txmi/bx/it on input line 59.
\symlettersA=\mathgroup5 523 523 \symlettersA=\mathgroup5
LaTeX Font Info: Overwriting symbol font `lettersA' in version `bold' 524 524 LaTeX Font Info: Overwriting symbol font `lettersA' in version `bold'
(Font) U/txmia/m/it --> U/txmia/bx/it on input line 67. 525 525 (Font) U/txmia/m/it --> U/txmia/bx/it on input line 67.
LaTeX Font Info: Redeclaring symbol font `symbols' on input line 77. 526 526 LaTeX Font Info: Redeclaring symbol font `symbols' on input line 77.
LaTeX Font Info: Overwriting symbol font `symbols' in version `normal' 527 527 LaTeX Font Info: Overwriting symbol font `symbols' in version `normal'
(Font) OMS/cmsy/m/n --> OMS/txsy/m/n on input line 77. 528 528 (Font) OMS/cmsy/m/n --> OMS/txsy/m/n on input line 77.
LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' 529 529 LaTeX Font Info: Overwriting symbol font `symbols' in version `bold'
(Font) OMS/cmsy/b/n --> OMS/txsy/m/n on input line 77. 530 530 (Font) OMS/cmsy/b/n --> OMS/txsy/m/n on input line 77.
LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' 531 531 LaTeX Font Info: Overwriting symbol font `symbols' in version `bold'
(Font) OMS/txsy/m/n --> OMS/txsy/bx/n on input line 78. 532 532 (Font) OMS/txsy/m/n --> OMS/txsy/bx/n on input line 78.
\symAMSa=\mathgroup6 533 533 \symAMSa=\mathgroup6
LaTeX Font Info: Overwriting symbol font `AMSa' in version `bold' 534 534 LaTeX Font Info: Overwriting symbol font `AMSa' in version `bold'
(Font) U/txsya/m/n --> U/txsya/bx/n on input line 94. 535 535 (Font) U/txsya/m/n --> U/txsya/bx/n on input line 94.
\symAMSb=\mathgroup7 536 536 \symAMSb=\mathgroup7
LaTeX Font Info: Overwriting symbol font `AMSb' in version `bold' 537 537 LaTeX Font Info: Overwriting symbol font `AMSb' in version `bold'
(Font) U/txsyb/m/n --> U/txsyb/bx/n on input line 103. 538 538 (Font) U/txsyb/m/n --> U/txsyb/bx/n on input line 103.
\symsymbolsC=\mathgroup8 539 539 \symsymbolsC=\mathgroup8
LaTeX Font Info: Overwriting symbol font `symbolsC' in version `bold' 540 540 LaTeX Font Info: Overwriting symbol font `symbolsC' in version `bold'
(Font) U/txsyc/m/n --> U/txsyc/bx/n on input line 113. 541 541 (Font) U/txsyc/m/n --> U/txsyc/bx/n on input line 113.
LaTeX Font Info: Redeclaring symbol font `largesymbols' on input line 120. 542 542 LaTeX Font Info: Redeclaring symbol font `largesymbols' on input line 120.
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `normal' 543 543 LaTeX Font Info: Overwriting symbol font `largesymbols' in version `normal'
(Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. 544 544 (Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120.
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' 545 545 LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold'
(Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. 546 546 (Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120.
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' 547 547 LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold'
(Font) OMX/txex/m/n --> OMX/txex/bx/n on input line 121. 548 548 (Font) OMX/txex/m/n --> OMX/txex/bx/n on input line 121.
\symlargesymbolsA=\mathgroup9 549 549 \symlargesymbolsA=\mathgroup9
LaTeX Font Info: Overwriting symbol font `largesymbolsA' in version `bold' 550 550 LaTeX Font Info: Overwriting symbol font `largesymbolsA' in version `bold'
(Font) U/txexa/m/n --> U/txexa/bx/n on input line 129. 551 551 (Font) U/txexa/m/n --> U/txexa/bx/n on input line 129.
LaTeX Font Info: Redeclaring math symbol \mathsterling on input line 164. 552 552 LaTeX Font Info: Redeclaring math symbol \mathsterling on input line 164.
LaTeX Font Info: Redeclaring math symbol \hbar on input line 591. 553 553 LaTeX Font Info: Redeclaring math symbol \hbar on input line 591.
LaTeX Info: Redefining \not on input line 1043. 554 554 LaTeX Info: Redefining \not on input line 1043.
LaTeX Info: Redefining \textsquare on input line 1063. 555 555 LaTeX Info: Redefining \textsquare on input line 1063.
LaTeX Info: Redefining \openbox on input line 1064. 556 556 LaTeX Info: Redefining \openbox on input line 1064.
) 557 557 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/relsize/relsize.sty 558 558 (/usr/local/texlive/2023/texmf-dist/tex/latex/relsize/relsize.sty
Package: relsize 2013/03/29 ver 4.1 559 559 Package: relsize 2013/03/29 ver 4.1
) 560 560 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/xkeyval/xkeyval.sty 561 561 (/usr/local/texlive/2023/texmf-dist/tex/latex/xkeyval/xkeyval.sty
Package: xkeyval 2022/06/16 v2.9 package option processing (HA) 562 562 Package: xkeyval 2022/06/16 v2.9 package option processing (HA)
563 563
(/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkeyval.tex 564 564 (/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkeyval.tex
(/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkvutils.tex 565 565 (/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkvutils.tex
\XKV@toks=\toks40 566 566 \XKV@toks=\toks40
\XKV@tempa@toks=\toks41 567 567 \XKV@tempa@toks=\toks41
) 568 568 )
\XKV@depth=\count309 569 569 \XKV@depth=\count309
File: xkeyval.tex 2014/12/03 v2.7a key=value parser (HA) 570 570 File: xkeyval.tex 2014/12/03 v2.7a key=value parser (HA)
)) 571 571 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyphenat/hyphenat.sty 572 572 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyphenat/hyphenat.sty
Package: hyphenat 2009/09/02 v2.3c hyphenation utilities 573 573 Package: hyphenat 2009/09/02 v2.3c hyphenation utilities
\langwohyphens=\language88 574 574 \langwohyphens=\language88
LaTeX Info: Redefining \_ on input line 43. 575 575 LaTeX Info: Redefining \_ on input line 43.
) 576 576 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/bbm-macros/bbm.sty 577 577 (/usr/local/texlive/2023/texmf-dist/tex/latex/bbm-macros/bbm.sty
Package: bbm 1999/03/15 V 1.2 provides fonts for set symbols - TH 578 578 Package: bbm 1999/03/15 V 1.2 provides fonts for set symbols - TH
LaTeX Font Info: Overwriting math alphabet `\mathbbm' in version `bold' 579 579 LaTeX Font Info: Overwriting math alphabet `\mathbbm' in version `bold'
(Font) U/bbm/m/n --> U/bbm/bx/n on input line 33. 580 580 (Font) U/bbm/m/n --> U/bbm/bx/n on input line 33.
LaTeX Font Info: Overwriting math alphabet `\mathbbmss' in version `bold' 581 581 LaTeX Font Info: Overwriting math alphabet `\mathbbmss' in version `bold'
(Font) U/bbmss/m/n --> U/bbmss/bx/n on input line 35. 582 582 (Font) U/bbmss/m/n --> U/bbmss/bx/n on input line 35.
) 583 583 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/environ/environ.sty 584 584 (/usr/local/texlive/2023/texmf-dist/tex/latex/environ/environ.sty
Package: environ 2014/05/04 v0.3 A new way to define environments 585 585 Package: environ 2014/05/04 v0.3 A new way to define environments
586 586
(/usr/local/texlive/2023/texmf-dist/tex/latex/trimspaces/trimspaces.sty 587 587 (/usr/local/texlive/2023/texmf-dist/tex/latex/trimspaces/trimspaces.sty
Package: trimspaces 2009/09/17 v1.1 Trim spaces around a token list 588 588 Package: trimspaces 2009/09/17 v1.1 Trim spaces around a token list
)) 589 589 ))
\c@upm@subfigure@count=\count310 590 590 \c@upm@subfigure@count=\count310
\c@upm@fmt@mtabular@columnnumber=\count311 591 591 \c@upm@fmt@mtabular@columnnumber=\count311
\c@upm@format@section@sectionlevel=\count312 592 592 \c@upm@format@section@sectionlevel=\count312
\c@upm@fmt@savedcounter=\count313 593 593 \c@upm@fmt@savedcounter=\count313
\c@@@upm@fmt@inlineenumeration=\count314 594 594 \c@@@upm@fmt@inlineenumeration=\count314
\c@@upm@fmt@enumdescription@cnt@=\count315 595 595 \c@@upm@fmt@enumdescription@cnt@=\count315
\upm@framed@minipage=\box113 596 596 \upm@framed@minipage=\box113
\upm@highlight@box@save=\box114 597 597 \upm@highlight@box@save=\box114
\c@upmdefinition=\count316 598 598 \c@upmdefinition=\count316
) 599 599 )
(./upmethodology-version.sty 600 600 (./upmethodology-version.sty
Package: upmethodology-version 2013/08/26 601 601 Package: upmethodology-version 2013/08/26
602 602
**** upmethodology-version is using French language **** 603 603 **** upmethodology-version is using French language ****
\upm@tmp@a=\count317 604 604 \upm@tmp@a=\count317
) 605 605 )
\listendskip=\skip62 606 606 \listendskip=\skip62
) 607 607 )
(./upmethodology-frontpage.sty 608 608 (./upmethodology-frontpage.sty
Package: upmethodology-frontpage 2015/06/26 609 609 Package: upmethodology-frontpage 2015/06/26
610 610
**** upmethodology-frontpage is using French language **** 611 611 **** upmethodology-frontpage is using French language ****
\upm@front@tmpa=\dimen256 612 612 \upm@front@tmpa=\dimen256
\upm@front@tmpb=\dimen257 613 613 \upm@front@tmpb=\dimen257
614 614
*** define extension value frontillustrationsize ****) 615 615 *** define extension value frontillustrationsize ****)
(./upmethodology-backpage.sty 616 616 (./upmethodology-backpage.sty
Package: upmethodology-backpage 2013/12/14 617 617 Package: upmethodology-backpage 2013/12/14
618 618
**** upmethodology-backpage is using French language ****) 619 619 **** upmethodology-backpage is using French language ****)
(/usr/local/texlive/2023/texmf-dist/tex/latex/url/url.sty 620 620 (/usr/local/texlive/2023/texmf-dist/tex/latex/url/url.sty
\Urlmuskip=\muskip17 621 621 \Urlmuskip=\muskip17
Package: url 2013/09/16 ver 3.4 Verb mode for urls, etc. 622 622 Package: url 2013/09/16 ver 3.4 Verb mode for urls, etc.
) 623 623 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hyperref.sty 624 624 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hyperref.sty
Package: hyperref 2023-05-16 v7.00y Hypertext links for LaTeX 625 625 Package: hyperref 2023-05-16 v7.00y Hypertext links for LaTeX
626 626
(/usr/local/texlive/2023/texmf-dist/tex/generic/ltxcmds/ltxcmds.sty 627 627 (/usr/local/texlive/2023/texmf-dist/tex/generic/ltxcmds/ltxcmds.sty
Package: ltxcmds 2020-05-10 v1.25 LaTeX kernel commands for general use (HO) 628 628 Package: ltxcmds 2020-05-10 v1.25 LaTeX kernel commands for general use (HO)
) 629 629 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/pdftexcmds/pdftexcmds.sty 630 630 (/usr/local/texlive/2023/texmf-dist/tex/generic/pdftexcmds/pdftexcmds.sty
Package: pdftexcmds 2020-06-27 v0.33 Utility functions of pdfTeX for LuaTeX (HO 631 631 Package: pdftexcmds 2020-06-27 v0.33 Utility functions of pdfTeX for LuaTeX (HO
) 632 632 )
633 633
(/usr/local/texlive/2023/texmf-dist/tex/generic/infwarerr/infwarerr.sty 634 634 (/usr/local/texlive/2023/texmf-dist/tex/generic/infwarerr/infwarerr.sty
Package: infwarerr 2019/12/03 v1.5 Providing info/warning/error messages (HO) 635 635 Package: infwarerr 2019/12/03 v1.5 Providing info/warning/error messages (HO)
) 636 636 )
Package pdftexcmds Info: \pdf@primitive is available. 637 637 Package pdftexcmds Info: \pdf@primitive is available.
Package pdftexcmds Info: \pdf@ifprimitive is available. 638 638 Package pdftexcmds Info: \pdf@ifprimitive is available.
Package pdftexcmds Info: \pdfdraftmode found. 639 639 Package pdftexcmds Info: \pdfdraftmode found.
) 640 640 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/kvdefinekeys/kvdefinekeys.sty 641 641 (/usr/local/texlive/2023/texmf-dist/tex/generic/kvdefinekeys/kvdefinekeys.sty
Package: kvdefinekeys 2019-12-19 v1.6 Define keys (HO) 642 642 Package: kvdefinekeys 2019-12-19 v1.6 Define keys (HO)
) 643 643 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/pdfescape/pdfescape.sty 644 644 (/usr/local/texlive/2023/texmf-dist/tex/generic/pdfescape/pdfescape.sty
Package: pdfescape 2019/12/09 v1.15 Implements pdfTeX's escape features (HO) 645 645 Package: pdfescape 2019/12/09 v1.15 Implements pdfTeX's escape features (HO)
) 646 646 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/hycolor/hycolor.sty 647 647 (/usr/local/texlive/2023/texmf-dist/tex/latex/hycolor/hycolor.sty
Package: hycolor 2020-01-27 v1.10 Color options for hyperref/bookmark (HO) 648 648 Package: hycolor 2020-01-27 v1.10 Color options for hyperref/bookmark (HO)
) 649 649 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/letltxmacro/letltxmacro.sty 650 650 (/usr/local/texlive/2023/texmf-dist/tex/latex/letltxmacro/letltxmacro.sty
Package: letltxmacro 2019/12/03 v1.6 Let assignment for LaTeX macros (HO) 651 651 Package: letltxmacro 2019/12/03 v1.6 Let assignment for LaTeX macros (HO)
) 652 652 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/auxhook/auxhook.sty 653 653 (/usr/local/texlive/2023/texmf-dist/tex/latex/auxhook/auxhook.sty
Package: auxhook 2019-12-17 v1.6 Hooks for auxiliary files (HO) 654 654 Package: auxhook 2019-12-17 v1.6 Hooks for auxiliary files (HO)
) 655 655 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/nameref.sty 656 656 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/nameref.sty
Package: nameref 2023-05-16 v2.51 Cross-referencing by name of section 657 657 Package: nameref 2023-05-16 v2.51 Cross-referencing by name of section
658 658
(/usr/local/texlive/2023/texmf-dist/tex/latex/refcount/refcount.sty 659 659 (/usr/local/texlive/2023/texmf-dist/tex/latex/refcount/refcount.sty
Package: refcount 2019/12/15 v3.6 Data extraction from label references (HO) 660 660 Package: refcount 2019/12/15 v3.6 Data extraction from label references (HO)
) 661 661 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/gettitlestring/gettitlestring.s 662 662 (/usr/local/texlive/2023/texmf-dist/tex/generic/gettitlestring/gettitlestring.s
ty 663 663 ty
Package: gettitlestring 2019/12/15 v1.6 Cleanup title references (HO) 664 664 Package: gettitlestring 2019/12/15 v1.6 Cleanup title references (HO)
(/usr/local/texlive/2023/texmf-dist/tex/latex/kvoptions/kvoptions.sty 665 665 (/usr/local/texlive/2023/texmf-dist/tex/latex/kvoptions/kvoptions.sty
Package: kvoptions 2022-06-15 v3.15 Key value format for package options (HO) 666 666 Package: kvoptions 2022-06-15 v3.15 Key value format for package options (HO)
)) 667 667 ))
\c@section@level=\count318 668 668 \c@section@level=\count318
) 669 669 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/etoolbox/etoolbox.sty 670 670 (/usr/local/texlive/2023/texmf-dist/tex/latex/etoolbox/etoolbox.sty
Package: etoolbox 2020/10/05 v2.5k e-TeX tools for LaTeX (JAW) 671 671 Package: etoolbox 2020/10/05 v2.5k e-TeX tools for LaTeX (JAW)
\etb@tempcnta=\count319 672 672 \etb@tempcnta=\count319
) 673 673 )
\@linkdim=\dimen258 674 674 \@linkdim=\dimen258
\Hy@linkcounter=\count320 675 675 \Hy@linkcounter=\count320
\Hy@pagecounter=\count321 676 676 \Hy@pagecounter=\count321
677 677
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/pd1enc.def 678 678 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/pd1enc.def
File: pd1enc.def 2023-05-16 v7.00y Hyperref: PDFDocEncoding definition (HO) 679 679 File: pd1enc.def 2023-05-16 v7.00y Hyperref: PDFDocEncoding definition (HO)
Now handling font encoding PD1 ... 680 680 Now handling font encoding PD1 ...
... no UTF-8 mapping file for font encoding PD1 681 681 ... no UTF-8 mapping file for font encoding PD1
) 682 682 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/intcalc/intcalc.sty 683 683 (/usr/local/texlive/2023/texmf-dist/tex/generic/intcalc/intcalc.sty
Package: intcalc 2019/12/15 v1.3 Expandable calculations with integers (HO) 684 684 Package: intcalc 2019/12/15 v1.3 Expandable calculations with integers (HO)
) 685 685 )
\Hy@SavedSpaceFactor=\count322 686 686 \Hy@SavedSpaceFactor=\count322
687 687
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/puenc.def 688 688 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/puenc.def
File: puenc.def 2023-05-16 v7.00y Hyperref: PDF Unicode definition (HO) 689 689 File: puenc.def 2023-05-16 v7.00y Hyperref: PDF Unicode definition (HO)
Now handling font encoding PU ... 690 690 Now handling font encoding PU ...
... no UTF-8 mapping file for font encoding PU 691 691 ... no UTF-8 mapping file for font encoding PU
) 692 692 )
Package hyperref Info: Option `breaklinks' set `true' on input line 4050. 693 693 Package hyperref Info: Option `breaklinks' set `true' on input line 4050.
Package hyperref Info: Option `pageanchor' set `true' on input line 4050. 694 694 Package hyperref Info: Option `pageanchor' set `true' on input line 4050.
Package hyperref Info: Option `bookmarks' set `false' on input line 4050. 695 695 Package hyperref Info: Option `bookmarks' set `false' on input line 4050.
Package hyperref Info: Option `hyperfigures' set `true' on input line 4050. 696 696 Package hyperref Info: Option `hyperfigures' set `true' on input line 4050.
Package hyperref Info: Option `hyperindex' set `true' on input line 4050. 697 697 Package hyperref Info: Option `hyperindex' set `true' on input line 4050.
Package hyperref Info: Option `linktocpage' set `true' on input line 4050. 698 698 Package hyperref Info: Option `linktocpage' set `true' on input line 4050.
Package hyperref Info: Option `bookmarks' set `true' on input line 4050. 699 699 Package hyperref Info: Option `bookmarks' set `true' on input line 4050.
Package hyperref Info: Option `bookmarksopen' set `true' on input line 4050. 700 700 Package hyperref Info: Option `bookmarksopen' set `true' on input line 4050.
Package hyperref Info: Option `bookmarksnumbered' set `true' on input line 4050 701 701 Package hyperref Info: Option `bookmarksnumbered' set `true' on input line 4050
. 702 702 .
Package hyperref Info: Option `colorlinks' set `false' on input line 4050. 703 703 Package hyperref Info: Option `colorlinks' set `false' on input line 4050.
Package hyperref Info: Hyper figures ON on input line 4165. 704 704 Package hyperref Info: Hyper figures ON on input line 4165.
Package hyperref Info: Link nesting OFF on input line 4172. 705 705 Package hyperref Info: Link nesting OFF on input line 4172.
Package hyperref Info: Hyper index ON on input line 4175. 706 706 Package hyperref Info: Hyper index ON on input line 4175.
Package hyperref Info: Plain pages OFF on input line 4182. 707 707 Package hyperref Info: Plain pages OFF on input line 4182.
Package hyperref Info: Backreferencing OFF on input line 4187. 708 708 Package hyperref Info: Backreferencing OFF on input line 4187.
Package hyperref Info: Implicit mode ON; LaTeX internals redefined. 709 709 Package hyperref Info: Implicit mode ON; LaTeX internals redefined.
Package hyperref Info: Bookmarks ON on input line 4434. 710 710 Package hyperref Info: Bookmarks ON on input line 4434.
LaTeX Info: Redefining \href on input line 4683. 711 711 LaTeX Info: Redefining \href on input line 4683.
\c@Hy@tempcnt=\count323 712 712 \c@Hy@tempcnt=\count323
LaTeX Info: Redefining \url on input line 4772. 713 713 LaTeX Info: Redefining \url on input line 4772.
\XeTeXLinkMargin=\dimen259 714 714 \XeTeXLinkMargin=\dimen259
715 715
(/usr/local/texlive/2023/texmf-dist/tex/generic/bitset/bitset.sty 716 716 (/usr/local/texlive/2023/texmf-dist/tex/generic/bitset/bitset.sty
Package: bitset 2019/12/09 v1.3 Handle bit-vector datatype (HO) 717 717 Package: bitset 2019/12/09 v1.3 Handle bit-vector datatype (HO)
718 718
(/usr/local/texlive/2023/texmf-dist/tex/generic/bigintcalc/bigintcalc.sty 719 719 (/usr/local/texlive/2023/texmf-dist/tex/generic/bigintcalc/bigintcalc.sty
Package: bigintcalc 2019/12/15 v1.5 Expandable calculations on big integers (HO 720 720 Package: bigintcalc 2019/12/15 v1.5 Expandable calculations on big integers (HO
) 721 721 )
)) 722 722 ))
\Fld@menulength=\count324 723 723 \Fld@menulength=\count324
\Field@Width=\dimen260 724 724 \Field@Width=\dimen260
\Fld@charsize=\dimen261 725 725 \Fld@charsize=\dimen261
Package hyperref Info: Hyper figures ON on input line 6049. 726 726 Package hyperref Info: Hyper figures ON on input line 6049.
Package hyperref Info: Link nesting OFF on input line 6056. 727 727 Package hyperref Info: Link nesting OFF on input line 6056.
Package hyperref Info: Hyper index ON on input line 6059. 728 728 Package hyperref Info: Hyper index ON on input line 6059.
Package hyperref Info: backreferencing OFF on input line 6066. 729 729 Package hyperref Info: backreferencing OFF on input line 6066.
Package hyperref Info: Link coloring OFF on input line 6071. 730 730 Package hyperref Info: Link coloring OFF on input line 6071.
Package hyperref Info: Link coloring with OCG OFF on input line 6076. 731 731 Package hyperref Info: Link coloring with OCG OFF on input line 6076.
Package hyperref Info: PDF/A mode OFF on input line 6081. 732 732 Package hyperref Info: PDF/A mode OFF on input line 6081.
733 733
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/atbegshi-ltx.sty 734 734 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/atbegshi-ltx.sty
Package: atbegshi-ltx 2021/01/10 v1.0c Emulation of the original atbegshi 735 735 Package: atbegshi-ltx 2021/01/10 v1.0c Emulation of the original atbegshi
package with kernel methods 736 736 package with kernel methods
) 737 737 )
\Hy@abspage=\count325 738 738 \Hy@abspage=\count325
\c@Item=\count326 739 739 \c@Item=\count326
\c@Hfootnote=\count327 740 740 \c@Hfootnote=\count327
) 741 741 )
Package hyperref Info: Driver: hpdftex. 742 742 Package hyperref Info: Driver: hpdftex.
743 743
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hpdftex.def 744 744 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hpdftex.def
File: hpdftex.def 2023-05-16 v7.00y Hyperref driver for pdfTeX 745 745 File: hpdftex.def 2023-05-16 v7.00y Hyperref driver for pdfTeX
746 746
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/atveryend-ltx.sty 747 747 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/atveryend-ltx.sty
Package: atveryend-ltx 2020/08/19 v1.0a Emulation of the original atveryend pac 748 748 Package: atveryend-ltx 2020/08/19 v1.0a Emulation of the original atveryend pac
kage 749 749 kage
with kernel methods 750 750 with kernel methods
) 751 751 )
\Fld@listcount=\count328 752 752 \Fld@listcount=\count328
\c@bookmark@seq@number=\count329 753 753 \c@bookmark@seq@number=\count329
754 754
(/usr/local/texlive/2023/texmf-dist/tex/latex/rerunfilecheck/rerunfilecheck.sty 755 755 (/usr/local/texlive/2023/texmf-dist/tex/latex/rerunfilecheck/rerunfilecheck.sty
Package: rerunfilecheck 2022-07-10 v1.10 Rerun checks for auxiliary files (HO) 756 756 Package: rerunfilecheck 2022-07-10 v1.10 Rerun checks for auxiliary files (HO)
757 757
(/usr/local/texlive/2023/texmf-dist/tex/generic/uniquecounter/uniquecounter.sty 758 758 (/usr/local/texlive/2023/texmf-dist/tex/generic/uniquecounter/uniquecounter.sty
Package: uniquecounter 2019/12/15 v1.4 Provide unlimited unique counter (HO) 759 759 Package: uniquecounter 2019/12/15 v1.4 Provide unlimited unique counter (HO)
) 760 760 )
Package uniquecounter Info: New unique counter `rerunfilecheck' on input line 2 761 761 Package uniquecounter Info: New unique counter `rerunfilecheck' on input line 2
85. 762 762 85.
) 763 763 )
\Hy@SectionHShift=\skip63 764 764 \Hy@SectionHShift=\skip63
) 765 765 )
\upm@smalllogo@height=\dimen262 766 766 \upm@smalllogo@height=\dimen262
) (./spimbasephdthesis.sty 767 767 ) (./spimbasephdthesis.sty
Package: spimbasephdthesis 2015/09/01 768 768 Package: spimbasephdthesis 2015/09/01
769 769
(/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.sty 770 770 (/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.sty
File: lettrine.sty 2023-04-18 v2.40 (Daniel Flipo) 771 771 File: lettrine.sty 2023-04-18 v2.40 (Daniel Flipo)
772 772
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3packages/xfp/xfp.sty 773 773 (/usr/local/texlive/2023/texmf-dist/tex/latex/l3packages/xfp/xfp.sty
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3kernel/expl3.sty 774 774 (/usr/local/texlive/2023/texmf-dist/tex/latex/l3kernel/expl3.sty
Package: expl3 2023-05-22 L3 programming layer (loader) 775 775 Package: expl3 2023-05-22 L3 programming layer (loader)
776 776
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3backend/l3backend-pdftex.def 777 777 (/usr/local/texlive/2023/texmf-dist/tex/latex/l3backend/l3backend-pdftex.def
File: l3backend-pdftex.def 2023-04-19 L3 backend support: PDF output (pdfTeX) 778 778 File: l3backend-pdftex.def 2023-04-19 L3 backend support: PDF output (pdfTeX)
\l__color_backend_stack_int=\count330 779 779 \l__color_backend_stack_int=\count330
\l__pdf_internal_box=\box115 780 780 \l__pdf_internal_box=\box115
)) 781 781 ))
Package: xfp 2023-02-02 L3 Floating point unit 782 782 Package: xfp 2023-02-02 L3 Floating point unit
) 783 783 )
\c@DefaultLines=\count331 784 784 \c@DefaultLines=\count331
\c@DefaultDepth=\count332 785 785 \c@DefaultDepth=\count332
\DefaultFindent=\dimen263 786 786 \DefaultFindent=\dimen263
\DefaultNindent=\dimen264 787 787 \DefaultNindent=\dimen264
\DefaultSlope=\dimen265 788 788 \DefaultSlope=\dimen265
\DiscardVskip=\dimen266 789 789 \DiscardVskip=\dimen266
\L@lbox=\box116 790 790 \L@lbox=\box116
\L@tbox=\box117 791 791 \L@tbox=\box117
\c@L@lines=\count333 792 792 \c@L@lines=\count333
\c@L@depth=\count334 793 793 \c@L@depth=\count334
\L@Pindent=\dimen267 794 794 \L@Pindent=\dimen267
\L@Findent=\dimen268 795 795 \L@Findent=\dimen268
\L@Nindent=\dimen269 796 796 \L@Nindent=\dimen269
\L@lraise=\dimen270 797 797 \L@lraise=\dimen270
\L@first=\dimen271 798 798 \L@first=\dimen271
\L@next=\dimen272 799 799 \L@next=\dimen272
\L@slope=\dimen273 800 800 \L@slope=\dimen273
\L@height=\dimen274 801 801 \L@height=\dimen274
\L@novskip=\dimen275 802 802 \L@novskip=\dimen275
\L@target@ht=\dimen276 803 803 \L@target@ht=\dimen276
\L@target@dp=\dimen277 804 804 \L@target@dp=\dimen277
\L@target@tht=\dimen278 805 805 \L@target@tht=\dimen278
\LettrineWidth=\dimen279 806 806 \LettrineWidth=\dimen279
\LettrineHeight=\dimen280 807 807 \LettrineHeight=\dimen280
\LettrineDepth=\dimen281 808 808 \LettrineDepth=\dimen281
Loading lettrine.cfg 809 809 Loading lettrine.cfg
(/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.cfg) 810 810 (/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.cfg)
\Llist@everypar=\toks42 811 811 \Llist@everypar=\toks42
) 812 812 )
*** define extension value backcovermessage ****) 813 813 *** define extension value backcovermessage ****)
**** including upm extension spimufcphdthesis (upmext-spimufcphdthesis.cfg) *** 814 814 **** including upm extension spimufcphdthesis (upmext-spimufcphdthesis.cfg) ***
* (./upmext-spimufcphdthesis.cfg *** define extension value copyright **** 815 815 * (./upmext-spimufcphdthesis.cfg *** define extension value copyright ****
*** style extension spimufcphdthesis, Copyright {(c)} 2012--14 Dr. St\unhbox \v 816 816 *** style extension spimufcphdthesis, Copyright {(c)} 2012--14 Dr. St\unhbox \v
oidb@x \bgroup \let \unhbox \voidb@x \setbox \@tempboxa \hbox {e\global \mathch 817 817 oidb@x \bgroup \let \unhbox \voidb@x \setbox \@tempboxa \hbox {e\global \mathch
ardef \accent@spacefactor \spacefactor }\let \begingroup \let \typeout \protect 818 818 ardef \accent@spacefactor \spacefactor }\let \begingroup \let \typeout \protect
\begingroup \def \MessageBreak { 819 819 \begingroup \def \MessageBreak {
(Font) }\let \protect \immediate\write \m@ne {LaTeX Font Info: 820 820 (Font) }\let \protect \immediate\write \m@ne {LaTeX Font Info:
on input line 5.}\endgroup \endgroup \relax \let \ignorespaces \relax \accent 821 821 on input line 5.}\endgroup \endgroup \relax \let \ignorespaces \relax \accent
19 e\egroup \spacefactor \accent@spacefactor phane GALLAND. **** 822 822 19 e\egroup \spacefactor \accent@spacefactor phane GALLAND. ****
*** define extension value trademarks **** 823 823 *** define extension value trademarks ****
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/helvet.sty 824 824 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/helvet.sty
Package: helvet 2020/03/25 PSNFSS-v9.3 (WaS) 825 825 Package: helvet 2020/03/25 PSNFSS-v9.3 (WaS)
) 826 826 )
*** define extension value frontillustration **** 827 827 *** define extension value frontillustration ****
*** define extension value p3illustration **** 828 828 *** define extension value p3illustration ****
*** define extension value backillustration **** 829 829 *** define extension value backillustration ****
*** define extension value watermarksize **** 830 830 *** define extension value watermarksize ****
*** define extension value universityname **** 831 831 *** define extension value universityname ****
*** define extension value speciality **** 832 832 *** define extension value speciality ****
*** define extension value defensedate **** 833 833 *** define extension value defensedate ****
*** define extension value jurytabwidth **** 834 834 *** define extension value jurytabwidth ****
*** define extension value jurystyle **** 835 835 *** define extension value jurystyle ****
*** define extension value defensemessage ****)) 836 836 *** define extension value defensemessage ****))
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/inputenc.sty 837 837 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/inputenc.sty
Package: inputenc 2021/02/14 v1.3d Input encoding file 838 838 Package: inputenc 2021/02/14 v1.3d Input encoding file
\inpenc@prehook=\toks43 839 839 \inpenc@prehook=\toks43
\inpenc@posthook=\toks44 840 840 \inpenc@posthook=\toks44
) 841 841 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/fontenc.sty 842 842 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/fontenc.sty
Package: fontenc 2021/04/29 v2.0v Standard LaTeX package 843 843 Package: fontenc 2021/04/29 v2.0v Standard LaTeX package
LaTeX Font Info: Trying to load font information for T1+phv on input line 11 844 844 LaTeX Font Info: Trying to load font information for T1+phv on input line 11
2. 845 845 2.
846 846
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1phv.fd 847 847 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1phv.fd
File: t1phv.fd 2020/03/25 scalable font definitions for T1/phv. 848 848 File: t1phv.fd 2020/03/25 scalable font definitions for T1/phv.
)) 849 849 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/times.sty 850 850 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/times.sty
Package: times 2020/03/25 PSNFSS-v9.3 (SPQR) 851 851 Package: times 2020/03/25 PSNFSS-v9.3 (SPQR)
) 852 852 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjustbox.sty 853 853 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjustbox.sty
Package: adjustbox 2022/10/17 v1.3a Adjusting TeX boxes (trim, clip, ...) 854 854 Package: adjustbox 2022/10/17 v1.3a Adjusting TeX boxes (trim, clip, ...)
855 855
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjcalc.sty 856 856 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjcalc.sty
Package: adjcalc 2012/05/16 v1.1 Provides advanced setlength with multiple back 857 857 Package: adjcalc 2012/05/16 v1.1 Provides advanced setlength with multiple back
-ends (calc, etex, pgfmath) 858 858 -ends (calc, etex, pgfmath)
) 859 859 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/trimclip.sty 860 860 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/trimclip.sty
Package: trimclip 2020/08/19 v1.2 Trim and clip general TeX material 861 861 Package: trimclip 2020/08/19 v1.2 Trim and clip general TeX material
862 862
(/usr/local/texlive/2023/texmf-dist/tex/latex/collectbox/collectbox.sty 863 863 (/usr/local/texlive/2023/texmf-dist/tex/latex/collectbox/collectbox.sty
Package: collectbox 2022/10/17 v0.4c Collect macro arguments as boxes 864 864 Package: collectbox 2022/10/17 v0.4c Collect macro arguments as boxes
\collectedbox=\box118 865 865 \collectedbox=\box118
) 866 866 )
\tc@llx=\dimen282 867 867 \tc@llx=\dimen282
\tc@lly=\dimen283 868 868 \tc@lly=\dimen283
\tc@urx=\dimen284 869 869 \tc@urx=\dimen284
\tc@ury=\dimen285 870 870 \tc@ury=\dimen285
Package trimclip Info: Using driver 'tc-pdftex.def'. 871 871 Package trimclip Info: Using driver 'tc-pdftex.def'.
872 872
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/tc-pdftex.def 873 873 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/tc-pdftex.def
File: tc-pdftex.def 2019/01/04 v2.2 Clipping driver for pdftex 874 874 File: tc-pdftex.def 2019/01/04 v2.2 Clipping driver for pdftex
)) 875 875 ))
\adjbox@Width=\dimen286 876 876 \adjbox@Width=\dimen286
\adjbox@Height=\dimen287 877 877 \adjbox@Height=\dimen287
\adjbox@Depth=\dimen288 878 878 \adjbox@Depth=\dimen288
\adjbox@Totalheight=\dimen289 879 879 \adjbox@Totalheight=\dimen289
\adjbox@pwidth=\dimen290 880 880 \adjbox@pwidth=\dimen290
\adjbox@pheight=\dimen291 881 881 \adjbox@pheight=\dimen291
\adjbox@pdepth=\dimen292 882 882 \adjbox@pdepth=\dimen292
\adjbox@ptotalheight=\dimen293 883 883 \adjbox@ptotalheight=\dimen293
884 884
(/usr/local/texlive/2023/texmf-dist/tex/latex/ifoddpage/ifoddpage.sty 885 885 (/usr/local/texlive/2023/texmf-dist/tex/latex/ifoddpage/ifoddpage.sty
Package: ifoddpage 2022/10/18 v1.2 Conditionals for odd/even page detection 886 886 Package: ifoddpage 2022/10/18 v1.2 Conditionals for odd/even page detection
\c@checkoddpage=\count335 887 887 \c@checkoddpage=\count335
) 888 888 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/varwidth/varwidth.sty 889 889 (/usr/local/texlive/2023/texmf-dist/tex/latex/varwidth/varwidth.sty
Package: varwidth 2009/03/30 ver 0.92; Variable-width minipages 890 890 Package: varwidth 2009/03/30 ver 0.92; Variable-width minipages
\@vwid@box=\box119 891 891 \@vwid@box=\box119
\sift@deathcycles=\count336 892 892 \sift@deathcycles=\count336
\@vwid@loff=\dimen294 893 893 \@vwid@loff=\dimen294
\@vwid@roff=\dimen295 894 894 \@vwid@roff=\dimen295
)) 895 895 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithms/algorithm.sty 896 896 (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithms/algorithm.sty
Package: algorithm 2009/08/24 v0.1 Document Style `algorithm' - floating enviro 897 897 Package: algorithm 2009/08/24 v0.1 Document Style `algorithm' - floating enviro
nment 898 898 nment
899 899
(/usr/local/texlive/2023/texmf-dist/tex/latex/float/float.sty 900 900 (/usr/local/texlive/2023/texmf-dist/tex/latex/float/float.sty
Package: float 2001/11/08 v1.3d Float enhancements (AL) 901 901 Package: float 2001/11/08 v1.3d Float enhancements (AL)
\c@float@type=\count337 902 902 \c@float@type=\count337
\float@exts=\toks45 903 903 \float@exts=\toks45
\float@box=\box120 904 904 \float@box=\box120
\@float@everytoks=\toks46 905 905 \@float@everytoks=\toks46
\@floatcapt=\box121 906 906 \@floatcapt=\box121
) 907 907 )
\@float@every@algorithm=\toks47 908 908 \@float@every@algorithm=\toks47
\c@algorithm=\count338 909 909 \c@algorithm=\count338
) 910 910 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algpseudocode.sty 911 911 (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algpseudocode.sty
Package: algpseudocode 912 912 Package: algpseudocode
913 913
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algorithmicx.sty 914 914 (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algorithmicx.sty
Package: algorithmicx 2005/04/27 v1.2 Algorithmicx 915 915 Package: algorithmicx 2005/04/27 v1.2 Algorithmicx
916 916
Document Style algorithmicx 1.2 - a greatly improved `algorithmic' style 917 917 Document Style algorithmicx 1.2 - a greatly improved `algorithmic' style
\c@ALG@line=\count339 918 918 \c@ALG@line=\count339
\c@ALG@rem=\count340 919 919 \c@ALG@rem=\count340
\c@ALG@nested=\count341 920 920 \c@ALG@nested=\count341
\ALG@tlm=\skip64 921 921 \ALG@tlm=\skip64
\ALG@thistlm=\skip65 922 922 \ALG@thistlm=\skip65
\c@ALG@Lnr=\count342 923 923 \c@ALG@Lnr=\count342
\c@ALG@blocknr=\count343 924 924 \c@ALG@blocknr=\count343
\c@ALG@storecount=\count344 925 925 \c@ALG@storecount=\count344
\c@ALG@tmpcounter=\count345 926 926 \c@ALG@tmpcounter=\count345
\ALG@tmplength=\skip66 927 927 \ALG@tmplength=\skip66
) 928 928 )
Document Style - pseudocode environments for use with the `algorithmicx' style 929 929 Document Style - pseudocode environments for use with the `algorithmicx' style
) *** define extension value defensedate **** 930 930 ) *** define extension value defensedate ****
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/layout.sty 931 931 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/layout.sty
Package: layout 2021-03-10 v1.2e Show layout parameters 932 932 Package: layout 2021-03-10 v1.2e Show layout parameters
\oneinch=\count346 933 933 \oneinch=\count346
\cnt@paperwidth=\count347 934 934 \cnt@paperwidth=\count347
\cnt@paperheight=\count348 935 935 \cnt@paperheight=\count348
\cnt@hoffset=\count349 936 936 \cnt@hoffset=\count349
\cnt@voffset=\count350 937 937 \cnt@voffset=\count350
\cnt@textheight=\count351 938 938 \cnt@textheight=\count351
\cnt@textwidth=\count352 939 939 \cnt@textwidth=\count352
\cnt@topmargin=\count353 940 940 \cnt@topmargin=\count353
\cnt@oddsidemargin=\count354 941 941 \cnt@oddsidemargin=\count354
\cnt@evensidemargin=\count355 942 942 \cnt@evensidemargin=\count355
\cnt@headheight=\count356 943 943 \cnt@headheight=\count356
\cnt@headsep=\count357 944 944 \cnt@headsep=\count357
\cnt@marginparsep=\count358 945 945 \cnt@marginparsep=\count358
\cnt@marginparwidth=\count359 946 946 \cnt@marginparwidth=\count359
\cnt@marginparpush=\count360 947 947 \cnt@marginparpush=\count360
\cnt@footskip=\count361 948 948 \cnt@footskip=\count361
\fheight=\count362 949 949 \fheight=\count362
\ref@top=\count363 950 950 \ref@top=\count363
\ref@hoffset=\count364 951 951 \ref@hoffset=\count364
\ref@voffset=\count365 952 952 \ref@voffset=\count365
\ref@head=\count366 953 953 \ref@head=\count366
\ref@body=\count367 954 954 \ref@body=\count367
\ref@foot=\count368 955 955 \ref@foot=\count368
\ref@margin=\count369 956 956 \ref@margin=\count369
\ref@marginwidth=\count370 957 957 \ref@marginwidth=\count370
\ref@marginpar=\count371 958 958 \ref@marginpar=\count371
\Interval=\count372 959 959 \Interval=\count372
\ExtraYPos=\count373 960 960 \ExtraYPos=\count373
\PositionX=\count374 961 961 \PositionX=\count374
\PositionY=\count375 962 962 \PositionY=\count375
\ArrowLength=\count376 963 963 \ArrowLength=\count376
) 964 964 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/geometry/geometry.sty 965 965 (/usr/local/texlive/2023/texmf-dist/tex/latex/geometry/geometry.sty
Package: geometry 2020/01/02 v5.9 Page Geometry 966 966 Package: geometry 2020/01/02 v5.9 Page Geometry
967 967
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifvtex.sty 968 968 (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifvtex.sty
Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead. 969 969 Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead.
) 970 970 )
\Gm@cnth=\count377 971 971 \Gm@cnth=\count377
\Gm@cntv=\count378 972 972 \Gm@cntv=\count378
\c@Gm@tempcnt=\count379 973 973 \c@Gm@tempcnt=\count379
\Gm@bindingoffset=\dimen296 974 974 \Gm@bindingoffset=\dimen296
\Gm@wd@mp=\dimen297 975 975 \Gm@wd@mp=\dimen297
\Gm@odd@mp=\dimen298 976 976 \Gm@odd@mp=\dimen298
\Gm@even@mp=\dimen299 977 977 \Gm@even@mp=\dimen299
\Gm@layoutwidth=\dimen300 978 978 \Gm@layoutwidth=\dimen300
\Gm@layoutheight=\dimen301 979 979 \Gm@layoutheight=\dimen301
\Gm@layouthoffset=\dimen302 980 980 \Gm@layouthoffset=\dimen302
\Gm@layoutvoffset=\dimen303 981 981 \Gm@layoutvoffset=\dimen303
\Gm@dimlist=\toks48 982 982 \Gm@dimlist=\toks48
) (./main.aux 983 983 ) (./main.aux
(./chapters/contexte2.aux) (./chapters/EIAH.aux) (./chapters/CBR.aux) 984 984 (./chapters/contexte2.aux) (./chapters/EIAH.aux) (./chapters/CBR.aux)
(./chapters/Architecture.aux) (./chapters/ESCBR.aux 985 985 (./chapters/Architecture.aux) (./chapters/ESCBR.aux
986 986
LaTeX Warning: Label `figFlowCBR' multiply defined. 987 987 LaTeX Warning: Label `figFlowCBR' multiply defined.
988 988
989 989
LaTeX Warning: Label `tabVarPar' multiply defined. 990 990 LaTeX Warning: Label `tabVarPar' multiply defined.
991 991
) (./chapters/TS.aux 992 992 ) (./chapters/TS.aux
993 993
LaTeX Warning: Label `eqBeta' multiply defined. 994 994 LaTeX Warning: Label `eqBeta' multiply defined.
995 995
996 996
LaTeX Warning: Label `fig:Amodel' multiply defined. 997 997 LaTeX Warning: Label `fig:Amodel' multiply defined.
998 998
999
LaTeX Warning: Label `tabvp' multiply defined. 1000
1001
) (./chapters/Conclusions.aux) (./chapters/Publications.aux)) 1002 999 ) (./chapters/Conclusions.aux) (./chapters/Publications.aux))
\openout1 = `main.aux'. 1003 1000 \openout1 = `main.aux'.
1004 1001
LaTeX Font Info: Checking defaults for OML/txmi/m/it on input line 228. 1005 1002 LaTeX Font Info: Checking defaults for OML/txmi/m/it on input line 228.
LaTeX Font Info: Trying to load font information for OML+txmi on input line 1006 1003 LaTeX Font Info: Trying to load font information for OML+txmi on input line
228. 1007 1004 228.
1008 1005
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omltxmi.fd 1009 1006 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omltxmi.fd
File: omltxmi.fd 2000/12/15 v3.1 1010 1007 File: omltxmi.fd 2000/12/15 v3.1
) 1011 1008 )
LaTeX Font Info: ... okay on input line 228. 1012 1009 LaTeX Font Info: ... okay on input line 228.
LaTeX Font Info: Checking defaults for OMS/txsy/m/n on input line 228. 1013 1010 LaTeX Font Info: Checking defaults for OMS/txsy/m/n on input line 228.
LaTeX Font Info: Trying to load font information for OMS+txsy on input line 1014 1011 LaTeX Font Info: Trying to load font information for OMS+txsy on input line
228. 1015 1012 228.
1016 1013
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omstxsy.fd 1017 1014 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omstxsy.fd
File: omstxsy.fd 2000/12/15 v3.1 1018 1015 File: omstxsy.fd 2000/12/15 v3.1
) 1019 1016 )
LaTeX Font Info: ... okay on input line 228. 1020 1017 LaTeX Font Info: ... okay on input line 228.
LaTeX Font Info: Checking defaults for OT1/cmr/m/n on input line 228. 1021 1018 LaTeX Font Info: Checking defaults for OT1/cmr/m/n on input line 228.
LaTeX Font Info: ... okay on input line 228. 1022 1019 LaTeX Font Info: ... okay on input line 228.
LaTeX Font Info: Checking defaults for T1/cmr/m/n on input line 228. 1023 1020 LaTeX Font Info: Checking defaults for T1/cmr/m/n on input line 228.
LaTeX Font Info: ... okay on input line 228. 1024 1021 LaTeX Font Info: ... okay on input line 228.
LaTeX Font Info: Checking defaults for TS1/cmr/m/n on input line 228. 1025 1022 LaTeX Font Info: Checking defaults for TS1/cmr/m/n on input line 228.
LaTeX Font Info: ... okay on input line 228. 1026 1023 LaTeX Font Info: ... okay on input line 228.
LaTeX Font Info: Checking defaults for OMX/txex/m/n on input line 228. 1027 1024 LaTeX Font Info: Checking defaults for OMX/txex/m/n on input line 228.
LaTeX Font Info: Trying to load font information for OMX+txex on input line 1028 1025 LaTeX Font Info: Trying to load font information for OMX+txex on input line
228. 1029 1026 228.
1030 1027
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omxtxex.fd 1031 1028 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omxtxex.fd
File: omxtxex.fd 2000/12/15 v3.1 1032 1029 File: omxtxex.fd 2000/12/15 v3.1
) 1033 1030 )
LaTeX Font Info: ... okay on input line 228. 1034 1031 LaTeX Font Info: ... okay on input line 228.
LaTeX Font Info: Checking defaults for U/txexa/m/n on input line 228. 1035 1032 LaTeX Font Info: Checking defaults for U/txexa/m/n on input line 228.
LaTeX Font Info: Trying to load font information for U+txexa on input line 2 1036 1033 LaTeX Font Info: Trying to load font information for U+txexa on input line 2
28. 1037 1034 28.
1038 1035
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxexa.fd 1039 1036 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxexa.fd
File: utxexa.fd 2000/12/15 v3.1 1040 1037 File: utxexa.fd 2000/12/15 v3.1
) 1041 1038 )
LaTeX Font Info: ... okay on input line 228. 1042 1039 LaTeX Font Info: ... okay on input line 228.
LaTeX Font Info: Checking defaults for PD1/pdf/m/n on input line 228. 1043 1040 LaTeX Font Info: Checking defaults for PD1/pdf/m/n on input line 228.
LaTeX Font Info: ... okay on input line 228. 1044 1041 LaTeX Font Info: ... okay on input line 228.
LaTeX Font Info: Checking defaults for PU/pdf/m/n on input line 228. 1045 1042 LaTeX Font Info: Checking defaults for PU/pdf/m/n on input line 228.
LaTeX Font Info: ... okay on input line 228. 1046 1043 LaTeX Font Info: ... okay on input line 228.
1047 1044
(/usr/local/texlive/2023/texmf-dist/tex/context/base/mkii/supp-pdf.mkii 1048 1045 (/usr/local/texlive/2023/texmf-dist/tex/context/base/mkii/supp-pdf.mkii
[Loading MPS to PDF converter (version 2006.09.02).] 1049 1046 [Loading MPS to PDF converter (version 2006.09.02).]
\scratchcounter=\count380 1050 1047 \scratchcounter=\count380
\scratchdimen=\dimen304 1051 1048 \scratchdimen=\dimen304
\scratchbox=\box122 1052 1049 \scratchbox=\box122
\nofMPsegments=\count381 1053 1050 \nofMPsegments=\count381
\nofMParguments=\count382 1054 1051 \nofMParguments=\count382
\everyMPshowfont=\toks49 1055 1052 \everyMPshowfont=\toks49
\MPscratchCnt=\count383 1056 1053 \MPscratchCnt=\count383
\MPscratchDim=\dimen305 1057 1054 \MPscratchDim=\dimen305
\MPnumerator=\count384 1058 1055 \MPnumerator=\count384
\makeMPintoPDFobject=\count385 1059 1056 \makeMPintoPDFobject=\count385
\everyMPtoPDFconversion=\toks50 1060 1057 \everyMPtoPDFconversion=\toks50
) (/usr/local/texlive/2023/texmf-dist/tex/latex/epstopdf-pkg/epstopdf-base.sty 1061 1058 ) (/usr/local/texlive/2023/texmf-dist/tex/latex/epstopdf-pkg/epstopdf-base.sty
Package: epstopdf-base 2020-01-24 v2.11 Base part for package epstopdf 1062 1059 Package: epstopdf-base 2020-01-24 v2.11 Base part for package epstopdf
Package epstopdf-base Info: Redefining graphics rule for `.eps' on input line 4 1063 1060 Package epstopdf-base Info: Redefining graphics rule for `.eps' on input line 4
85. 1064 1061 85.
1065 1062
(/usr/local/texlive/2023/texmf-dist/tex/latex/latexconfig/epstopdf-sys.cfg 1066 1063 (/usr/local/texlive/2023/texmf-dist/tex/latex/latexconfig/epstopdf-sys.cfg
File: epstopdf-sys.cfg 2010/07/13 v1.3 Configuration of (r)epstopdf for TeX Liv 1067 1064 File: epstopdf-sys.cfg 2010/07/13 v1.3 Configuration of (r)epstopdf for TeX Liv
e 1068 1065 e
)) 1069 1066 ))
LaTeX Info: Redefining \degres on input line 228. 1070 1067 LaTeX Info: Redefining \degres on input line 228.
LaTeX Info: Redefining \up on input line 228. 1071 1068 LaTeX Info: Redefining \up on input line 228.
Package caption Info: Begin \AtBeginDocument code. 1072 1069 Package caption Info: Begin \AtBeginDocument code.
Package caption Info: float package is loaded. 1073 1070 Package caption Info: float package is loaded.
Package caption Info: hyperref package is loaded. 1074 1071 Package caption Info: hyperref package is loaded.
Package caption Info: picinpar package is loaded. 1075 1072 Package caption Info: picinpar package is loaded.
Package caption Info: End \AtBeginDocument code. 1076 1073 Package caption Info: End \AtBeginDocument code.
1077 1074
*** Overriding the 'enumerate' environment. Pass option 'standardlists' for avo 1078 1075 *** Overriding the 'enumerate' environment. Pass option 'standardlists' for avo
iding this override. 1079 1076 iding this override.
*** Overriding the 'description' environment. Pass option 'standardlists' for a 1080 1077 *** Overriding the 'description' environment. Pass option 'standardlists' for a
voiding this override. ************ USE CUSTOM FRONT COVER 1081 1078 voiding this override. ************ USE CUSTOM FRONT COVER
Package hyperref Info: Link coloring OFF on input line 228. 1082 1079 Package hyperref Info: Link coloring OFF on input line 228.
(./main.out) 1083 1080 (./main.out)
(./main.out) 1084 1081 (./main.out)
\@outlinefile=\write3 1085 1082 \@outlinefile=\write3
\openout3 = `main.out'. 1086 1083 \openout3 = `main.out'.
1087 1084
1088 1085
*geometry* driver: auto-detecting 1089 1086 *geometry* driver: auto-detecting
*geometry* detected driver: pdftex 1090 1087 *geometry* detected driver: pdftex
*geometry* verbose mode - [ preamble ] result: 1091 1088 *geometry* verbose mode - [ preamble ] result:
* pass: disregarded the geometry package! 1092 1089 * pass: disregarded the geometry package!
* \paperwidth=598.14806pt 1093 1090 * \paperwidth=598.14806pt
* \paperheight=845.90042pt 1094 1091 * \paperheight=845.90042pt
* \textwidth=427.43153pt 1095 1092 * \textwidth=427.43153pt
* \textheight=671.71976pt 1096 1093 * \textheight=671.71976pt
* \oddsidemargin=99.58464pt 1097 1094 * \oddsidemargin=99.58464pt
* \evensidemargin=71.13188pt 1098 1095 * \evensidemargin=71.13188pt
* \topmargin=56.9055pt 1099 1096 * \topmargin=56.9055pt
* \headheight=12.0pt 1100 1097 * \headheight=12.0pt
* \headsep=31.29802pt 1101 1098 * \headsep=31.29802pt
* \topskip=11.0pt 1102 1099 * \topskip=11.0pt
* \footskip=31.29802pt 1103 1100 * \footskip=31.29802pt
* \marginparwidth=54.2025pt 1104 1101 * \marginparwidth=54.2025pt
* \marginparsep=7.0pt 1105 1102 * \marginparsep=7.0pt
* \columnsep=10.0pt 1106 1103 * \columnsep=10.0pt
* \skip\footins=10.0pt plus 4.0pt minus 2.0pt 1107 1104 * \skip\footins=10.0pt plus 4.0pt minus 2.0pt
* \hoffset=-72.26999pt 1108 1105 * \hoffset=-72.26999pt
* \voffset=-72.26999pt 1109 1106 * \voffset=-72.26999pt
* \mag=1000 1110 1107 * \mag=1000
* \@twocolumnfalse 1111 1108 * \@twocolumnfalse
* \@twosidetrue 1112 1109 * \@twosidetrue
* \@mparswitchtrue 1113 1110 * \@mparswitchtrue
* \@reversemarginfalse 1114 1111 * \@reversemarginfalse
* (1in=72.27pt=25.4mm, 1cm=28.453pt) 1115 1112 * (1in=72.27pt=25.4mm, 1cm=28.453pt)
1116 1113
*geometry* verbose mode - [ newgeometry ] result: 1117 1114 *geometry* verbose mode - [ newgeometry ] result:
* driver: pdftex 1118 1115 * driver: pdftex
* paper: a4paper 1119 1116 * paper: a4paper
* layout: <same size as paper> 1120 1117 * layout: <same size as paper>
* layoutoffset:(h,v)=(0.0pt,0.0pt) 1121 1118 * layoutoffset:(h,v)=(0.0pt,0.0pt)
* modes: twoside 1122 1119 * modes: twoside
* h-part:(L,W,R)=(170.71652pt, 355.65306pt, 71.77847pt) 1123 1120 * h-part:(L,W,R)=(170.71652pt, 355.65306pt, 71.77847pt)
* v-part:(T,H,B)=(101.50906pt, 741.54591pt, 2.84544pt) 1124 1121 * v-part:(T,H,B)=(101.50906pt, 741.54591pt, 2.84544pt)
* \paperwidth=598.14806pt 1125 1122 * \paperwidth=598.14806pt
* \paperheight=845.90042pt 1126 1123 * \paperheight=845.90042pt
* \textwidth=355.65306pt 1127 1124 * \textwidth=355.65306pt
* \textheight=741.54591pt 1128 1125 * \textheight=741.54591pt
* \oddsidemargin=98.44653pt 1129 1126 * \oddsidemargin=98.44653pt
* \evensidemargin=-0.49152pt 1130 1127 * \evensidemargin=-0.49152pt
* \topmargin=-14.05894pt 1131 1128 * \topmargin=-14.05894pt
* \headheight=12.0pt 1132 1129 * \headheight=12.0pt
* \headsep=31.29802pt 1133 1130 * \headsep=31.29802pt
* \topskip=11.0pt 1134 1131 * \topskip=11.0pt
* \footskip=31.29802pt 1135 1132 * \footskip=31.29802pt
* \marginparwidth=54.2025pt 1136 1133 * \marginparwidth=54.2025pt
* \marginparsep=7.0pt 1137 1134 * \marginparsep=7.0pt
* \columnsep=10.0pt 1138 1135 * \columnsep=10.0pt
* \skip\footins=10.0pt plus 4.0pt minus 2.0pt 1139 1136 * \skip\footins=10.0pt plus 4.0pt minus 2.0pt
* \hoffset=-72.26999pt 1140 1137 * \hoffset=-72.26999pt
* \voffset=-72.26999pt 1141 1138 * \voffset=-72.26999pt
* \mag=1000 1142 1139 * \mag=1000
* \@twocolumnfalse 1143 1140 * \@twocolumnfalse
* \@twosidetrue 1144 1141 * \@twosidetrue
* \@mparswitchtrue 1145 1142 * \@mparswitchtrue
* \@reversemarginfalse 1146 1143 * \@reversemarginfalse
* (1in=72.27pt=25.4mm, 1cm=28.453pt) 1147 1144 * (1in=72.27pt=25.4mm, 1cm=28.453pt)
1148 1145
<images_logos/image1_logoUBFC_grand.png, id=381, 156.6945pt x 74.898pt> 1149 1146 <images_logos/image1_logoUBFC_grand.png, id=381, 156.6945pt x 74.898pt>
File: images_logos/image1_logoUBFC_grand.png Graphic file (type png) 1150 1147 File: images_logos/image1_logoUBFC_grand.png Graphic file (type png)
<use images_logos/image1_logoUBFC_grand.png> 1151 1148 <use images_logos/image1_logoUBFC_grand.png>
Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input 1152 1149 Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input
line 234. 1153 1150 line 234.
(pdftex.def) Requested size: 142.25905pt x 68.00069pt. 1154 1151 (pdftex.def) Requested size: 142.25905pt x 68.00069pt.
<images_logos/logo_UFC_2018_transparence.png, id=383, 1160.335pt x 285.065pt> 1155 1152 <images_logos/logo_UFC_2018_transparence.png, id=383, 1160.335pt x 285.065pt>
File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png) 1156 1153 File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png)
<use images_logos/logo_UFC_2018_transparence.png> 1157 1154 <use images_logos/logo_UFC_2018_transparence.png>
Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i 1158 1155 Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i
nput line 234. 1159 1156 nput line 234.
(pdftex.def) Requested size: 142.25905pt x 34.94577pt. 1160 1157 (pdftex.def) Requested size: 142.25905pt x 34.94577pt.
LaTeX Font Info: Trying to load font information for OT1+txr on input line 2 1161 1158 LaTeX Font Info: Trying to load font information for OT1+txr on input line 2
44. 1162 1159 44.
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/ot1txr.fd 1163 1160 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/ot1txr.fd
File: ot1txr.fd 2000/12/15 v3.1 1164 1161 File: ot1txr.fd 2000/12/15 v3.1
) 1165 1162 )
LaTeX Font Info: Trying to load font information for U+txmia on input line 2 1166 1163 LaTeX Font Info: Trying to load font information for U+txmia on input line 2
44. 1167 1164 44.
1168 1165
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxmia.fd 1169 1166 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxmia.fd
File: utxmia.fd 2000/12/15 v3.1 1170 1167 File: utxmia.fd 2000/12/15 v3.1
) 1171 1168 )
LaTeX Font Info: Trying to load font information for U+txsya on input line 2 1172 1169 LaTeX Font Info: Trying to load font information for U+txsya on input line 2
44. 1173 1170 44.
1174 1171
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsya.fd 1175 1172 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsya.fd
File: utxsya.fd 2000/12/15 v3.1 1176 1173 File: utxsya.fd 2000/12/15 v3.1
) 1177 1174 )
LaTeX Font Info: Trying to load font information for U+txsyb on input line 2 1178 1175 LaTeX Font Info: Trying to load font information for U+txsyb on input line 2
44. 1179 1176 44.
1180 1177
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyb.fd 1181 1178 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyb.fd
File: utxsyb.fd 2000/12/15 v3.1 1182 1179 File: utxsyb.fd 2000/12/15 v3.1
) 1183 1180 )
LaTeX Font Info: Trying to load font information for U+txsyc on input line 2 1184 1181 LaTeX Font Info: Trying to load font information for U+txsyc on input line 2
44. 1185 1182 44.
1186 1183
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyc.fd 1187 1184 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyc.fd
File: utxsyc.fd 2000/12/15 v3.1 1188 1185 File: utxsyc.fd 2000/12/15 v3.1
) [1 1189 1186 ) [1
1190 1187
1191 1188
1192 1189
1193 1190
{/usr/local/texlive/2023/texmf-var/fonts/map/pdftex/updmap/pdftex.map}{/usr/loc 1194 1191 {/usr/local/texlive/2023/texmf-var/fonts/map/pdftex/updmap/pdftex.map}{/usr/loc
al/texlive/2023/texmf-dist/fonts/enc/dvips/base/8r.enc} <./images_logos/image1_ 1195 1192 al/texlive/2023/texmf-dist/fonts/enc/dvips/base/8r.enc} <./images_logos/image1_
logoUBFC_grand.png> <./images_logos/logo_UFC_2018_transparence.png>] [2 1196 1193 logoUBFC_grand.png> <./images_logos/logo_UFC_2018_transparence.png>] [2
1197 1194
1198 1195
] [3] [4] 1199 1196 ] [3] [4]
(./main.toc 1200 1197 (./main.toc
LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available 1201 1198 LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available
(Font) Font shape `T1/phv/m/sl' tried instead on input line 23. 1202 1199 (Font) Font shape `T1/phv/m/sl' tried instead on input line 23.
[5 1203 1200 [5
1204 1201
] [6] [7] 1205 1202 ] [6] [7]
Overfull \hbox (1.29184pt too wide) detected at line 91 1206 1203 Overfull \hbox (1.29184pt too wide) detected at line 91
[][]\T1/phv/m/n/10.95 101[] 1207 1204 [][]\T1/phv/m/n/10.95 101[]
[] 1208 1205 []
1209 1206
1210 1207
Overfull \hbox (1.29184pt too wide) detected at line 92 1211 1208 Overfull \hbox (1.29184pt too wide) detected at line 92
[][]\T1/phv/m/n/10.95 101[] 1212 1209 [][]\T1/phv/m/n/10.95 101[]
[] 1213 1210 []
1214 1211
1215 1212
Overfull \hbox (1.29184pt too wide) detected at line 94 1216 1213 Overfull \hbox (1.29184pt too wide) detected at line 94
[][]\T1/phv/m/n/10.95 103[] 1217 1214 [][]\T1/phv/m/n/10.95 103[]
[] 1218 1215 []
1219 1216
1220 1217
Overfull \hbox (1.29184pt too wide) detected at line 95 1221 1218 Overfull \hbox (1.29184pt too wide) detected at line 95
[][]\T1/phv/m/n/10.95 104[] 1222 1219 [][]\T1/phv/m/n/10.95 104[]
[] 1223 1220 []
1224 1221
) 1225 1222 )
\tf@toc=\write4 1226 1223 \tf@toc=\write4
\openout4 = `main.toc'. 1227 1224 \openout4 = `main.toc'.
1228 1225
[8] [1 1229 1226 [8] [1
1230 1227
1231 1228
] [2] 1232 1229 ] [2]
Chapitre 1. 1233 1230 Chapitre 1.
Package lettrine.sty Info: Targeted height = 19.96736pt 1234 1231 Package lettrine.sty Info: Targeted height = 19.96736pt
(lettrine.sty) (for loversize=0, accent excluded), 1235 1232 (lettrine.sty) (for loversize=0, accent excluded),
(lettrine.sty) Lettrine height = 20.612pt (\uppercase {C}); 1236 1233 (lettrine.sty) Lettrine height = 20.612pt (\uppercase {C});
(lettrine.sty) reported on input line 338. 1237 1234 (lettrine.sty) reported on input line 338.
1238 1235
Overfull \hbox (6.79999pt too wide) in paragraph at lines 338--338 1239 1236 Overfull \hbox (6.79999pt too wide) in paragraph at lines 338--338
[][][][] 1240 1237 [][][][]
[] 1241 1238 []
1242 1239
1243 1240
Underfull \vbox (badness 10000) has occurred while \output is active [] 1244 1241 Underfull \vbox (badness 10000) has occurred while \output is active []
1245 1242
[3 1246 1243 [3
1247 1244
] 1248 1245 ]
[4] [5] 1249 1246 [4] [5]
\openout2 = `./chapters/contexte2.aux'. 1250 1247 \openout2 = `./chapters/contexte2.aux'.
1251 1248
(./chapters/contexte2.tex [6 1252 1249 (./chapters/contexte2.tex [6
1253 1250
1254 1251
] 1255 1252 ]
Chapitre 2. 1256 1253 Chapitre 2.
<./Figures/TLearning.png, id=553, 603.25375pt x 331.2375pt> 1257 1254 <./Figures/TLearning.png, id=553, 603.25375pt x 331.2375pt>
File: ./Figures/TLearning.png Graphic file (type png) 1258 1255 File: ./Figures/TLearning.png Graphic file (type png)
<use ./Figures/TLearning.png> 1259 1256 <use ./Figures/TLearning.png>
Package pdftex.def Info: ./Figures/TLearning.png used on input line 15. 1260 1257 Package pdftex.def Info: ./Figures/TLearning.png used on input line 15.
(pdftex.def) Requested size: 427.43153pt x 234.69505pt. 1261 1258 (pdftex.def) Requested size: 427.43153pt x 234.69505pt.
[7] 1262 1259 [7]
<./Figures/EIAH.png, id=562, 643.40375pt x 362.35374pt> 1263 1260 <./Figures/EIAH.png, id=562, 643.40375pt x 362.35374pt>
File: ./Figures/EIAH.png Graphic file (type png) 1264 1261 File: ./Figures/EIAH.png Graphic file (type png)
<use ./Figures/EIAH.png> 1265 1262 <use ./Figures/EIAH.png>
Package pdftex.def Info: ./Figures/EIAH.png used on input line 32. 1266 1263 Package pdftex.def Info: ./Figures/EIAH.png used on input line 32.
(pdftex.def) Requested size: 427.43153pt x 240.73pt. 1267 1264 (pdftex.def) Requested size: 427.43153pt x 240.73pt.
1268 1265
1269 1266
LaTeX Warning: `!h' float specifier changed to `!ht'. 1270 1267 LaTeX Warning: `!h' float specifier changed to `!ht'.
1271 1268
[8 <./Figures/TLearning.png>] [9 <./Figures/EIAH.png>] [10] 1272 1269 [8 <./Figures/TLearning.png>] [9 <./Figures/EIAH.png>] [10]
<./Figures/cycle.png, id=589, 668.4975pt x 665.48625pt> 1273 1270 <./Figures/cycle.png, id=589, 668.4975pt x 665.48625pt>
File: ./Figures/cycle.png Graphic file (type png) 1274 1271 File: ./Figures/cycle.png Graphic file (type png)
<use ./Figures/cycle.png> 1275 1272 <use ./Figures/cycle.png>
Package pdftex.def Info: ./Figures/cycle.png used on input line 83. 1276 1273 Package pdftex.def Info: ./Figures/cycle.png used on input line 83.
(pdftex.def) Requested size: 427.43153pt x 425.51372pt. 1277 1274 (pdftex.def) Requested size: 427.43153pt x 425.51372pt.
[11 <./Figures/cycle.png>] 1278 1275 [11 <./Figures/cycle.png>]
<./Figures/Reuse.png, id=612, 383.4325pt x 182.6825pt> 1279 1276 <./Figures/Reuse.png, id=612, 383.4325pt x 182.6825pt>
File: ./Figures/Reuse.png Graphic file (type png) 1280 1277 File: ./Figures/Reuse.png Graphic file (type png)
<use ./Figures/Reuse.png> 1281 1278 <use ./Figures/Reuse.png>
Package pdftex.def Info: ./Figures/Reuse.png used on input line 112. 1282 1279 Package pdftex.def Info: ./Figures/Reuse.png used on input line 112.
(pdftex.def) Requested size: 427.43153pt x 203.65802pt. 1283 1280 (pdftex.def) Requested size: 427.43153pt x 203.65802pt.
1284 1281
Underfull \hbox (badness 10000) in paragraph at lines 112--112 1285 1282 Underfull \hbox (badness 10000) in paragraph at lines 112--112
[]\T1/phv/m/sc/10.95 Figure 2.4 \T1/phv/m/n/10.95 ^^U |Prin-cipe de réuti-li-sa 1286 1283 []\T1/phv/m/sc/10.95 Figure 2.4 \T1/phv/m/n/10.95 ^^U |Prin-cipe de réuti-li-sa
-tion dans le RàPC (Tra-duit de 1287 1284 -tion dans le RàPC (Tra-duit de
[] 1288 1285 []
1289 1286
[12] [13 <./Figures/Reuse.png>] 1290 1287 [12] [13 <./Figures/Reuse.png>]
<./Figures/CycleCBR.png, id=632, 147.1899pt x 83.8332pt> 1291 1288 <./Figures/CycleCBR.png, id=632, 147.1899pt x 83.8332pt>
File: ./Figures/CycleCBR.png Graphic file (type png) 1292 1289 File: ./Figures/CycleCBR.png Graphic file (type png)
<use ./Figures/CycleCBR.png> 1293 1290 <use ./Figures/CycleCBR.png>
Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156. 1294 1291 Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156.
(pdftex.def) Requested size: 427.43153pt x 243.45026pt. 1295 1292 (pdftex.def) Requested size: 427.43153pt x 243.45026pt.
[14] [15 <./Figures/CycleCBR.png>] [16] 1296 1293 [14] [15 <./Figures/CycleCBR.png>] [16]
1297 1294
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1298 1295 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1299 1296 65.
1300 1297
LaTeX Font Info: Trying to load font information for TS1+phv on input line 2 1301 1298 LaTeX Font Info: Trying to load font information for TS1+phv on input line 2
65. 1302 1299 65.
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/ts1phv.fd 1303 1300 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/ts1phv.fd
File: ts1phv.fd 2020/03/25 scalable font definitions for TS1/phv. 1304 1301 File: ts1phv.fd 2020/03/25 scalable font definitions for TS1/phv.
) 1305 1302 )
1306 1303
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1307 1304 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1308 1305 65.
1309 1306
1310 1307
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1311 1308 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1312 1309 65.
1313 1310
1314 1311
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1315 1312 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1316 1313 65.
1317 1314
1318 1315
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1319 1316 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1320 1317 65.
1321 1318
1322 1319
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1323 1320 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1324 1321 65.
1325 1322
Missing character: There is no · in font txr! 1326 1323 Missing character: There is no · in font txr!
Missing character: There is no · in font txr! 1327 1324 Missing character: There is no · in font txr!
Missing character: There is no · in font txr! 1328 1325 Missing character: There is no · in font txr!
1329 1326
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined 1330 1327 LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined
(Font) using `T1/phv/m/it' instead on input line 284. 1331 1328 (Font) using `T1/phv/m/it' instead on input line 284.
1332 1329
[17] [18] 1333 1330 [17] [18]
1334 1331
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined 1335 1332 LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined
(Font) using `T1/phv/m/it' instead on input line 333. 1336 1333 (Font) using `T1/phv/m/it' instead on input line 333.
1337 1334
1338 1335
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined 1339 1336 LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined
(Font) using `T1/phv/m/it' instead on input line 337. 1340 1337 (Font) using `T1/phv/m/it' instead on input line 337.
1341 1338
<./Figures/beta-distribution.png, id=709, 621.11293pt x 480.07928pt> 1342 1339 <./Figures/beta-distribution.png, id=709, 621.11293pt x 480.07928pt>
File: ./Figures/beta-distribution.png Graphic file (type png) 1343 1340 File: ./Figures/beta-distribution.png Graphic file (type png)
<use ./Figures/beta-distribution.png> 1344 1341 <use ./Figures/beta-distribution.png>
Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34 1345 1342 Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34
5. 1346 1343 5.
(pdftex.def) Requested size: 427.43153pt x 330.38333pt. 1347 1344 (pdftex.def) Requested size: 427.43153pt x 330.38333pt.
[19]) [20 <./Figures/beta-distribution.png>] [21 1348 1345 [19]) [20 <./Figures/beta-distribution.png>] [21
1349 1346
1350 1347
1351 1348
] [22] 1352 1349 ] [22]
\openout2 = `./chapters/EIAH.aux'. 1353 1350 \openout2 = `./chapters/EIAH.aux'.
1354 1351
(./chapters/EIAH.tex 1355 1352 (./chapters/EIAH.tex
Chapitre 3. 1356 1353 Chapitre 3.
[23 1357 1354 [23
1358 1355
1359 1356
] 1360 1357 ]
Underfull \hbox (badness 10000) in paragraph at lines 24--25 1361 1358 Underfull \hbox (badness 10000) in paragraph at lines 24--25
[]\T1/phv/m/n/10.95 Les tech-niques d'IA peuvent aussi ai-der à prendre des dé- 1362 1359 []\T1/phv/m/n/10.95 Les tech-niques d'IA peuvent aussi ai-der à prendre des dé-
ci-sions stra-té- 1363 1360 ci-sions stra-té-
[] 1364 1361 []
1365 1362
1366 1363
Underfull \hbox (badness 1874) in paragraph at lines 24--25 1367 1364 Underfull \hbox (badness 1874) in paragraph at lines 24--25
\T1/phv/m/n/10.95 giques vi-sant des ob-jec-tifs à longue échéance comme le mon 1368 1365 \T1/phv/m/n/10.95 giques vi-sant des ob-jec-tifs à longue échéance comme le mon
tre le tra-vail de 1369 1366 tre le tra-vail de
[] 1370 1367 []
1371 1368
<./Figures/architecture.png, id=747, 776.9025pt x 454.69875pt> 1372 1369 <./Figures/architecture.png, id=747, 776.9025pt x 454.69875pt>
File: ./Figures/architecture.png Graphic file (type png) 1373 1370 File: ./Figures/architecture.png Graphic file (type png)
<use ./Figures/architecture.png> 1374 1371 <use ./Figures/architecture.png>
Package pdftex.def Info: ./Figures/architecture.png used on input line 38. 1375 1372 Package pdftex.def Info: ./Figures/architecture.png used on input line 38.
(pdftex.def) Requested size: 427.43153pt x 250.16833pt. 1376 1373 (pdftex.def) Requested size: 427.43153pt x 250.16833pt.
1377 1374
LaTeX Warning: Reference `sectBanditManchot' on page 24 undefined on input line 1378 1375 LaTeX Warning: Reference `sectBanditManchot' on page 24 undefined on input line
43. 1379 1376 43.
1380 1377
[24] 1381 1378 [24]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1382 1379 Underfull \vbox (badness 10000) has occurred while \output is active []
1383 1380
[25 <./Figures/architecture.png>] 1384 1381 [25 <./Figures/architecture.png>]
<./Figures/ELearningLevels.png, id=776, 602.25pt x 612.78937pt> 1385 1382 <./Figures/ELearningLevels.png, id=776, 602.25pt x 612.78937pt>
File: ./Figures/ELearningLevels.png Graphic file (type png) 1386 1383 File: ./Figures/ELearningLevels.png Graphic file (type png)
<use ./Figures/ELearningLevels.png> 1387 1384 <use ./Figures/ELearningLevels.png>
Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 62. 1388 1385 Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 62.
(pdftex.def) Requested size: 427.43153pt x 434.92455pt. 1389 1386 (pdftex.def) Requested size: 427.43153pt x 434.92455pt.
1390 1387
Underfull \hbox (badness 3690) in paragraph at lines 62--62 1391 1388 Underfull \hbox (badness 3690) in paragraph at lines 62--62
[]\T1/phv/m/sc/10.95 Figure 3.2 \T1/phv/m/n/10.95 ^^U |Tra-duc-tion des ni-veau 1392 1389 []\T1/phv/m/sc/10.95 Figure 3.2 \T1/phv/m/n/10.95 ^^U |Tra-duc-tion des ni-veau
x du sys-tème de re-com-man-da-tion dans 1393 1390 x du sys-tème de re-com-man-da-tion dans
[] 1394 1391 []
1395 1392
1396 1393
Underfull \vbox (badness 10000) has occurred while \output is active [] 1397 1394 Underfull \vbox (badness 10000) has occurred while \output is active []
1398 1395
[26] 1399 1396 [26]
Overfull \hbox (2.56369pt too wide) in paragraph at lines 82--82 1400 1397 Overfull \hbox (2.56369pt too wide) in paragraph at lines 82--82
[]|\T1/phv/m/n/9 [[]]| 1401 1398 []|\T1/phv/m/n/9 [[]]|
[] 1402 1399 []
1403 1400
1404 1401
Overfull \hbox (0.5975pt too wide) in paragraph at lines 77--93 1405 1402 Overfull \hbox (0.5975pt too wide) in paragraph at lines 77--93
[][] 1406 1403 [][]
[] 1407 1404 []
1408 1405
) [27 <./Figures/ELearningLevels.png>] [28] 1409 1406 ) [27 <./Figures/ELearningLevels.png>] [28]
\openout2 = `./chapters/CBR.aux'. 1410 1407 \openout2 = `./chapters/CBR.aux'.
1411 1408
(./chapters/CBR.tex 1412 1409 (./chapters/CBR.tex
Chapitre 4. 1413 1410 Chapitre 4.
[29 1414 1411 [29
1415 1412
1416 1413
1417 1414
1418 1415
] [30] 1419 1416 ] [30]
Underfull \hbox (badness 1048) in paragraph at lines 25--26 1420 1417 Underfull \hbox (badness 1048) in paragraph at lines 25--26
[]\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la 1421 1418 []\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la
1422 1419
[] 1423 1420 []
1424 1421
<./Figures/ModCBR2.png, id=840, 1145.27875pt x 545.03625pt> 1425 1422 <./Figures/ModCBR2.png, id=840, 1145.27875pt x 545.03625pt>
File: ./Figures/ModCBR2.png Graphic file (type png) 1426 1423 File: ./Figures/ModCBR2.png Graphic file (type png)
<use ./Figures/ModCBR2.png> 1427 1424 <use ./Figures/ModCBR2.png>
Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 39. 1428 1425 Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 39.
(pdftex.def) Requested size: 427.43153pt x 203.41505pt. 1429 1426 (pdftex.def) Requested size: 427.43153pt x 203.41505pt.
1430 1427
Underfull \vbox (badness 1163) has occurred while \output is active [] 1431 1428 Underfull \vbox (badness 1163) has occurred while \output is active []
1432 1429
1433 1430
Overfull \hbox (24.44536pt too wide) has occurred while \output is active 1434 1431 Overfull \hbox (24.44536pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY 1435 1432 \T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY
CLE DU RÀPC \T1/phv/m/n/10.95 31 1436 1433 CLE DU RÀPC \T1/phv/m/n/10.95 31
[] 1437 1434 []
1438 1435
[31] 1439 1436 [31]
<./Figures/ModCBR1.png, id=854, 942.52126pt x 624.83438pt> 1440 1437 <./Figures/ModCBR1.png, id=854, 942.52126pt x 624.83438pt>
File: ./Figures/ModCBR1.png Graphic file (type png) 1441 1438 File: ./Figures/ModCBR1.png Graphic file (type png)
<use ./Figures/ModCBR1.png> 1442 1439 <use ./Figures/ModCBR1.png>
Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 45. 1443 1440 Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 45.
(pdftex.def) Requested size: 427.43153pt x 283.36574pt. 1444 1441 (pdftex.def) Requested size: 427.43153pt x 283.36574pt.
[32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34] 1445 1442 [32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34]
<./Figures/taxonomieEIAH.png, id=895, 984.67876pt x 614.295pt> 1446 1443 <./Figures/taxonomieEIAH.png, id=895, 984.67876pt x 614.295pt>
File: ./Figures/taxonomieEIAH.png Graphic file (type png) 1447 1444 File: ./Figures/taxonomieEIAH.png Graphic file (type png)
<use ./Figures/taxonomieEIAH.png> 1448 1445 <use ./Figures/taxonomieEIAH.png>
Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 81. 1449 1446 Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 81.
(pdftex.def) Requested size: 427.43153pt x 266.65376pt. 1450 1447 (pdftex.def) Requested size: 427.43153pt x 266.65376pt.
1451 1448
Underfull \hbox (badness 1895) in paragraph at lines 90--90 1452 1449 Underfull \hbox (badness 1895) in paragraph at lines 90--90
[][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés 1453 1450 [][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés
[] 1454 1451 []
1455 1452
[35] 1456 1453 [35]
Overfull \hbox (2.19226pt too wide) in paragraph at lines 108--108 1457 1454 Overfull \hbox (2.19226pt too wide) in paragraph at lines 108--108
[]|\T1/phv/m/n/9 [[]]| 1458 1455 []|\T1/phv/m/n/9 [[]]|
[] 1459 1456 []
1460 1457
1461 1458
Overfull \hbox (8.65419pt too wide) in paragraph at lines 114--114 1462 1459 Overfull \hbox (8.65419pt too wide) in paragraph at lines 114--114
[]|\T1/phv/m/n/9 [[]]| 1463 1460 []|\T1/phv/m/n/9 [[]]|
[] 1464 1461 []
1465 1462
1466 1463
Overfull \hbox (1.23834pt too wide) in paragraph at lines 134--134 1467 1464 Overfull \hbox (1.23834pt too wide) in paragraph at lines 134--134
[]|\T1/phv/m/n/9 [[]]| 1468 1465 []|\T1/phv/m/n/9 [[]]|
[] 1469 1466 []
1470 1467
1471 1468
Overfull \hbox (7.38495pt too wide) in paragraph at lines 142--142 1472 1469 Overfull \hbox (7.38495pt too wide) in paragraph at lines 142--142
[]|\T1/phv/m/n/9 [[]]| 1473 1470 []|\T1/phv/m/n/9 [[]]|
[] 1474 1471 []
1475 1472
) [36 <./Figures/taxonomieEIAH.png>] 1476 1473 ) [36 <./Figures/taxonomieEIAH.png>]
Overfull \hbox (14.11055pt too wide) has occurred while \output is active 1477 1474 Overfull \hbox (14.11055pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 4.7. RÉCAPITULATIF DES LIMITES DES TRAVAUX PRÉSENTÉS DANS C 1478 1475 \T1/phv/m/sl/10.95 4.7. RÉCAPITULATIF DES LIMITES DES TRAVAUX PRÉSENTÉS DANS C
E CHAPITRE \T1/phv/m/n/10.95 37 1479 1476 E CHAPITRE \T1/phv/m/n/10.95 37
[] 1480 1477 []
1481 1478
[37] [38 1482 1479 [37] [38
1483 1480
1484 1481
1485 1482
] [39] [40] 1486 1483 ] [39] [40]
\openout2 = `./chapters/Architecture.aux'. 1487 1484 \openout2 = `./chapters/Architecture.aux'.
1488 1485
(./chapters/Architecture.tex 1489 1486 (./chapters/Architecture.tex
Chapitre 5. 1490 1487 Chapitre 5.
1491 1488
Underfull \vbox (badness 10000) has occurred while \output is active [] 1492 1489 Underfull \vbox (badness 10000) has occurred while \output is active []
1493 1490
[41 1494 1491 [41
1495 1492
1496 1493
] 1497 1494 ]
<./Figures/AIVT.png, id=971, 1116.17pt x 512.91624pt> 1498 1495 <./Figures/AIVT.png, id=971, 1116.17pt x 512.91624pt>
File: ./Figures/AIVT.png Graphic file (type png) 1499 1496 File: ./Figures/AIVT.png Graphic file (type png)
<use ./Figures/AIVT.png> 1500 1497 <use ./Figures/AIVT.png>
Package pdftex.def Info: ./Figures/AIVT.png used on input line 23. 1501 1498 Package pdftex.def Info: ./Figures/AIVT.png used on input line 23.
(pdftex.def) Requested size: 427.43153pt x 196.41287pt. 1502 1499 (pdftex.def) Requested size: 427.43153pt x 196.41287pt.
1503 1500
[42 <./Figures/AIVT.png>] 1504 1501 [42 <./Figures/AIVT.png>]
Underfull \hbox (badness 3049) in paragraph at lines 44--45 1505 1502 Underfull \hbox (badness 3049) in paragraph at lines 44--45
[]|\T1/phv/m/n/10.95 Discipline des in-for-ma-tions conte- 1506 1503 []|\T1/phv/m/n/10.95 Discipline des in-for-ma-tions conte-
[] 1507 1504 []
1508 1505
1509 1506
Underfull \hbox (badness 2435) in paragraph at lines 46--46 1510 1507 Underfull \hbox (badness 2435) in paragraph at lines 46--46
[]|\T1/phv/m/n/10.95 Le ni-veau sco-laire de la ma-tière 1511 1508 []|\T1/phv/m/n/10.95 Le ni-veau sco-laire de la ma-tière
[] 1512 1509 []
1513 1510
1514 1511
Underfull \hbox (badness 7468) in paragraph at lines 47--48 1515 1512 Underfull \hbox (badness 7468) in paragraph at lines 47--48
[]|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- 1516 1513 []|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis-
[] 1517 1514 []
1518 1515
1519 1516
Underfull \hbox (badness 7468) in paragraph at lines 48--49 1520 1517 Underfull \hbox (badness 7468) in paragraph at lines 48--49
[]|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- 1521 1518 []|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis-
[] 1522 1519 []
1523 1520
1524 1521
Underfull \hbox (badness 5050) in paragraph at lines 52--52 1525 1522 Underfull \hbox (badness 5050) in paragraph at lines 52--52
[]|\T1/phv/m/n/10.95 Le type d'in-for-ma-tions conte-nues 1526 1523 []|\T1/phv/m/n/10.95 Le type d'in-for-ma-tions conte-nues
[] 1527 1524 []
1528 1525
1529 1526
Underfull \hbox (badness 10000) in paragraph at lines 54--55 1530 1527 Underfull \hbox (badness 10000) in paragraph at lines 54--55
[]|\T1/phv/m/n/10.95 Connaissances et 1531 1528 []|\T1/phv/m/n/10.95 Connaissances et
[] 1532 1529 []
1533 1530
1534 1531
Overfull \hbox (1.98096pt too wide) in paragraph at lines 57--57 1535 1532 Overfull \hbox (1.98096pt too wide) in paragraph at lines 57--57
[]|\T1/phv/m/n/10.95 Représentation 1536 1533 []|\T1/phv/m/n/10.95 Représentation
[] 1537 1534 []
1538 1535
1539 1536
Overfull \hbox (1.98096pt too wide) in paragraph at lines 58--58 1540 1537 Overfull \hbox (1.98096pt too wide) in paragraph at lines 58--58
[]|\T1/phv/m/n/10.95 Représentation 1541 1538 []|\T1/phv/m/n/10.95 Représentation
[] 1542 1539 []
1543 1540
1544 1541
Underfull \hbox (badness 10000) in paragraph at lines 59--60 1545 1542 Underfull \hbox (badness 10000) in paragraph at lines 59--60
[]|\T1/phv/m/n/10.95 Représentation tex- 1546 1543 []|\T1/phv/m/n/10.95 Représentation tex-
[] 1547 1544 []
1548 1545
1549 1546
Underfull \hbox (badness 10000) in paragraph at lines 59--60 1550 1547 Underfull \hbox (badness 10000) in paragraph at lines 59--60
\T1/phv/m/n/10.95 tuel et gra-phique 1551 1548 \T1/phv/m/n/10.95 tuel et gra-phique
[] 1552 1549 []
1553 1550
1554 1551
Underfull \hbox (badness 2343) in paragraph at lines 63--64 1555 1552 Underfull \hbox (badness 2343) in paragraph at lines 63--64
[]|\T1/phv/m/n/10.95 Ordinateur ou ap-pa- 1556 1553 []|\T1/phv/m/n/10.95 Ordinateur ou ap-pa-
[] 1557 1554 []
1558 1555
1559 1556
Underfull \vbox (badness 10000) has occurred while \output is active [] 1560 1557 Underfull \vbox (badness 10000) has occurred while \output is active []
1561 1558
[43] 1562 1559 [43]
<./Figures/Architecture AI-VT2.png, id=987, 1029.8475pt x 948.54375pt> 1563 1560 <./Figures/Architecture AI-VT2.png, id=987, 1029.8475pt x 948.54375pt>
File: ./Figures/Architecture AI-VT2.png Graphic file (type png) 1564 1561 File: ./Figures/Architecture AI-VT2.png Graphic file (type png)
<use ./Figures/Architecture AI-VT2.png> 1565 1562 <use ./Figures/Architecture AI-VT2.png>
Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line 1566 1563 Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line
80. 1567 1564 80.
(pdftex.def) Requested size: 427.43153pt x 393.68173pt. 1568 1565 (pdftex.def) Requested size: 427.43153pt x 393.68173pt.
1569 1566
Underfull \vbox (badness 10000) has occurred while \output is active [] 1570 1567 Underfull \vbox (badness 10000) has occurred while \output is active []
1571 1568
[44] 1572 1569 [44]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1573 1570 Underfull \vbox (badness 10000) has occurred while \output is active []
1574 1571
[45 <./Figures/Architecture AI-VT2.png>] 1575 1572 [45 <./Figures/Architecture AI-VT2.png>]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1576 1573 Underfull \vbox (badness 10000) has occurred while \output is active []
1577 1574
[46] 1578 1575 [46]
[47] [48] 1579 1576 [47] [48]
<./Figures/Layers.png, id=1014, 392.46625pt x 216.81pt> 1580 1577 <./Figures/Layers.png, id=1014, 392.46625pt x 216.81pt>
File: ./Figures/Layers.png Graphic file (type png) 1581 1578 File: ./Figures/Layers.png Graphic file (type png)
<use ./Figures/Layers.png> 1582 1579 <use ./Figures/Layers.png>
Package pdftex.def Info: ./Figures/Layers.png used on input line 153. 1583 1580 Package pdftex.def Info: ./Figures/Layers.png used on input line 153.
(pdftex.def) Requested size: 313.9734pt x 173.44823pt. 1584 1581 (pdftex.def) Requested size: 313.9734pt x 173.44823pt.
<./Figures/flow.png, id=1016, 721.69624pt x 593.21625pt> 1585 1582 <./Figures/flow.png, id=1016, 721.69624pt x 593.21625pt>
File: ./Figures/flow.png Graphic file (type png) 1586 1583 File: ./Figures/flow.png Graphic file (type png)
<use ./Figures/flow.png> 1587 1584 <use ./Figures/flow.png>
Package pdftex.def Info: ./Figures/flow.png used on input line 164. 1588 1585 Package pdftex.def Info: ./Figures/flow.png used on input line 164.
(pdftex.def) Requested size: 427.43153pt x 351.33421pt. 1589 1586 (pdftex.def) Requested size: 427.43153pt x 351.33421pt.
) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>] 1590 1587 ) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>]
\openout2 = `./chapters/ESCBR.aux'. 1591 1588 \openout2 = `./chapters/ESCBR.aux'.
1592 1589
1593 1590
(./chapters/ESCBR.tex 1594 1591 (./chapters/ESCBR.tex
Chapitre 6. 1595 1592 Chapitre 6.
1596 1593
Underfull \hbox (badness 1383) in paragraph at lines 6--8 1597 1594 Underfull \hbox (badness 1383) in paragraph at lines 6--8
\T1/phv/m/n/10.95 multi-agents cog-ni-tifs im-plé-men-tant un rai-son-ne-ment B 1598 1595 \T1/phv/m/n/10.95 multi-agents cog-ni-tifs im-plé-men-tant un rai-son-ne-ment B
ayé-sien. Cette as-so-cia-tion, 1599 1596 ayé-sien. Cette as-so-cia-tion,
[] 1600 1597 []
1601 1598
1602 1599
Underfull \hbox (badness 10000) in paragraph at lines 6--8 1603 1600 Underfull \hbox (badness 10000) in paragraph at lines 6--8
1604 1601
[] 1605 1602 []
1606 1603
[51 1607 1604 [51
1608 1605
1609 1606
1610 1607
1611 1608
] 1612 1609 ]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1613 1610 Underfull \vbox (badness 10000) has occurred while \output is active []
1614 1611
[52] 1615 1612 [52]
<./Figures/NCBR0.png, id=1059, 623.32875pt x 459.7175pt> 1616 1613 <./Figures/NCBR0.png, id=1059, 623.32875pt x 459.7175pt>
File: ./Figures/NCBR0.png Graphic file (type png) 1617 1614 File: ./Figures/NCBR0.png Graphic file (type png)
<use ./Figures/NCBR0.png> 1618 1615 <use ./Figures/NCBR0.png>
Package pdftex.def Info: ./Figures/NCBR0.png used on input line 33. 1619 1616 Package pdftex.def Info: ./Figures/NCBR0.png used on input line 33.
(pdftex.def) Requested size: 427.43153pt x 315.24129pt. 1620 1617 (pdftex.def) Requested size: 427.43153pt x 315.24129pt.
1621 1618
[53 <./Figures/NCBR0.png>] 1622 1619 [53 <./Figures/NCBR0.png>]
<./Figures/FlowCBR0.png, id=1070, 370.38374pt x 661.47125pt> 1623 1620 <./Figures/FlowCBR0.png, id=1070, 370.38374pt x 661.47125pt>
File: ./Figures/FlowCBR0.png Graphic file (type png) 1624 1621 File: ./Figures/FlowCBR0.png Graphic file (type png)
<use ./Figures/FlowCBR0.png> 1625 1622 <use ./Figures/FlowCBR0.png>
Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 44. 1626 1623 Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 44.
(pdftex.def) Requested size: 222.23195pt x 396.8858pt. 1627 1624 (pdftex.def) Requested size: 222.23195pt x 396.8858pt.
[54 <./Figures/FlowCBR0.png>] 1628 1625 [54 <./Figures/FlowCBR0.png>]
<./Figures/Stacking1.png, id=1080, 743.77875pt x 414.54875pt> 1629 1626 <./Figures/Stacking1.png, id=1080, 743.77875pt x 414.54875pt>
File: ./Figures/Stacking1.png Graphic file (type png) 1630 1627 File: ./Figures/Stacking1.png Graphic file (type png)
<use ./Figures/Stacking1.png> 1631 1628 <use ./Figures/Stacking1.png>
Package pdftex.def Info: ./Figures/Stacking1.png used on input line 83. 1632 1629 Package pdftex.def Info: ./Figures/Stacking1.png used on input line 83.
(pdftex.def) Requested size: 427.43153pt x 238.23717pt. 1633 1630 (pdftex.def) Requested size: 427.43153pt x 238.23717pt.
[55] 1634 1631 [55]
<./Figures/SolRep.png, id=1091, 277.035pt x 84.315pt> 1635 1632 <./Figures/SolRep.png, id=1091, 277.035pt x 84.315pt>
File: ./Figures/SolRep.png Graphic file (type png) 1636 1633 File: ./Figures/SolRep.png Graphic file (type png)
<use ./Figures/SolRep.png> 1637 1634 <use ./Figures/SolRep.png>
Package pdftex.def Info: ./Figures/SolRep.png used on input line 97. 1638 1635 Package pdftex.def Info: ./Figures/SolRep.png used on input line 97.
(pdftex.def) Requested size: 277.03432pt x 84.31477pt. 1639 1636 (pdftex.def) Requested size: 277.03432pt x 84.31477pt.
<./Figures/AutomaticS.png, id=1092, 688.5725pt x 548.0475pt> 1640 1637 <./Figures/AutomaticS.png, id=1092, 688.5725pt x 548.0475pt>
File: ./Figures/AutomaticS.png Graphic file (type png) 1641 1638 File: ./Figures/AutomaticS.png Graphic file (type png)
<use ./Figures/AutomaticS.png> 1642 1639 <use ./Figures/AutomaticS.png>
Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 106. 1643 1640 Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 106.
(pdftex.def) Requested size: 427.43153pt x 340.20406pt. 1644 1641 (pdftex.def) Requested size: 427.43153pt x 340.20406pt.
[56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic 1645 1642 [56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic
S.png>] [58] 1646 1643 S.png>] [58]
<./Figures/Stacking2.png, id=1127, 743.77875pt x 414.54875pt> 1647 1644 <./Figures/Stacking2.png, id=1127, 743.77875pt x 414.54875pt>
File: ./Figures/Stacking2.png Graphic file (type png) 1648 1645 File: ./Figures/Stacking2.png Graphic file (type png)
<use ./Figures/Stacking2.png> 1649 1646 <use ./Figures/Stacking2.png>
Package pdftex.def Info: ./Figures/Stacking2.png used on input line 191. 1650 1647 Package pdftex.def Info: ./Figures/Stacking2.png used on input line 191.
(pdftex.def) Requested size: 427.43153pt x 238.23717pt. 1651 1648 (pdftex.def) Requested size: 427.43153pt x 238.23717pt.
1652 1649
Underfull \hbox (badness 10000) in paragraph at lines 202--204 1653 1650 Underfull \hbox (badness 10000) in paragraph at lines 202--204
1654 1651
[] 1655 1652 []
1656 1653
[59 <./Figures/Stacking2.png>] 1657 1654 [59 <./Figures/Stacking2.png>]
<Figures/FW.png, id=1142, 456.70625pt x 342.27875pt> 1658 1655 <Figures/FW.png, id=1142, 456.70625pt x 342.27875pt>
File: Figures/FW.png Graphic file (type png) 1659 1656 File: Figures/FW.png Graphic file (type png)
<use Figures/FW.png> 1660 1657 <use Figures/FW.png>
Package pdftex.def Info: Figures/FW.png used on input line 217. 1661 1658 Package pdftex.def Info: Figures/FW.png used on input line 217.
(pdftex.def) Requested size: 427.43153pt x 320.34758pt. 1662 1659 (pdftex.def) Requested size: 427.43153pt x 320.34758pt.
[60 <./Figures/FW.png>] [61] 1663 1660 [60 <./Figures/FW.png>] [61]
<./Figures/boxplot.png, id=1163, 1994.45125pt x 959.585pt> 1664 1661 <./Figures/boxplot.png, id=1163, 1994.45125pt x 959.585pt>
File: ./Figures/boxplot.png Graphic file (type png) 1665 1662 File: ./Figures/boxplot.png Graphic file (type png)
<use ./Figures/boxplot.png> 1666 1663 <use ./Figures/boxplot.png>
Package pdftex.def Info: ./Figures/boxplot.png used on input line 323. 1667 1664 Package pdftex.def Info: ./Figures/boxplot.png used on input line 323.
(pdftex.def) Requested size: 427.43153pt x 205.64786pt. 1668 1665 (pdftex.def) Requested size: 427.43153pt x 205.64786pt.
[62] 1669 1666 [62]
Underfull \hbox (badness 10000) in paragraph at lines 342--343 1670 1667 Underfull \hbox (badness 10000) in paragraph at lines 342--343
1671 1668
[] 1672 1669 []
1673 1670
1674 1671
Underfull \hbox (badness 10000) in paragraph at lines 342--343 1675 1672 Underfull \hbox (badness 10000) in paragraph at lines 342--343
1676 1673
[] 1677 1674 []
1678 1675
1679 1676
Underfull \hbox (badness 2564) in paragraph at lines 344--344 1680 1677 Underfull \hbox (badness 2564) in paragraph at lines 344--344
[][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tèmes multi- 1681 1678 [][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tèmes multi-
[] 1682 1679 []
1683 1680
1684 1681
Overfull \hbox (5.60397pt too wide) has occurred while \output is active 1685 1682 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN 1686 1683 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
S ESCBR \T1/phv/m/n/10.95 63 1687 1684 S ESCBR \T1/phv/m/n/10.95 63
[] 1688 1685 []
1689 1686
[63 <./Figures/boxplot.png>] 1690 1687 [63 <./Figures/boxplot.png>]
<Figures/NCBR.png, id=1175, 653.44125pt x 445.665pt> 1691 1688 <Figures/NCBR.png, id=1175, 653.44125pt x 445.665pt>
File: Figures/NCBR.png Graphic file (type png) 1692 1689 File: Figures/NCBR.png Graphic file (type png)
<use Figures/NCBR.png> 1693 1690 <use Figures/NCBR.png>
Package pdftex.def Info: Figures/NCBR.png used on input line 354. 1694 1691 Package pdftex.def Info: Figures/NCBR.png used on input line 354.
(pdftex.def) Requested size: 427.43153pt x 291.5149pt. 1695 1692 (pdftex.def) Requested size: 427.43153pt x 291.5149pt.
[64 <./Figures/NCBR.png>] 1696 1693 [64 <./Figures/NCBR.png>]
<Figures/FlowCBR.png, id=1184, 450.68375pt x 822.07124pt> 1697 1694 <Figures/FlowCBR.png, id=1184, 450.68375pt x 822.07124pt>
File: Figures/FlowCBR.png Graphic file (type png) 1698 1695 File: Figures/FlowCBR.png Graphic file (type png)
<use Figures/FlowCBR.png> 1699 1696 <use Figures/FlowCBR.png>
Package pdftex.def Info: Figures/FlowCBR.png used on input line 383. 1700 1697 Package pdftex.def Info: Figures/FlowCBR.png used on input line 383.
(pdftex.def) Requested size: 270.41232pt x 493.24655pt. 1701 1698 (pdftex.def) Requested size: 270.41232pt x 493.24655pt.
1702 1699
Underfull \hbox (badness 1107) in paragraph at lines 426--427 1703 1700 Underfull \hbox (badness 1107) in paragraph at lines 426--427
[]\T1/phv/m/n/10.95 Cette sec-tion pré-sente de ma-nière plus dé-taillée les co 1704 1701 []\T1/phv/m/n/10.95 Cette sec-tion pré-sente de ma-nière plus dé-taillée les co
m-por-te-ments des agents 1705 1702 m-por-te-ments des agents
[] 1706 1703 []
1707 1704
1708 1705
Underfull \vbox (badness 10000) has occurred while \output is active [] 1709 1706 Underfull \vbox (badness 10000) has occurred while \output is active []
1710 1707
1711 1708
Overfull \hbox (5.60397pt too wide) has occurred while \output is active 1712 1709 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN 1713 1710 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
S ESCBR \T1/phv/m/n/10.95 65 1714 1711 S ESCBR \T1/phv/m/n/10.95 65
[] 1715 1712 []
1716 1713
[65] 1717 1714 [65]
Underfull \vbox (badness 2111) has occurred while \output is active [] 1718 1715 Underfull \vbox (badness 2111) has occurred while \output is active []
1719 1716
[66 <./Figures/FlowCBR.png>] 1720 1717 [66 <./Figures/FlowCBR.png>]
<Figures/agent.png, id=1199, 352.31625pt x 402.50375pt> 1721 1718 <Figures/agent.png, id=1199, 352.31625pt x 402.50375pt>
File: Figures/agent.png Graphic file (type png) 1722 1719 File: Figures/agent.png Graphic file (type png)
<use Figures/agent.png> 1723 1720 <use Figures/agent.png>
Package pdftex.def Info: Figures/agent.png used on input line 467. 1724 1721 Package pdftex.def Info: Figures/agent.png used on input line 467.
(pdftex.def) Requested size: 246.61969pt x 281.7507pt. 1725 1722 (pdftex.def) Requested size: 246.61969pt x 281.7507pt.
1726 1723
Overfull \hbox (5.60397pt too wide) has occurred while \output is active 1727 1724 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN 1728 1725 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
S ESCBR \T1/phv/m/n/10.95 67 1729 1726 S ESCBR \T1/phv/m/n/10.95 67
[] 1730 1727 []
1731 1728
[67] 1732 1729 [67]
<Figures/BayesianEvolution.png, id=1209, 626.34pt x 402.50375pt> 1733 1730 <Figures/BayesianEvolution.png, id=1209, 626.34pt x 402.50375pt>
File: Figures/BayesianEvolution.png Graphic file (type png) 1734 1731 File: Figures/BayesianEvolution.png Graphic file (type png)
<use Figures/BayesianEvolution.png> 1735 1732 <use Figures/BayesianEvolution.png>
Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 480. 1736 1733 Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 480.
1737 1734
(pdftex.def) Requested size: 313.16922pt x 201.25137pt. 1738 1735 (pdftex.def) Requested size: 313.16922pt x 201.25137pt.
[68 <./Figures/agent.png>] 1739 1736 [68 <./Figures/agent.png>]
Overfull \hbox (5.60397pt too wide) has occurred while \output is active 1740 1737 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN 1741 1738 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
S ESCBR \T1/phv/m/n/10.95 69 1742 1739 S ESCBR \T1/phv/m/n/10.95 69
[] 1743 1740 []
1744 1741
[69 <./Figures/BayesianEvolution.png>] 1745 1742 [69 <./Figures/BayesianEvolution.png>]
Underfull \hbox (badness 10000) in paragraph at lines 525--525 1746 1743 Underfull \hbox (badness 10000) in paragraph at lines 525--525
[]|\T1/phv/m/n/8 Input. 1747 1744 []|\T1/phv/m/n/8 Input.
[] 1748 1745 []
1749 1746
1750 1747
Underfull \hbox (badness 10000) in paragraph at lines 525--526 1751 1748 Underfull \hbox (badness 10000) in paragraph at lines 525--526
[]|\T1/phv/m/n/8 Output 1752 1749 []|\T1/phv/m/n/8 Output
[] 1753 1750 []
1754 1751
[70] 1755 1752 [70]
<Figures/boxplot2.png, id=1240, 1615.03375pt x 835.12pt> 1756 1753 <Figures/boxplot2.png, id=1240, 1615.03375pt x 835.12pt>
File: Figures/boxplot2.png Graphic file (type png) 1757 1754 File: Figures/boxplot2.png Graphic file (type png)
<use Figures/boxplot2.png> 1758 1755 <use Figures/boxplot2.png>
Package pdftex.def Info: Figures/boxplot2.png used on input line 658. 1759 1756 Package pdftex.def Info: Figures/boxplot2.png used on input line 658.
(pdftex.def) Requested size: 427.43153pt x 221.01265pt. 1760 1757 (pdftex.def) Requested size: 427.43153pt x 221.01265pt.
) 1761 1758 )
Overfull \hbox (5.60397pt too wide) has occurred while \output is active 1762 1759 Overfull \hbox (5.60397pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN 1763 1760 \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN
S ESCBR \T1/phv/m/n/10.95 71 1764 1761 S ESCBR \T1/phv/m/n/10.95 71
[] 1765 1762 []
1766 1763
[71] [72 <./Figures/boxplot2.png>] 1767 1764 [71] [72 <./Figures/boxplot2.png>]
\openout2 = `./chapters/TS.aux'. 1768 1765 \openout2 = `./chapters/TS.aux'.
1769 1766
(./chapters/TS.tex 1770 1767 (./chapters/TS.tex
Chapitre 7. 1771 1768 Chapitre 7.
1772 1769
Underfull \vbox (badness 2512) has occurred while \output is active [] 1773 1770 Underfull \vbox (badness 2512) has occurred while \output is active []
1774 1771
[73 1775 1772 [73
1776 1773
1777 1774
1778 1775
1779 1776
] 1780 1777 ]
Underfull \hbox (badness 10000) in paragraph at lines 27--28 1781 1778 Underfull \hbox (badness 10000) in paragraph at lines 27--28
1782 1779
[] 1783 1780 []
1784 1781
1785 1782
Underfull \hbox (badness 10000) in paragraph at lines 27--28 1786 1783 Underfull \hbox (badness 10000) in paragraph at lines 27--28
1787 1784

No preview for this file type

main.synctex.gz View file @ 6769ad6

No preview for this file type

\babel@toc {french}{}\relax 1 1 \babel@toc {french}{}\relax
\contentsline {part}{I\hspace {1em}Contexte et Problématiques}{1}{part.1}% 2 2 \contentsline {part}{I\hspace {1em}Contexte et Problématiques}{1}{part.1}%
\contentsline {chapter}{\numberline {1}Introduction}{3}{chapter.1}% 3 3 \contentsline {chapter}{\numberline {1}Introduction}{3}{chapter.1}%
\contentsline {section}{\numberline {1.1}Contributions Principales}{4}{section.1.1}% 4 4 \contentsline {section}{\numberline {1.1}Contributions Principales}{4}{section.1.1}%
\contentsline {section}{\numberline {1.2}Plan de la thèse}{5}{section.1.2}% 5 5 \contentsline {section}{\numberline {1.2}Plan de la thèse}{5}{section.1.2}%
\contentsline {chapter}{\numberline {2}Contexte}{7}{chapter.2}% 6 6 \contentsline {chapter}{\numberline {2}Contexte}{7}{chapter.2}%
\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{7}{section.2.1}% 7 7 \contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{7}{section.2.1}%
\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{7}{subsection.2.1.1}% 8 8 \contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{7}{subsection.2.1.1}%
\contentsline {subsection}{\numberline {2.1.2}Les EIAH}{8}{subsection.2.1.2}% 9 9 \contentsline {subsection}{\numberline {2.1.2}Les EIAH}{8}{subsection.2.1.2}%
\contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{9}{subsection.2.1.3}% 10 10 \contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{9}{subsection.2.1.3}%
\contentsline {section}{\numberline {2.2}Le contexte technique}{10}{section.2.2}% 11 11 \contentsline {section}{\numberline {2.2}Le contexte technique}{10}{section.2.2}%
\contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{10}{subsection.2.2.1}% 12 12 \contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{10}{subsection.2.2.1}%
\contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{12}{subsubsection.2.2.1.1}% 13 13 \contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{12}{subsubsection.2.2.1.1}%
\contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{12}{subsubsection.2.2.1.2}% 14 14 \contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{12}{subsubsection.2.2.1.2}%
\contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{12}{subsubsection.2.2.1.3}% 15 15 \contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{12}{subsubsection.2.2.1.3}%
\contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{13}{subsubsection.2.2.1.4}% 16 16 \contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{13}{subsubsection.2.2.1.4}%
\contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{14}{subsubsection.2.2.1.5}% 17 17 \contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{14}{subsubsection.2.2.1.5}%
\contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{14}{subsection.2.2.2}% 18 18 \contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{14}{subsection.2.2.2}%
\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées}{15}{subsection.2.2.3}% 19 19 \contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées}{15}{subsection.2.2.3}%
\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{15}{subsubsection.2.2.3.1}% 20 20 \contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{15}{subsubsection.2.2.3.1}%
\contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{16}{subsubsection.2.2.3.2}% 21 21 \contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{16}{subsubsection.2.2.3.2}%
\contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{17}{subsubsection.2.2.3.3}% 22 22 \contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{17}{subsubsection.2.2.3.3}%
\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{18}{subsubsection.2.2.3.4}% 23 23 \contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{18}{subsubsection.2.2.3.4}%
\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{18}{subsubsection.2.2.3.5}% 24 24 \contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{18}{subsubsection.2.2.3.5}%
\contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{19}{subsubsection.2.2.3.6}% 25 25 \contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{19}{subsubsection.2.2.3.6}%
\contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{19}{subsubsection.2.2.3.7}% 26 26 \contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{19}{subsubsection.2.2.3.7}%
\contentsline {part}{II\hspace {1em}État de l'art}{21}{part.2}% 27 27 \contentsline {part}{II\hspace {1em}État de l'art}{21}{part.2}%
\contentsline {chapter}{\numberline {3}Environnements Informatiques d'Apprentissage Humain}{23}{chapter.3}% 28 28 \contentsline {chapter}{\numberline {3}Environnements Informatiques d'Apprentissage Humain}{23}{chapter.3}%
\contentsline {section}{\numberline {3.1}L'Intelligence Artificielle}{23}{section.3.1}% 29 29 \contentsline {section}{\numberline {3.1}L'Intelligence Artificielle}{23}{section.3.1}%
\contentsline {section}{\numberline {3.2}Systèmes de recommandation dans les EIAH}{24}{section.3.2}% 30 30 \contentsline {section}{\numberline {3.2}Systèmes de recommandation dans les EIAH}{24}{section.3.2}%
\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}% 31 31 \contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}%
\contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}% 32 32 \contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}%
\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}% 33 33 \contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}%
\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}% 34 34 \contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}%
\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}% 35 35 \contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}%
\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}% 36 36 \contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}%
\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}% 37 37 \contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}%
\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}% 38 38 \contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}%
\contentsline {part}{III\hspace {1em}Contributions}{39}{part.3}% 39 39 \contentsline {part}{III\hspace {1em}Contributions}{39}{part.3}%
\contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}% 40 40 \contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}%
\contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}% 41 41 \contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}%
\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}% 42 42 \contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}%
\contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}% 43 43 \contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}%
\contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}% 44 44 \contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}%
\contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}% 45 45 \contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}%
\contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}% 46 46 \contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}%
\contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}% 47 47 \contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}%
\contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}% 48 48 \contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}%
\contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}% 49 49 \contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}%
\contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}% 50 50 \contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}%
\contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}% 51 51 \contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}%
\contentsline {subsection}{\numberline {6.2.1}Modèle Proposé}{53}{subsection.6.2.1}% 52 52 \contentsline {subsection}{\numberline {6.2.1}Modèle Proposé}{53}{subsection.6.2.1}%
\contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}% 53 53 \contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}%
\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}% 54 54 \contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}%
\contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}% 55 55 \contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}%
\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}% 56 56 \contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}%
\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}% 57 57 \contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}%
\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}% 58 58 \contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}%
\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}% 59 59 \contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}%
\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}% 60 60 \contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}%
\contentsline {subsection}{\numberline {6.3.1}Modèle Proposé}{64}{subsection.6.3.1}% 61 61 \contentsline {subsection}{\numberline {6.3.1}Modèle Proposé}{64}{subsection.6.3.1}%
\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{65}{subsubsection.6.3.1.1}% 62 62 \contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{65}{subsubsection.6.3.1.1}%
\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{66}{subsubsection.6.3.1.2}% 63 63 \contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{66}{subsubsection.6.3.1.2}%
\contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}% 64 64 \contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}%
\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}% 65 65 \contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}%
\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}% 66 66 \contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}%
\contentsline {subsection}{\numberline {6.3.3}Conclusion}{71}{subsection.6.3.3}% 67 67 \contentsline {subsection}{\numberline {6.3.3}Conclusion}{71}{subsection.6.3.3}%
\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}% 68 68 \contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}%
\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}% 69 69 \contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}%
\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}% 70 70 \contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}%
\contentsline {subsection}{\numberline {7.2.1}Modèle Proposé}{74}{subsection.7.2.1}% 71 71 \contentsline {subsection}{\numberline {7.2.1}Modèle Proposé}{74}{subsection.7.2.1}%
\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}% 72 72 \contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}%
\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{83}{subsection.7.2.3}% 73 73 \contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{83}{subsection.7.2.3}%
\contentsline {section}{\numberline {7.3}ESCBR-SMA et Échantillonnage de Thompson}{84}{section.7.3}% 74 74 \contentsline {section}{\numberline {7.3}ESCBR-SMA et Échantillonnage de Thompson}{84}{section.7.3}%
\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}% 75 75 \contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}%
\contentsline {subsection}{\numberline {7.3.2}Modèle Proposé}{87}{subsection.7.3.2}% 76 76 \contentsline {subsection}{\numberline {7.3.2}Modèle Proposé}{87}{subsection.7.3.2}%
\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}% 77 77 \contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{89}{subsection.7.3.3}%
\contentsline {subsubsection}{\numberline {7.3.3.1}Régression dans la base de données des apprenants avec ESCBR-SMA}{89}{subsubsection.7.3.3.1}% 78 78 \contentsline {subsubsection}{\numberline {7.3.3.1}Régression dans la base de données des apprenants avec ESCBR-SMA}{89}{subsubsection.7.3.3.1}%
\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{90}{subsubsection.7.3.3.2}% 79 79 \contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{90}{subsubsection.7.3.3.2}%
\contentsline {subsubsection}{\numberline {7.3.3.3}Comparaison entre TS et BKT}{91}{subsubsection.7.3.3.3}% 80 80 \contentsline {subsubsection}{\numberline {7.3.3.3}Comparaison entre TS et BKT}{91}{subsubsection.7.3.3.3}%
\contentsline {subsubsection}{\numberline {7.3.3.4}Système de recommandation avec ESCBR-SMA}{92}{subsubsection.7.3.3.4}% 81 81 \contentsline {subsubsection}{\numberline {7.3.3.4}Système de recommandation avec ESCBR-SMA}{92}{subsubsection.7.3.3.4}%
\contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.5}% 82 82 \contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.5}%
\contentsline {subsection}{\numberline {7.3.4}Conclusion}{94}{subsection.7.3.4}% 83 83 \contentsline {subsection}{\numberline {7.3.4}Conclusion}{94}{subsection.7.3.4}%
\contentsline {section}{\numberline {7.4}ESCBR-SMA, Échantillonnage de Thompson et Processus de Hawkes}{95}{section.7.4}% 84 84 \contentsline {section}{\numberline {7.4}ESCBR-SMA, Échantillonnage de Thompson et Processus de Hawkes}{95}{section.7.4}%
\contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{95}{subsection.7.4.1}% 85 85 \contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{95}{subsection.7.4.1}%
\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{97}{subsection.7.4.2}% 86 86 \contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{97}{subsection.7.4.2}%
\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{97}{subsubsection.7.4.2.1}% 87 87 \contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{97}{subsubsection.7.4.2.1}%
\contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{97}{subsubsection.7.4.2.2}% 88 88 \contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{97}{subsubsection.7.4.2.2}%
\contentsline {subsection}{\numberline {7.4.3}Conclusion}{99}{subsection.7.4.3}% 89 89 \contentsline {subsection}{\numberline {7.4.3}Conclusion}{99}{subsection.7.4.3}%
\contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{101}{chapter.8}% 90 90 \contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{101}{chapter.8}%
\contentsline {section}{\numberline {8.1}Conclusion générale}{101}{section.8.1}% 91 91 \contentsline {section}{\numberline {8.1}Conclusion générale}{101}{section.8.1}%
\contentsline {section}{\numberline {8.2}Perspectives}{101}{section.8.2}% 92 92 \contentsline {section}{\numberline {8.2}Perspectives}{101}{section.8.2}%
\contentsline {chapter}{\numberline {9}Publications}{103}{chapter.9}% 93 93 \contentsline {chapter}{\numberline {9}Publications}{103}{chapter.9}%
\contentsline {section}{\numberline {9.1}Publications par rapport au sujet de thèse}{103}{section.9.1}% 94 94 \contentsline {section}{\numberline {9.1}Publications par rapport au sujet de thèse}{103}{section.9.1}%
\contentsline {section}{\numberline {9.2}Autres publications}{104}{section.9.2}% 95 95 \contentsline {section}{\numberline {9.2}Autres publications}{104}{section.9.2}%
96 96