Commit d540f0bdb49bb096c54a0d1680a09fea6b20dab1

Authored by dsotofor
1 parent 09472fbd0f
Exists in main

another version chapters unification

Showing 7 changed files with 76 additions and 74 deletions Inline Diff

chapters/Publications.tex View file @ d540f0b
\chapter{Publications} 1 1 \chapter{Publications}
2 2
Pendant le travail de cette thèse, plusieurs articles ont été produits en explicitant les contributions réalisées, en parallèle d'autres publications ont été produites dans le cadre de la recherche en informatique.\\ 3 3 Pendant le travail de cette thèse, plusieurs articles ont été produits en explicitant les contributions réalisées, en parallèle d'autres publications ont été produites dans le cadre de la recherche en informatique.\\
4 4
\section{Publications par rapport au sujet de thèse} 5 5 \section{Publications par rapport au sujet de thèse}
6 6
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Ensemble Stacking Case-Based Reasoning and a Stochastic Recommender Algorithm with the Hawkes Process Applied to ITS AI-VT. (ITS - International Conference on Intelligent Tutoring Systems) 2025.\\ 7 7 Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Ensemble Stacking Case-Based Reasoning and a Stochastic Recommender Algorithm with the Hawkes Process Applied to ITS AI-VT. (ITS - International Conference on Intelligent Tutoring Systems) 2025.\\
8 8
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Modèle de Recommandation Stochastique et de Raisonnement à Partir de Cas Appliqué à AI-VT. (EIAH - Conférence sur les Environnements Informatiques pour l'Apprentissage Humain) 2025.\\ 9 9 Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Modèle de Recommandation Stochastique et de Raisonnement à Partir de Cas Appliqué à AI-VT. (EIAH - Conférence sur les Environnements Informatiques pour l'Apprentissage Humain) 2025.\\
10 10
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Integration of Stacking Case-Based Reasoning with a Multi-Agent System Applied to Regression Problems. (JCST - Journal of Computer Science and Technology) 2025.\\ 11 11 Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Integration of Stacking Case-Based Reasoning with a Multi-Agent System Applied to Regression Problems. (JCST - Journal of Computer Science and Technology) 2025.\\
12 12
Daniel Soto Forero, Simha Ackermann, Marie-Laure Betbeder and Julien Henriet. The Intelligent Tutoring System AI-VT with Case-Based Reasoning and Real Time Recommender Models. International Conference on Case Based Reasoning (ICCBR - International Conference on Case-Based Reasoning). 2024.\\ 13 13 Daniel Soto Forero, Simha Ackermann, Marie-Laure Betbeder and Julien Henriet. The Intelligent Tutoring System AI-VT with Case-Based Reasoning and Real Time Recommender Models. International Conference on Case Based Reasoning (ICCBR - International Conference on Case-Based Reasoning). 2024.\\
14 14
Daniel Soto Forero, Marie-Laure Betbeder and Julien Henriet. Ensemble Stacking Case-Based Reasoning for Regression. International Conference on Case Based Reasoning (ICCBR - International Conference on Case-Based Reasoning). 2024.\\ 15 15 Daniel Soto Forero, Marie-Laure Betbeder and Julien Henriet. Ensemble Stacking Case-Based Reasoning for Regression. International Conference on Case Based Reasoning (ICCBR - International Conference on Case-Based Reasoning). 2024.\\
chapters/TS.aux View file @ d540f0b
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{Soto2} 3 3 \citation{Soto2}
\citation{MUANGPRATHUB2020e05227} 4 4 \citation{MUANGPRATHUB2020e05227}
\citation{9870279} 5 5 \citation{9870279}
\@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 7 7 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 8 8 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent } 9 9 \@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent }
\citation{Liu2023} 10 10 \citation{Liu2023}
\@writefile{toc}{\contentsline {section}{\numberline {7.2}PREMIÈRE PARTIE}{74}{section.7.2}\protected@file@percent } 11 11 \@writefile{toc}{\contentsline {section}{\numberline {7.2}PREMIÈRE PARTIE}{74}{section.7.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Modèle Proposé}{74}{subsection.7.2.1}\protected@file@percent } 12 12 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Modèle Proposé}{74}{subsection.7.2.1}\protected@file@percent }
\newlabel{eqBeta}{{7.1}{75}{Modèle Proposé}{equation.7.2.1}{}} 13 13 \newlabel{eqBeta}{{7.1}{75}{Modèle Proposé}{equation.7.2.1}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.1}{\ignorespaces Variables et paramètres du modèle proposé\relax }}{75}{table.caption.44}\protected@file@percent } 14 14 \@writefile{lot}{\contentsline {table}{\numberline {7.1}{\ignorespaces Variables et paramètres du modèle proposé\relax }}{75}{table.caption.44}\protected@file@percent }
\newlabel{tabPar}{{7.1}{75}{Variables et paramètres du modèle proposé\relax }{table.caption.44}{}} 15 15 \newlabel{tabPar}{{7.1}{75}{Variables et paramètres du modèle proposé\relax }{table.caption.44}{}}
\newlabel{eqsMg}{{7.2}{75}{Modèle Proposé}{equation.7.2.2}{}} 16 16 \newlabel{eqsMg}{{7.2}{75}{Modèle Proposé}{equation.7.2.2}{}}
\citation{Arthurs} 17 17 \citation{Arthurs}
\newlabel{eqgtc}{{7.3}{76}{Modèle Proposé}{equation.7.2.3}{}} 18 18 \newlabel{eqgtc}{{7.3}{76}{Modèle Proposé}{equation.7.2.3}{}}
\newlabel{eqltc}{{7.4}{76}{Modèle Proposé}{equation.7.2.4}{}} 19 19 \newlabel{eqltc}{{7.4}{76}{Modèle Proposé}{equation.7.2.4}{}}
\newlabel{eqBRnd}{{7.5}{76}{Modèle Proposé}{equation.7.2.5}{}} 20 20 \newlabel{eqBRnd}{{7.5}{76}{Modèle Proposé}{equation.7.2.5}{}}
\newlabel{eqsncl}{{7.6}{76}{Modèle Proposé}{equation.7.2.6}{}} 21 21 \newlabel{eqsncl}{{7.6}{76}{Modèle Proposé}{equation.7.2.6}{}}
\newlabel{eqsGT}{{7.7}{76}{Modèle Proposé}{equation.7.2.7}{}} 22 22 \newlabel{eqsGT}{{7.7}{76}{Modèle Proposé}{equation.7.2.7}{}}
\@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Stochastic Recommendation Model\relax }}{76}{algorithm.1}\protected@file@percent } 23 23 \@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Stochastic Recommendation Model\relax }}{76}{algorithm.1}\protected@file@percent }
\newlabel{alg2}{{1}{76}{Stochastic Recommendation Model\relax }{algorithm.1}{}} 24 24 \newlabel{alg2}{{1}{76}{Stochastic Recommendation Model\relax }{algorithm.1}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent } 25 25 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Boîte à moustaches pour la base de données générée\relax }}{77}{figure.caption.45}\protected@file@percent } 26 26 \@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Boîte à moustaches pour la base de données générée\relax }}{77}{figure.caption.45}\protected@file@percent }
\newlabel{figData}{{7.1}{77}{Boîte à moustaches pour la base de données générée\relax }{figure.caption.45}{}} 27 27 \newlabel{figData}{{7.1}{77}{Boîte à moustaches pour la base de données générée\relax }{figure.caption.45}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des variables utilisées dans la base de données evaluée\relax }}{77}{table.caption.46}\protected@file@percent } 28 28 \@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des variables utilisées dans la base de données evaluée\relax }}{77}{table.caption.46}\protected@file@percent }
\newlabel{tabDataSet}{{7.2}{77}{Description des variables utilisées dans la base de données evaluée\relax }{table.caption.46}{}} 29 29 \newlabel{tabDataSet}{{7.2}{77}{Description des variables utilisées dans la base de données evaluée\relax }{table.caption.46}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios evalués\relax }}{77}{table.caption.47}\protected@file@percent } 30 30 \@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios evalués\relax }}{77}{table.caption.47}\protected@file@percent }
\newlabel{tabgm1}{{7.3}{77}{Valeurs des paramètres pour les scénarios evalués\relax }{table.caption.47}{}} 31 31 \newlabel{tabgm1}{{7.3}{77}{Valeurs des paramètres pour les scénarios evalués\relax }{table.caption.47}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.2}{\ignorespaces Résultats pour le premier test\relax }}{78}{figure.caption.48}\protected@file@percent } 32 32 \@writefile{lof}{\contentsline {figure}{\numberline {7.2}{\ignorespaces Résultats pour le premier test\relax }}{78}{figure.caption.48}\protected@file@percent }
\newlabel{figCmp2}{{7.2}{78}{Résultats pour le premier test\relax }{figure.caption.48}{}} 33 33 \newlabel{figCmp2}{{7.2}{78}{Résultats pour le premier test\relax }{figure.caption.48}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.3}{\ignorespaces Résultats pour le deuxième Test\relax }}{79}{figure.caption.49}\protected@file@percent } 34 34 \@writefile{lof}{\contentsline {figure}{\numberline {7.3}{\ignorespaces Résultats pour le deuxième Test\relax }}{79}{figure.caption.49}\protected@file@percent }
\newlabel{figCmp3}{{7.3}{79}{Résultats pour le deuxième Test\relax }{figure.caption.49}{}} 35 35 \newlabel{figCmp3}{{7.3}{79}{Résultats pour le deuxième Test\relax }{figure.caption.49}{}}
\newlabel{eqMetric1}{{7.8}{79}{Résultats}{equation.7.2.8}{}} 36 36 \newlabel{eqMetric1}{{7.8}{79}{Résultats}{equation.7.2.8}{}}
\newlabel{eqMetric2}{{7.9}{79}{Résultats}{equation.7.2.9}{}} 37 37 \newlabel{eqMetric2}{{7.9}{79}{Résultats}{equation.7.2.9}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.4}{\ignorespaces Résultats pour le troisième Test\relax }}{80}{figure.caption.50}\protected@file@percent } 38 38 \@writefile{lof}{\contentsline {figure}{\numberline {7.4}{\ignorespaces Résultats pour le troisième Test\relax }}{80}{figure.caption.50}\protected@file@percent }
\newlabel{figCmp4}{{7.4}{80}{Résultats pour le troisième Test\relax }{figure.caption.50}{}} 39 39 \newlabel{figCmp4}{{7.4}{80}{Résultats pour le troisième Test\relax }{figure.caption.50}{}}
\newlabel{eqXc}{{7.10}{80}{Résultats}{equation.7.2.10}{}} 40 40 \newlabel{eqXc}{{7.10}{80}{Résultats}{equation.7.2.10}{}}
\newlabel{eqYc}{{7.11}{80}{Résultats}{equation.7.2.11}{}} 41 41 \newlabel{eqYc}{{7.11}{80}{Résultats}{equation.7.2.11}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{80}{table.caption.52}\protected@file@percent } 42 42 \@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{80}{table.caption.52}\protected@file@percent }
\newlabel{tabRM}{{7.4}{80}{Résultats de la métrique $rp_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.52}{}} 43 43 \newlabel{tabRM}{{7.4}{80}{Résultats de la métrique $rp_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.52}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Métrique pour le parcours standard\relax }}{81}{figure.caption.51}\protected@file@percent } 44 44 \@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Métrique pour le parcours standard\relax }}{81}{figure.caption.51}\protected@file@percent }
\newlabel{figMetric}{{7.5}{81}{Métrique pour le parcours standard\relax }{figure.caption.51}{}} 45 45 \newlabel{figMetric}{{7.5}{81}{Métrique pour le parcours standard\relax }{figure.caption.51}{}}
\newlabel{eqMetricS1}{{7.12}{81}{Résultats}{equation.7.2.12}{}} 46 46 \newlabel{eqMetricS1}{{7.12}{81}{Résultats}{equation.7.2.12}{}}
\newlabel{eqMetricS2}{{7.13}{81}{Résultats}{equation.7.2.13}{}} 47 47 \newlabel{eqMetricS2}{{7.13}{81}{Résultats}{equation.7.2.13}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }}{82}{figure.caption.53}\protected@file@percent } 48 48 \@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }}{82}{figure.caption.53}\protected@file@percent }
\newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }{figure.caption.53}{}} 49 49 \newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }{figure.caption.53}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Résultats de la métrique $rs_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.54}\protected@file@percent } 50 50 \@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Résultats de la métrique $rs_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.54}\protected@file@percent }
\newlabel{tabRM2}{{7.5}{82}{Résultats de la métrique $rs_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.54}{}} 51 51 \newlabel{tabRM2}{{7.5}{82}{Résultats de la métrique $rs_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.54}{}}
\newlabel{eqCS}{{7.14}{82}{Résultats}{equation.7.2.14}{}} 52 52 \newlabel{eqCS}{{7.14}{82}{Résultats}{equation.7.2.14}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.55}\protected@file@percent } 53 53 \@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.55}\protected@file@percent }
\newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.55}{}} 54 54 \newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.55}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{83}{subsection.7.2.3}\protected@file@percent } 55 55 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{83}{subsection.7.2.3}\protected@file@percent }
\citation{jmse11050890} 56 56 \citation{jmse11050890}
\citation{ZHANG2018189} 57 57 \citation{ZHANG2018189}
\citation{NEURIPS2023_9d8cf124} 58 58 \citation{NEURIPS2023_9d8cf124}
\citation{pmlr-v238-ou24a} 59 59 \citation{pmlr-v238-ou24a}
\citation{math12111758} 60 60 \citation{math12111758}
\citation{NGUYEN2024111566} 61 61 \citation{NGUYEN2024111566}
\@writefile{toc}{\contentsline {section}{\numberline {7.3}DEUXIÈME PARTIE}{84}{section.7.3}\protected@file@percent } 62 62 \@writefile{toc}{\contentsline {section}{\numberline {7.3}DEUXIÈME PARTIE}{84}{section.7.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}\protected@file@percent } 63 63 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}\protected@file@percent }
\newlabel{eqbkt1}{{7.15}{84}{Concepts Associés}{equation.7.3.15}{}} 64 64 \newlabel{eqbkt1}{{7.15}{84}{Concepts Associés}{equation.7.3.15}{}}
\newlabel{eqbkt2}{{7.16}{84}{Concepts Associés}{equation.7.3.16}{}} 65 65 \newlabel{eqbkt2}{{7.16}{84}{Concepts Associés}{equation.7.3.16}{}}
\newlabel{eqbkt3}{{7.17}{84}{Concepts Associés}{equation.7.3.17}{}} 66 66 \newlabel{eqbkt3}{{7.17}{84}{Concepts Associés}{equation.7.3.17}{}}
\newlabel{fbeta}{{7.18}{85}{Concepts Associés}{equation.7.3.18}{}} 67 67 \newlabel{fbeta}{{7.18}{85}{Concepts Associés}{equation.7.3.18}{}}
\newlabel{eqGamma1}{{7.19}{85}{Concepts Associés}{equation.7.3.19}{}} 68 68 \newlabel{eqGamma1}{{7.19}{85}{Concepts Associés}{equation.7.3.19}{}}
\newlabel{f2beta}{{7.20}{85}{Concepts Associés}{equation.7.3.20}{}} 69 69 \newlabel{f2beta}{{7.20}{85}{Concepts Associés}{equation.7.3.20}{}}
\newlabel{f3Beta}{{7.21}{85}{Concepts Associés}{equation.7.3.21}{}} 70 70 \newlabel{f3Beta}{{7.21}{85}{Concepts Associés}{equation.7.3.21}{}}
\newlabel{eqJac}{{7.22}{85}{Concepts Associés}{equation.7.3.22}{}} 71 71 \newlabel{eqJac}{{7.22}{85}{Concepts Associés}{equation.7.3.22}{}}
\newlabel{f4Beta}{{7.23}{85}{Concepts Associés}{equation.7.3.23}{}} 72 72 \newlabel{f4Beta}{{7.23}{85}{Concepts Associés}{equation.7.3.23}{}}
\newlabel{f5Beta}{{7.24}{85}{Concepts Associés}{equation.7.3.24}{}} 73 73 \newlabel{f5Beta}{{7.24}{85}{Concepts Associés}{equation.7.3.24}{}}
\newlabel{f6Beta}{{7.25}{85}{Concepts Associés}{equation.7.3.25}{}} 74 74 \newlabel{f6Beta}{{7.25}{85}{Concepts Associés}{equation.7.3.25}{}}
\citation{Li_2024} 75 75 \citation{Li_2024}
\citation{Kim2024} 76 76 \citation{Kim2024}
\citation{10.1007/978-3-031-63646-2_11} 77 77 \citation{10.1007/978-3-031-63646-2_11}
\newlabel{f7Beta}{{7.26}{86}{Concepts Associés}{equation.7.3.26}{}} 78 78 \newlabel{f7Beta}{{7.26}{86}{Concepts Associés}{equation.7.3.26}{}}
\newlabel{dkl}{{7.27}{86}{Concepts Associés}{equation.7.3.27}{}} 79 79 \newlabel{dkl}{{7.27}{86}{Concepts Associés}{equation.7.3.27}{}}
\newlabel{djs}{{7.28}{86}{Concepts Associés}{equation.7.3.28}{}} 80 80 \newlabel{djs}{{7.28}{86}{Concepts Associés}{equation.7.3.28}{}}
\newlabel{djs2}{{7.29}{86}{Concepts Associés}{equation.7.3.29}{}} 81 81 \newlabel{djs2}{{7.29}{86}{Concepts Associés}{equation.7.3.29}{}}
\citation{10.1145/3578337.3605122} 82 82 \citation{10.1145/3578337.3605122}
\citation{lei2024analysis} 83 83 \citation{lei2024analysis}
\@writefile{lof}{\contentsline {figure}{\numberline {7.7}{\ignorespaces Schéma de l'architecture du modèle proposé\relax }}{87}{figure.caption.56}\protected@file@percent } 84 84 \@writefile{lof}{\contentsline {figure}{\numberline {7.7}{\ignorespaces Schéma de l'architecture du modèle proposé\relax }}{87}{figure.caption.56}\protected@file@percent }
\newlabel{fig:Amodel}{{7.7}{87}{Schéma de l'architecture du modèle proposé\relax }{figure.caption.56}{}} 85 85 \newlabel{fig:Amodel}{{7.7}{87}{Schéma de l'architecture du modèle proposé\relax }{figure.caption.56}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.2}Modèle Proposé}{87}{subsection.7.3.2}\protected@file@percent } 86 86 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.2}Modèle Proposé}{87}{subsection.7.3.2}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {7.7}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées\relax }}{88}{table.caption.57}\protected@file@percent } 87 87 \@writefile{lot}{\contentsline {table}{\numberline {7.7}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées\relax }}{88}{table.caption.57}\protected@file@percent }
\newlabel{tabvp}{{7.7}{88}{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées\relax }{table.caption.57}{}} 88 88 \newlabel{tabvp}{{7.7}{88}{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées\relax }{table.caption.57}{}}
\newlabel{IntEq1}{{7.30}{88}{Modèle Proposé}{equation.7.3.30}{}} 89 89 \newlabel{IntEq1}{{7.30}{88}{Modèle Proposé}{equation.7.3.30}{}}
\newlabel{IntEq2}{{7.31}{88}{Modèle Proposé}{equation.7.3.31}{}} 90 90 \newlabel{IntEq2}{{7.31}{88}{Modèle Proposé}{equation.7.3.31}{}}
\newlabel{eqMixModels}{{7.32}{88}{Modèle Proposé}{equation.7.3.32}{}} 91 91 \newlabel{eqMixModels}{{7.32}{88}{Modèle Proposé}{equation.7.3.32}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}\protected@file@percent } 92 92 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}\protected@file@percent }
\citation{badier:hal-04092828} 93 93 \citation{badier:hal-04092828}
\citation{doi:10.1137/23M1592420} 94 94 \citation{doi:10.1137/23M1592420}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.1}Régression dans la base de données des apprenants avec ESCBR-SMA}{89}{subsubsection.7.3.3.1}\protected@file@percent } 95 95 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.1}Régression dans la base de données des apprenants avec ESCBR-SMA}{89}{subsubsection.7.3.3.1}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {7.8}{\ignorespaces Description des scénarios\relax }}{89}{table.caption.58}\protected@file@percent } 96 96 \@writefile{lot}{\contentsline {table}{\numberline {7.8}{\ignorespaces Description des scénarios\relax }}{89}{table.caption.58}\protected@file@percent }
\newlabel{tab:scenarios}{{7.8}{89}{Description des scénarios\relax }{table.caption.58}{}} 97 97 \newlabel{tab:scenarios}{{7.8}{89}{Description des scénarios\relax }{table.caption.58}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.9}{\ignorespaces Liste des algorithmes évalués \relax }}{90}{table.caption.59}\protected@file@percent } 98 98 \@writefile{lot}{\contentsline {table}{\numberline {7.9}{\ignorespaces Liste des algorithmes évalués \relax }}{90}{table.caption.59}\protected@file@percent }
\newlabel{tabAlgs}{{7.9}{90}{Liste des algorithmes évalués \relax }{table.caption.59}{}} 99 99 \newlabel{tabAlgs}{{7.9}{90}{Liste des algorithmes évalués \relax }{table.caption.59}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.10}{\ignorespaces Résultats de la régression pour la base de données des apprenants avec 100 exécutions\relax }}{90}{table.caption.60}\protected@file@percent } 100 100 \@writefile{lot}{\contentsline {table}{\numberline {7.10}{\ignorespaces Résultats de la régression pour la base de données des apprenants avec 100 exécutions\relax }}{90}{table.caption.60}\protected@file@percent }
\newlabel{tab:results}{{7.10}{90}{Résultats de la régression pour la base de données des apprenants avec 100 exécutions\relax }{table.caption.60}{}} 101 101 \newlabel{tab:results}{{7.10}{90}{Résultats de la régression pour la base de données des apprenants avec 100 exécutions\relax }{table.caption.60}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{90}{subsubsection.7.3.3.2}\protected@file@percent } 102 102 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{90}{subsubsection.7.3.3.2}\protected@file@percent }
\newlabel{eqprog1}{{7.33}{91}{Progression des connaissances}{equation.7.3.33}{}} 103 103 \newlabel{eqprog1}{{7.33}{91}{Progression des connaissances}{equation.7.3.33}{}}
\newlabel{eqprog2}{{7.34}{91}{Progression des connaissances}{equation.7.3.34}{}} 104 104 \newlabel{eqprog2}{{7.34}{91}{Progression des connaissances}{equation.7.3.34}{}}
\newlabel{eqVarP}{{7.35}{91}{Progression des connaissances}{equation.7.3.35}{}} 105 105 \newlabel{eqVarP}{{7.35}{91}{Progression des connaissances}{equation.7.3.35}{}}
\newlabel{eqTEK}{{7.36}{91}{Progression des connaissances}{equation.7.3.36}{}} 106 106 \newlabel{eqTEK}{{7.36}{91}{Progression des connaissances}{equation.7.3.36}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Comparaison entre TS et BKT}{91}{subsubsection.7.3.3.3}\protected@file@percent } 107 107 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Comparaison entre TS et BKT}{91}{subsubsection.7.3.3.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }}{92}{figure.caption.61}\protected@file@percent } 108 108 \@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }}{92}{figure.caption.61}\protected@file@percent }
\newlabel{fig:evolution}{{7.8}{92}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }{figure.caption.61}{}} 109 109 \newlabel{fig:evolution}{{7.8}{92}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }{figure.caption.61}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Système de recommandation avec ESCBR-SMA}{92}{subsubsection.7.3.3.4}\protected@file@percent } 110 110 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Système de recommandation avec ESCBR-SMA}{92}{subsubsection.7.3.3.4}\protected@file@percent }
111 \@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }}{93}{figure.caption.62}\protected@file@percent }
112 \newlabel{fig:EvGrades}{{7.9}{93}{Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }{figure.caption.62}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent } 111 113 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent }
\newlabel{eqjs4}{{7.37}{93}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.37}{}} 112 114 \newlabel{eqjs4}{{7.37}{93}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.37}{}}
\newlabel{eqjs5}{{7.38}{93}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.38}{}} 113 115 \@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }}{94}{figure.caption.63}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{93}{subsection.7.3.4}\protected@file@percent } 114 116 \newlabel{fig:EvCL}{{7.10}{94}{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }{figure.caption.63}{}}
117 \newlabel{eqjs5}{{7.38}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.38}{}}
118 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{94}{subsection.7.3.4}\protected@file@percent }
\citation{10.1145/3578337.3605122} 115 119 \citation{10.1145/3578337.3605122}
\@writefile{toc}{\contentsline {section}{\numberline {7.4}TROISIÈME PARTIE}{94}{section.7.4}\protected@file@percent } 116 120 \@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Normalisation de la différence de progression entre l'échantillonnage de Thompson et l'échantillonnage de Thompson avec ESCBR pour 1000 apprenants\relax }}{95}{figure.caption.64}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{94}{subsection.7.4.1}\protected@file@percent } 117 121 \newlabel{fig_cmp2}{{7.11}{95}{Normalisation de la différence de progression entre l'échantillonnage de Thompson et l'échantillonnage de Thompson avec ESCBR pour 1000 apprenants\relax }{figure.caption.64}{}}
\newlabel{IntEq1}{{7.39}{94}{Modèle Proposé}{equation.7.4.39}{}} 118 122 \@writefile{toc}{\contentsline {section}{\numberline {7.4}TROISIÈME PARTIE}{95}{section.7.4}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Parameters (p), variables (v) and functions (f) of proposed algorithm and metrics\relax }}{95}{table.caption.66}\protected@file@percent } 119 123 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{95}{subsection.7.4.1}\protected@file@percent }
\newlabel{tabvp}{{7.11}{95}{Parameters (p), variables (v) and functions (f) of proposed algorithm and metrics\relax }{table.caption.66}{}} 120 124 \@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Architecture Proposed Algorithm\relax }}{96}{figure.caption.65}\protected@file@percent }
\newlabel{IntEq2}{{7.40}{95}{Modèle Proposé}{equation.7.4.40}{}} 121 125 \newlabel{fig:Amodel}{{7.12}{96}{Architecture Proposed Algorithm\relax }{figure.caption.65}{}}
\newlabel{eqMixModels}{{7.41}{95}{Modèle Proposé}{equation.7.4.41}{}} 122 126 \newlabel{IntEq1}{{7.39}{96}{Modèle Proposé}{equation.7.4.39}{}}
\newlabel{hp1}{{7.42}{95}{Modèle Proposé}{equation.7.4.42}{}} 123 127 \newlabel{IntEq2}{{7.40}{96}{Modèle Proposé}{equation.7.4.40}{}}
\newlabel{hp21}{{7.43}{95}{Modèle Proposé}{equation.7.4.43}{}} 124 128 \newlabel{eqMixModels}{{7.41}{96}{Modèle Proposé}{equation.7.4.41}{}}
\newlabel{hp22}{{7.44}{95}{Modèle Proposé}{equation.7.4.44}{}} 125 129 \@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Parameters (p), variables (v) and functions (f) of proposed algorithm and metrics\relax }}{97}{table.caption.66}\protected@file@percent }
\newlabel{hp31}{{7.45}{95}{Modèle Proposé}{equation.7.4.45}{}} 126 130 \newlabel{tabvp}{{7.11}{97}{Parameters (p), variables (v) and functions (f) of proposed algorithm and metrics\relax }{table.caption.66}{}}
131 \newlabel{hp1}{{7.42}{97}{Modèle Proposé}{equation.7.4.42}{}}
132 \newlabel{hp21}{{7.43}{97}{Modèle Proposé}{equation.7.4.43}{}}
133 \newlabel{hp22}{{7.44}{97}{Modèle Proposé}{equation.7.4.44}{}}
134 \newlabel{hp31}{{7.45}{97}{Modèle Proposé}{equation.7.4.45}{}}
135 \newlabel{hpfa}{{7.46}{97}{Modèle Proposé}{equation.7.4.46}{}}
\citation{Kuzilek2017} 127 136 \citation{Kuzilek2017}
\newlabel{hpfa}{{7.46}{96}{Modèle Proposé}{equation.7.4.46}{}} 128 137 \newlabel{hpfb}{{7.47}{98}{Modèle Proposé}{equation.7.4.47}{}}
\newlabel{hpfb}{{7.47}{96}{Modèle Proposé}{equation.7.4.47}{}} 129 138 \newlabel{eqBetaH}{{7.48}{98}{Modèle Proposé}{equation.7.4.48}{}}
\newlabel{eqBetaH}{{7.48}{96}{Modèle Proposé}{equation.7.4.48}{}} 130 139 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{96}{subsection.7.4.2}\protected@file@percent } 131 140 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{98}{subsubsection.7.4.2.1}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{96}{subsubsection.7.4.2.1}\protected@file@percent } 132 141 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{98}{subsubsection.7.4.2.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{96}{subsubsection.7.4.2.2}\protected@file@percent } 133 142 \newlabel{metric1}{{7.49}{98}{Base de données simulée (ESCBR, TS avec Hawkes)}{equation.7.4.49}{}}
\newlabel{metric1}{{7.49}{97}{Base de données simulée (ESCBR, TS avec Hawkes)}{equation.7.4.49}{}} 134 143 \@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Number of recommendations by complexity level (left static learning process, right dynamic learning process with Hawkes process)\relax }}{99}{figure.caption.67}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {7.12}{\ignorespaces Metric comparison ESCBR-TS and ESCBR-TS-Hawkes\relax }}{97}{table.caption.68}\protected@file@percent } 135 144 \newlabel{fig:stabilityBP}{{7.13}{99}{Number of recommendations by complexity level (left static learning process, right dynamic learning process with Hawkes process)\relax }{figure.caption.67}{}}
\newlabel{tab:my_label}{{7.12}{97}{Metric comparison ESCBR-TS and ESCBR-TS-Hawkes\relax }{table.caption.68}{}} 136 145 \@writefile{lot}{\contentsline {table}{\numberline {7.12}{\ignorespaces Metric comparison ESCBR-TS and ESCBR-TS-Hawkes\relax }}{100}{table.caption.68}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{97}{subsection.7.4.3}\protected@file@percent } 137 146 \newlabel{tab:my_label}{{7.12}{100}{Metric comparison ESCBR-TS and ESCBR-TS-Hawkes\relax }{table.caption.68}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }}{98}{figure.caption.62}\protected@file@percent } 138 147 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}\protected@file@percent }
\newlabel{fig:EvGrades}{{7.9}{98}{Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }{figure.caption.62}{}} 139 148 \@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Variance evolution for Beta distribution of probability and all complexity levels (Top: static learning process. Bottom: dynamic learning process with Hawkes process)\relax }}{101}{figure.caption.69}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }}{99}{figure.caption.63}\protected@file@percent } 140 149 \newlabel{fig:vars}{{7.14}{101}{Variance evolution for Beta distribution of probability and all complexity levels (Top: static learning process. Bottom: dynamic learning process with Hawkes process)\relax }{figure.caption.69}{}}
\newlabel{fig:EvCL}{{7.10}{99}{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }{figure.caption.63}{}} 141
\@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Normalisation de la différence de progression entre l'échantillonnage de Thompson et l'échantillonnage de Thompson avec ESCBR pour 1000 apprenants\relax }}{99}{figure.caption.64}\protected@file@percent } 142
\newlabel{fig_cmp2}{{7.11}{99}{Normalisation de la différence de progression entre l'échantillonnage de Thompson et l'échantillonnage de Thompson avec ESCBR pour 1000 apprenants\relax }{figure.caption.64}{}} 143
\@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Architecture Proposed Algorithm\relax }}{100}{figure.caption.65}\protected@file@percent } 144
\newlabel{fig:Amodel}{{7.12}{100}{Architecture Proposed Algorithm\relax }{figure.caption.65}{}} 145
\@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Number of recommendations by complexity level (left static learning process, right dynamic learning process with Hawkes process)\relax }}{101}{figure.caption.67}\protected@file@percent } 146
\newlabel{fig:stabilityBP}{{7.13}{101}{Number of recommendations by complexity level (left static learning process, right dynamic learning process with Hawkes process)\relax }{figure.caption.67}{}} 147
\@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Variance evolution for Beta distribution of probability and all complexity levels (Top: static learning process. Bottom: dynamic learning process with Hawkes process)\relax }}{102}{figure.caption.69}\protected@file@percent } 148
\newlabel{fig:vars}{{7.14}{102}{Variance evolution for Beta distribution of probability and all complexity levels (Top: static learning process. Bottom: dynamic learning process with Hawkes process)\relax }{figure.caption.69}{}} 149
\@setckpt{./chapters/TS}{ 150 150 \@setckpt{./chapters/TS}{
\setcounter{page}{103} 151 151 \setcounter{page}{102}
\setcounter{equation}{49} 152 152 \setcounter{equation}{49}
\setcounter{enumi}{0} 153 153 \setcounter{enumi}{0}
\setcounter{enumii}{0} 154 154 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 155 155 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 156 156 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 157 157 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 158 158 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 159 159 \setcounter{part}{3}
\setcounter{chapter}{7} 160 160 \setcounter{chapter}{7}
\setcounter{section}{4} 161 161 \setcounter{section}{4}
\setcounter{subsection}{3} 162 162 \setcounter{subsection}{3}
\setcounter{subsubsection}{0} 163 163 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 164 164 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 165 165 \setcounter{subparagraph}{0}
\setcounter{figure}{14} 166 166 \setcounter{figure}{14}
\setcounter{table}{12} 167 167 \setcounter{table}{12}
\setcounter{caption@flags}{2} 168 168 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 169 169 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 170 170 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 171 171 \setcounter{subtable}{0}
\setcounter{parentequation}{0} 172 172 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 173 173 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 174 174 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 175 175 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 176 176 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{2} 177 177 \setcounter{upm@format@section@sectionlevel}{2}
\setcounter{upm@fmt@savedcounter}{0} 178 178 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 179 179 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 180 180 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 181 181 \setcounter{upmdefinition}{0}
\setcounter{section@level}{2} 182 182 \setcounter{section@level}{2}
\setcounter{Item}{0} 183 183 \setcounter{Item}{0}
\setcounter{Hfootnote}{0} 184 184 \setcounter{Hfootnote}{0}
\setcounter{bookmark@seq@number}{88} 185 185 \setcounter{bookmark@seq@number}{88}
\setcounter{DefaultLines}{2} 186 186 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 187 187 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 188 188 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 189 189 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 190 190 \setcounter{float@type}{8}
\setcounter{algorithm}{1} 191 191 \setcounter{algorithm}{1}
\setcounter{ALG@line}{8} 192 192 \setcounter{ALG@line}{8}
\setcounter{ALG@rem}{8} 193 193 \setcounter{ALG@rem}{8}
\setcounter{ALG@nested}{0} 194 194 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 195 195 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 196 196 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 197 197 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 198 198 \setcounter{ALG@tmpcounter}{0}
} 199 199 }
200 200
chapters/TS.tex View file @ d540f0b
\chapter{Système de Recommandation dans AI-VT} 1 1 \chapter{Système de Recommandation dans AI-VT}
2 2
\section{Introduction} 3 3 \section{Introduction}
4 4
Ce chapitre est divisé en trois parties, la première partie explicite un algorithme de recommandation proposé fondé sur les résultats produits par l'apprenant en temps réel. La plupart du contenu est extrait et traduit de l'article Soto \textit{et al.} \cite{Soto2}. C'est un modèle d'adaptation automatique en temps réel d'une session prédéterminée à l'intérieur du système AI-VT. Dans cette adaptation le processus fait partie d'un modèle global de raisonnement à partir de cas. Le modèle proposé est stochastique et a été testé avec trois scénarios différents. Les résultats montrent l'adaptation dynamique du modèle proposé, les adaptations obtenues aidant le système à évoluer plus rapidement et identifier les faiblesses des apprenants dans les différents niveaux de complexité ainsi que la génération de recommandations pertinentes dans des cas spécifiques pour chaque capacité d'apprenant. 5 5 Ce chapitre est divisé en trois parties, la première partie explicite un algorithme de recommandation proposé fondé sur les résultats produits par l'apprenant en temps réel. La plupart du contenu est extrait et traduit de l'article Soto \textit{et al.} \cite{Soto2}. C'est un modèle d'adaptation automatique en temps réel d'une session prédéterminée à l'intérieur du système AI-VT. Dans cette adaptation le processus fait partie d'un modèle global de raisonnement à partir de cas. Le modèle proposé est stochastique et a été testé avec trois scénarios différents. Les résultats montrent l'adaptation dynamique du modèle proposé, les adaptations obtenues aidant le système à évoluer plus rapidement et identifier les faiblesses des apprenants dans les différents niveaux de complexité ainsi que la génération de recommandations pertinentes dans des cas spécifiques pour chaque capacité d'apprenant.
6 6
Le module mis en œuvre pour AI-VT est classé dans la catégorie des systèmes de recommandation. Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les talents, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise des concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types, l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et l'adaptation de la navigation qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}. 7 7 Le module mis en œuvre pour AI-VT est classé dans la catégorie des systèmes de recommandation. Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les talents, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise des concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types, l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et l'adaptation de la navigation qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}.
8 8
Les techniques de recommandation sont utiles dans les EIAH car elles peuvent détecter les changements et évoluer vers un état optimal, comme l'algorithme d'échantillonnage de Thompson (TS), qui est un algorithme de type probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement, où l'algorithme choisit au temps $t$ une action $a$ à partir d'un ensemble $A$, obtient une récompense pour l'action $a$ et, en fonction de la valeur de la récompense, ajuste sa stratégie de décision pour choisir au temps $t + 1$ une autre action $a$, dans le but de maximiser la récompense. Il est fondé sur le principe Bayésien, où il y a une distribution de probabilité a priori et avec les données obtenues une distribution de probabilité a posteriori est générée qui vise à maximiser l'estimation de la valeur attendue. Pour la variante de Bernoulli, où la récompense n'a que deux valeurs possibles 0 et 1 ou succès et échec, la distribution de base utilisée est la distribution Beta qui est définie sur [0, 1] et paramétrée par deux valeurs $\alpha$ et $\beta$ \cite{9870279}. 9 9 Les techniques de recommandation sont utiles dans les EIAH car elles peuvent détecter les changements et évoluer vers un état optimal, comme l'algorithme d'échantillonnage de Thompson (TS), qui est un algorithme de type probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement, où l'algorithme choisit au temps $t$ une action $a$ à partir d'un ensemble $A$, obtient une récompense pour l'action $a$ et, en fonction de la valeur de la récompense, ajuste sa stratégie de décision pour choisir au temps $t + 1$ une autre action $a$, dans le but de maximiser la récompense. Il est fondé sur le principe Bayésien, où il y a une distribution de probabilité a priori et avec les données obtenues une distribution de probabilité a posteriori est générée qui vise à maximiser l'estimation de la valeur attendue. Pour la variante de Bernoulli, où la récompense n'a que deux valeurs possibles 0 et 1 ou succès et échec, la distribution de base utilisée est la distribution Beta qui est définie sur [0, 1] et paramétrée par deux valeurs $\alpha$ et $\beta$ \cite{9870279}.
10 10
La deuxième partie de ce chapitre présente l'intégration de tous les algorithmes développés et explicités dans les chapitres précédents. Le modèle intégré est appliqué au AI-VT système sur une base de données générée et une base de données réelle. Plusieurs types de test sont exécutés pour montrer que le modèle final permet en effet d'améliorer les capacités d'identification et adaptation. 11 11 La deuxième partie de ce chapitre présente l'intégration de tous les algorithmes développés et explicités dans les chapitres précédents. Le modèle intégré est appliqué au AI-VT système sur une base de données générée et une base de données réelle. Plusieurs types de test sont exécutés pour montrer que le modèle final permet en effet d'améliorer les capacités d'identification et adaptation.
12 12
Les contributions de la deuxième partie sont : 13 13 Les contributions de la deuxième partie sont :
\begin{itemize} 14 14 \begin{itemize}
\item Vérification de l'efficacité du modèle de raisonnement à partir de cas pour la prédiction avec une base de données de notes d'apprenants par rapport à d'autres algorithmes. 15 15 \item Vérification de l'efficacité du modèle de raisonnement à partir de cas pour la prédiction avec une base de données de notes d'apprenants par rapport à d'autres algorithmes.
\item Calcul explicite de l'évolution de l'acquisition des connaissances en analysant le changement des distributions de probabilité générées par le modèle de recommandation stochastique. 16 16 \item Calcul explicite de l'évolution de l'acquisition des connaissances en analysant le changement des distributions de probabilité générées par le modèle de recommandation stochastique.
\item Intégration du modèle de recommandation stochastique à la prédiction par raisonnement à partir de cas pour améliorer la personnalisation de l'ITS. 17 17 \item Intégration du modèle de recommandation stochastique à la prédiction par raisonnement à partir de cas pour améliorer la personnalisation de l'ITS.
\end{itemize} 18 18 \end{itemize}
19 19
L'un des principaux modules des EIAH est le système de recommandation, qui vise à trouver les faiblesses et à adapter la plateforme localement ou globalement pour faciliter le processus d'apprentissage et l'acquisition des connaissances, ce module est très important car il permet d'adapter le système et de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants, l'efficacité du système dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce module \cite{Liu2023}. Il est donc nécessaire de trouver des techniques et des algorithmes capables d'exploiter les données disponibles et d'explorer les options d'apprentissage de manière dynamique, afin d'améliorer les performances globales des EIAH. 20 20 L'un des principaux modules des EIAH est le système de recommandation, qui vise à trouver les faiblesses et à adapter la plateforme localement ou globalement pour faciliter le processus d'apprentissage et l'acquisition des connaissances, ce module est très important car il permet d'adapter le système et de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants, l'efficacité du système dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce module \cite{Liu2023}. Il est donc nécessaire de trouver des techniques et des algorithmes capables d'exploiter les données disponibles et d'explorer les options d'apprentissage de manière dynamique, afin d'améliorer les performances globales des EIAH.
21 21
Dans la troisième partie seront détaillées les contributions réalisées avec l'incorporation du processus de Hawkes : 22 22 Dans la troisième partie seront détaillées les contributions réalisées avec l'incorporation du processus de Hawkes :
23 23
\begin{itemize} 24 24 \begin{itemize}
\item Simulation de la courbe d'oubli dans le processus d'apprentissage à l'aide du processus stochastique de Hawkes. 25 25 \item Simulation de la courbe d'oubli dans le processus d'apprentissage à l'aide du processus stochastique de Hawkes.
\item Intégration du raisonnement par cas, des systèmes multi-agents et du processus de Hawkes dans un algorithme de recommandation. 26 26 \item Intégration du raisonnement par cas, des systèmes multi-agents et du processus de Hawkes dans un algorithme de recommandation.
\item Vérification de la progression, de la stabilité, la précision et évolution de l'algorithme de recommandation stochastique proposé à l'aide de bases de données simulées et hétérogènes d'étudiants réels.\\\\ 27 27 \item Vérification de la progression, de la stabilité, la précision et évolution de l'algorithme de recommandation stochastique proposé à l'aide de bases de données simulées et hétérogènes d'étudiants réels.\\\\
\end{itemize} 28 28 \end{itemize}
29 29
\section{PREMIÈRE PARTIE} 30 30 \section{PREMIÈRE PARTIE}
31 31
\subsection{Modèle Proposé} 32 32 \subsection{Modèle Proposé}
33 33
Le modèle proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT, puis adapte les sessions pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. Le modèle est conçu comme une modification de l'algorithme d'échantillonnage de Thompson avec l'intégration de l'échantillonnage stratifié pour obtenir l'adaptation. 34 34 Le modèle proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT, puis adapte les sessions pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. Le modèle est conçu comme une modification de l'algorithme d'échantillonnage de Thompson avec l'intégration de l'échantillonnage stratifié pour obtenir l'adaptation.
35 35
On utilise la famille Beta de distributions de probabilité pour définir dynamiquement le nouveau niveau de complexité (équation \ref{eqBeta}) inspiré de l'algorithme d'échantillonnage de Thompson. Cette version du modèle permet de recommander des niveaux de complexité non contigus, mais la priorité est de recommander les niveaux dans lesquels des défauts ont été détectés. La paramétrisation initiale de toutes les distributions de probabilité peut forcer le modèle à recommander des niveaux de complexité contigus plus élémentaires. 36 36 On utilise la famille Beta de distributions de probabilité pour définir dynamiquement le nouveau niveau de complexité (équation \ref{eqBeta}) inspiré de l'algorithme d'échantillonnage de Thompson. Cette version du modèle permet de recommander des niveaux de complexité non contigus, mais la priorité est de recommander les niveaux dans lesquels des défauts ont été détectés. La paramétrisation initiale de toutes les distributions de probabilité peut forcer le modèle à recommander des niveaux de complexité contigus plus élémentaires.
37 37
\begin{equation} 38 38 \begin{equation}
B(x, \alpha, \beta) = 39 39 B(x, \alpha, \beta) =
\begin{cases} 40 40 \begin{cases}
\frac{x^{\alpha-1}(1-x)^{\beta - 1}}{\int_0^1 u^{\alpha - 1}(1-u)^{\beta - 1}du} & si \; x \in [0, 1] \\ 41 41 \frac{x^{\alpha-1}(1-x)^{\beta - 1}}{\int_0^1 u^{\alpha - 1}(1-u)^{\beta - 1}du} & si \; x \in [0, 1] \\
0&sinon 42 42 0&sinon
\end{cases} 43 43 \end{cases}
\label{eqBeta} 44 44 \label{eqBeta}
\end{equation} 45 45 \end{equation}
46 46
Les variables qui font partie du modèle sont spécifiées dans le tableau \ref{tabPar}. 47 47 Les variables qui font partie du modèle sont spécifiées dans le tableau \ref{tabPar}.
48 48
\begin{table}[!ht] 49 49 \begin{table}[!ht]
\centering 50 50 \centering
\begin{tabular}{ccc} 51 51 \begin{tabular}{ccc}
ID&Description&Domain\\ 52 52 ID&Description&Domain\\
\hline 53 53 \hline
$c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\ 54 54 $c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\
$g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\ 55 55 $g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\
$g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\ 56 56 $g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\
$s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\ 57 57 $s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\
$s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\ 58 58 $s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\
$\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\ 59 59 $\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\
$t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\ 60 60 $t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\
$g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\ 61 61 $g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\
$ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\ 62 62 $ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\
$t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\ 63 63 $t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\
$ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\ 64 64 $ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\
$\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\ 65 65 $\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\
$\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\ 66 66 $\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\
$\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\ 67 67 $\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\
$\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\ 68 68 $\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\
$G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\ 69 69 $G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\
$x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\ 70 70 $x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\
$n_c$&Nombre total de questions dans une session&$\mathbb{N} \; | \; n_c>0$\\ 71 71 $n_c$&Nombre total de questions dans une session&$\mathbb{N} \; | \; n_c>0$\\
$ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\ 72 72 $ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\
$y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\ 73 73 $y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\
$r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\ 74 74 $r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\
$sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\ 75 75 $sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\
\end{tabular} 76 76 \end{tabular}
\caption{Variables et paramètres du modèle proposé} 77 77 \caption{Variables et paramètres du modèle proposé}
\label{tabPar} 78 78 \label{tabPar}
\end{table} 79 79 \end{table}
80 80
Dans ce cas, il est nécessaire d'utiliser la variable de seuil de grade $g_t$ pour déterminer la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les équations \ref{eqsMg}, \ref{eqgtc} et \ref{eqltc} montrent les règles de mise à jour corrélées, ces règles modifient les valeurs par récompense inverse. Chaque niveau de complexité est associé à une distribution de probabilité Beta avec des valeurs initiales prédéfinies pour les paramètres $\alpha$ et $\beta$. 81 81 Dans ce cas, il est nécessaire d'utiliser la variable de seuil de grade $g_t$ pour déterminer la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les équations \ref{eqsMg}, \ref{eqgtc} et \ref{eqltc} montrent les règles de mise à jour corrélées, ces règles modifient les valeurs par récompense inverse. Chaque niveau de complexité est associé à une distribution de probabilité Beta avec des valeurs initiales prédéfinies pour les paramètres $\alpha$ et $\beta$.
82 82
\begin{equation} 83 83 \begin{equation}
ng_c=g_c 84 84 ng_c=g_c
\label{eqsMg} 85 85 \label{eqsMg}
\end{equation} 86 86 \end{equation}
87 87
\begin{equation} 88 88 \begin{equation}
ng_c \ge g_t \rightarrow 89 89 ng_c \ge g_t \rightarrow
\begin{cases} 90 90 \begin{cases}
\beta_c=\beta_c+\Delta_s\\ 91 91 \beta_c=\beta_c+\Delta_s\\
\beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\ 92 92 \beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\
\alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2} 93 93 \alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2}
\end{cases} 94 94 \end{cases}
\label{eqgtc} 95 95 \label{eqgtc}
\end{equation} 96 96 \end{equation}
97 97
\begin{equation} 98 98 \begin{equation}
ng_c < g_t \rightarrow 99 99 ng_c < g_t \rightarrow
\begin{cases} 100 100 \begin{cases}
\alpha_c=\alpha_c+\Delta_s\\ 101 101 \alpha_c=\alpha_c+\Delta_s\\
\alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\ 102 102 \alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\
\beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2} 103 103 \beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2}
\end{cases} 104 104 \end{cases}
\label{eqltc} 105 105 \label{eqltc}
\end{equation} 106 106 \end{equation}
107 107
Le nouveau niveau de complexité est l'indice de la valeur aléatoire maximale (générée à partir de la distribution Beta de chaque niveau de complexité, équation \ref{eqBRnd}) pour tous les niveaux de complexité (équation \ref{eqsncl}). 108 108 Le nouveau niveau de complexité est l'indice de la valeur aléatoire maximale (générée à partir de la distribution Beta de chaque niveau de complexité, équation \ref{eqBRnd}) pour tous les niveaux de complexité (équation \ref{eqsncl}).
109 109
\begin{equation} 110 110 \begin{equation}
\theta_c = Beta(\alpha_c, \beta_c) 111 111 \theta_c = Beta(\alpha_c, \beta_c)
\label{eqBRnd} 112 112 \label{eqBRnd}
\end{equation} 113 113 \end{equation}
114 114
\begin{equation} 115 115 \begin{equation}
ncl=max_x(\mathbb{E}[\theta_x]), 0<=x<=c_n 116 116 ncl=max_x(\mathbb{E}[\theta_x]), 0<=x<=c_n
\label{eqsncl} 117 117 \label{eqsncl}
\end{equation} 118 118 \end{equation}
119 119
La note des apprenants peut considérer aussi le temps de réponse comme une pénalité, et dans ce cas-là la note est calcule comme la équation \ref{eqsGT}. 120 120 La note des apprenants peut considérer aussi le temps de réponse comme une pénalité, et dans ce cas-là la note est calcule comme la équation \ref{eqsGT}.
121 121
\begin{equation} 122 122 \begin{equation}
ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right) 123 123 ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right)
\label{eqsGT} 124 124 \label{eqsGT}
\end{equation} 125 125 \end{equation}
126 126
Le détail des pas d'exécution du modèle proposé sont dans l'algorithme \ref{alg2}. 127 127 Le détail des pas d'exécution du modèle proposé sont dans l'algorithme \ref{alg2}.
128 128
\begin{algorithm} 129 129 \begin{algorithm}
\caption{Stochastic Recommendation Model} 130 130 \caption{Stochastic Recommendation Model}
\begin{algorithmic} 131 131 \begin{algorithmic}
\State Initialize the a-priori distributions of probability 132 132 \State Initialize the a-priori distributions of probability
\For {\textbf{each} questions $q$} 133 133 \For {\textbf{each} questions $q$}
\State With $i$ as actual complexity level $c$ 134 134 \State With $i$ as actual complexity level $c$
\State Calculate $ng_i$ \Comment{eq \ref{eqsMg} or eq \ref{eqsGT}} 135 135 \State Calculate $ng_i$ \Comment{eq \ref{eqsMg} or eq \ref{eqsGT}}
\State Update parameters $\alpha_i$ and $\beta_i$ \Comment{eq \ref{eqgtc} and eq \ref{eqltc}} 136 136 \State Update parameters $\alpha_i$ and $\beta_i$ \Comment{eq \ref{eqgtc} and eq \ref{eqltc}}
\State Get random values $\theta_c$ with Beta distribution\Comment{$\forall c$, eq \ref{eqBRnd}} 137 137 \State Get random values $\theta_c$ with Beta distribution\Comment{$\forall c$, eq \ref{eqBRnd}}
\State Get $ncl$ \Comment{eq \ref{eqsncl}} 138 138 \State Get $ncl$ \Comment{eq \ref{eqsncl}}
\EndFor 139 139 \EndFor
\end{algorithmic} 140 140 \end{algorithmic}
\label{alg2} 141 141 \label{alg2}
\end{algorithm} 142 142 \end{algorithm}
143 143
\subsection{Résultats} 144 144 \subsection{Résultats}
145 145
Le comportement du modèle a été testé avec un jeu de données généré, ce jeu de données contient les notes et les temps de réponse de 1000 apprenants pour 5 niveaux de complexité différents, la description des données est indiquée dans le Tableau \ref{tabDataSet}. Les notes des apprenants sont générées avec la distribution logit-normale de probabilité, car c'est expérimentalement le meilleur modèle de représentation \cite{Arthurs}. 146 146 Le comportement du modèle a été testé avec un jeu de données généré, ce jeu de données contient les notes et les temps de réponse de 1000 apprenants pour 5 niveaux de complexité différents, la description des données est indiquée dans le Tableau \ref{tabDataSet}. Les notes des apprenants sont générées avec la distribution logit-normale de probabilité, car c'est expérimentalement le meilleur modèle de représentation \cite{Arthurs}.
147 147
L'ensemble de données généré est une simulation des notes des apprenants pour les réponses à quinze questions à chacun des cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants dans les dix premières questions. La difficulté de la complexité est également simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la distribution de l'ensemble de données des notes de 1000 apprenants par niveau de complexité. 148 148 L'ensemble de données généré est une simulation des notes des apprenants pour les réponses à quinze questions à chacun des cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants dans les dix premières questions. La difficulté de la complexité est également simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la distribution de l'ensemble de données des notes de 1000 apprenants par niveau de complexité.
149 149
\begin{figure} 150 150 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/dataset.png} 151 151 \includegraphics[width=\textwidth]{./Figures/dataset.png}
\caption{Boîte à moustaches pour la base de données générée} 152 152 \caption{Boîte à moustaches pour la base de données générée}
\label{figData} 153 153 \label{figData}
\end{figure} 154 154 \end{figure}
155 155
\begin{table}[!ht] 156 156 \begin{table}[!ht]
\centering 157 157 \centering
\begin{tabular}{ccc} 158 158 \begin{tabular}{ccc}
ID&Description&Domain\\ 159 159 ID&Description&Domain\\
\hline 160 160 \hline
$q_{c}$&Niveau de complexité de une question $q$&$[0, c_n] \in \mathbb{N}$\\ 161 161 $q_{c}$&Niveau de complexité de une question $q$&$[0, c_n] \in \mathbb{N}$\\
$q_{g,c}$&Note obtenue $g$ pour la question $q$ avec complexité $c$ &$[0,g_m] \in \mathbb{R}$\\ 162 162 $q_{g,c}$&Note obtenue $g$ pour la question $q$ avec complexité $c$ &$[0,g_m] \in \mathbb{R}$\\
$q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\ 163 163 $q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\
\end{tabular} 164 164 \end{tabular}
\caption{Description des variables utilisées dans la base de données evaluée} 165 165 \caption{Description des variables utilisées dans la base de données evaluée}
\label{tabDataSet} 166 166 \label{tabDataSet}
\end{table} 167 167 \end{table}
168 168
Toutes les valeurs des paramètres pour tester le modèle sont dans le tableau \ref{tabgm1}. 169 169 Toutes les valeurs des paramètres pour tester le modèle sont dans le tableau \ref{tabgm1}.
170 170
\begin{table}[!ht] 171 171 \begin{table}[!ht]
\centering 172 172 \centering
\begin{tabular}{c|cccccccccccccc} 173 173 \begin{tabular}{c|cccccccccccccc}
ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\ 174 174 ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\
\hline 175 175 \hline
Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\ 176 176 Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\
\end{tabular} 177 177 \end{tabular}
\caption{Valeurs des paramètres pour les scénarios evalués} 178 178 \caption{Valeurs des paramètres pour les scénarios evalués}
\label{tabgm1} 179 179 \label{tabgm1}
\end{table} 180 180 \end{table}
181 181
Les résultats de la première comparaison sans données historiques (démarrage à froid) entre le modèle proposé, un système de recommandation déterministe et le système original (CBR) sont présentés dans la figure \ref{figCmp2}, où apparaissent différents nombres et échelles de transitions, le système original ne présente pas de transitions, tous les apprenants sont évalués au niveau de complexité 0, les notes obtenues pendant la session ne sont pas prises en compte. Le système avec des modèles de recommandation tente d'adapter le niveau de complexité en fonction des notes obtenues. Le modèle déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus, la tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. Le modèle proposé (stochastique), commence par proposer tous les niveaux de complexité possibles mais se concentre sur le niveau 0, les transitions sont constantes mais pour un petit nombre d'apprenants, la tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la hausse pour les niveaux 1, 2 et 3. 182 182 Les résultats de la première comparaison sans données historiques (démarrage à froid) entre le modèle proposé, un système de recommandation déterministe et le système original (CBR) sont présentés dans la figure \ref{figCmp2}, où apparaissent différents nombres et échelles de transitions, le système original ne présente pas de transitions, tous les apprenants sont évalués au niveau de complexité 0, les notes obtenues pendant la session ne sont pas prises en compte. Le système avec des modèles de recommandation tente d'adapter le niveau de complexité en fonction des notes obtenues. Le modèle déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus, la tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. Le modèle proposé (stochastique), commence par proposer tous les niveaux de complexité possibles mais se concentre sur le niveau 0, les transitions sont constantes mais pour un petit nombre d'apprenants, la tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. La tendance est à la hausse pour les niveaux 1, 2 et 3.
183 183
\begin{figure} 184 184 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp2.png} 185 185 \includegraphics[width=\textwidth]{./Figures/comp2.png}
\caption{Résultats pour le premier test} 186 186 \caption{Résultats pour le premier test}
\label{figCmp2} 187 187 \label{figCmp2}
\end{figure} 188 188 \end{figure}
189 189
Après la génération de la première session, le système peut continuer avec la liste suivante d'exercices, dans ce cas les trois modèles ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir la première transition du système original, cette transition montre que le système agit uniquement avec les notes obtenues dans le passé et les transitions sont très lentes, même si les notes sont différentes au cours de la session, tous les apprenants doivent suivre le même chemin. Cependant, les modèles de recommandation changent, le modèle déterministe présente trois transitions dans les questions 3, 5 et 12. Les tendances sont statiques pour le niveau 3, variables pour le niveau 2 et fortement descendantes pour le niveau 0. Le modèle stochastique continue avec des transitions douces mais essaie toujours de préférer le niveau le plus faible, dans ce cas le modèle a identifié le niveau de complexité 1. Ici, les niveaux 0 et 1 sont descendants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. 190 190 Après la génération de la première session, le système peut continuer avec la liste suivante d'exercices, dans ce cas les trois modèles ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir la première transition du système original, cette transition montre que le système agit uniquement avec les notes obtenues dans le passé et les transitions sont très lentes, même si les notes sont différentes au cours de la session, tous les apprenants doivent suivre le même chemin. Cependant, les modèles de recommandation changent, le modèle déterministe présente trois transitions dans les questions 3, 5 et 12. Les tendances sont statiques pour le niveau 3, variables pour le niveau 2 et fortement descendantes pour le niveau 0. Le modèle stochastique continue avec des transitions douces mais essaie toujours de préférer le niveau le plus faible, dans ce cas le modèle a identifié le niveau de complexité 1. Ici, les niveaux 0 et 1 sont descendants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants.
191 191
\begin{figure} 192 192 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp3.png} 193 193 \includegraphics[width=\textwidth]{./Figures/comp3.png}
\caption{Résultats pour le deuxième Test} 194 194 \caption{Résultats pour le deuxième Test}
\label{figCmp3} 195 195 \label{figCmp3}
\end{figure} 196 196 \end{figure}
197 197
Enfin, les données d'initialisation considèrent comme évalués deux niveaux de complexité 0 et 1, alors naturellement le système doit commencer avec le niveau 1 ou 2. Comme le système original est très lent à passer d'un niveau à l'autre, ce système commence par le niveau de complexité 1, comme le montre la figure \ref{figCmp4}, comme les deux autres comparaisons, les changements dans ce système ne sont pas progressifs, mais directs pour tous. Dans ce cas, le modèle de recommandation déterministe adopte la même stratégie et propose un changement direct pour tous les apprenants autour de la cinquième question. Le modèle stochastique continue avec des changements faibles mais constants, mais avec une préférence pour le niveau 2, la tendance est très stable sauf pour 1 (à la hausse) et 2 (à la baisse) niveaux. 198 198 Enfin, les données d'initialisation considèrent comme évalués deux niveaux de complexité 0 et 1, alors naturellement le système doit commencer avec le niveau 1 ou 2. Comme le système original est très lent à passer d'un niveau à l'autre, ce système commence par le niveau de complexité 1, comme le montre la figure \ref{figCmp4}, comme les deux autres comparaisons, les changements dans ce système ne sont pas progressifs, mais directs pour tous. Dans ce cas, le modèle de recommandation déterministe adopte la même stratégie et propose un changement direct pour tous les apprenants autour de la cinquième question. Le modèle stochastique continue avec des changements faibles mais constants, mais avec une préférence pour le niveau 2, la tendance est très stable sauf pour 1 (à la hausse) et 2 (à la baisse) niveaux.
199 199
\begin{figure} 200 200 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/comp4.png} 201 201 \includegraphics[width=\textwidth]{./Figures/comp4.png}
\caption{Résultats pour le troisième Test} 202 202 \caption{Résultats pour le troisième Test}
\label{figCmp4} 203 203 \label{figCmp4}
\end{figure} 204 204 \end{figure}
205 205
Pour comparer numériquement le système original, le modèle déterministe et le modèle de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}) qui décrit le système de recommandation idéal si l'objectif de l'apprenant est l'apprentissage standard, la métrique calcule une valeur pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette métrique est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, dans l'idée de renforcer les connaissances à ce niveau de complexité, de même s'ils proposent moins d'exercices aux niveaux de complexité où la note moyenne est élevée, puisqu'il est supposé que l'étudiant a déjà acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées. 206 206 Pour comparer numériquement le système original, le modèle déterministe et le modèle de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}) qui décrit le système de recommandation idéal si l'objectif de l'apprenant est l'apprentissage standard, la métrique calcule une valeur pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette métrique est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, dans l'idée de renforcer les connaissances à ce niveau de complexité, de même s'ils proposent moins d'exercices aux niveaux de complexité où la note moyenne est élevée, puisqu'il est supposé que l'étudiant a déjà acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées.
207 207
\begin{equation} 208 208 \begin{equation}
%r_c=x+y-2xy 209 209 %r_c=x+y-2xy
%r_c=x^2+y^2-2x^2y^2 210 210 %r_c=x^2+y^2-2x^2y^2
rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} 211 211 rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\}
\label{eqMetric1} 212 212 \label{eqMetric1}
\end{equation} 213 213 \end{equation}
214 214
\begin{equation} 215 215 \begin{equation}
r=\sum_{c=0}^{c_n-1} rp_c 216 216 r=\sum_{c=0}^{c_n-1} rp_c
\label{eqMetric2} 217 217 \label{eqMetric2}
\end{equation} 218 218 \end{equation}
219 219
Les propriétés de la métrique sont : 220 220 Les propriétés de la métrique sont :
\begin{itemize} 221 221 \begin{itemize}
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$ 222 222 \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$
\item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$ 223 223 \item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$
\item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\ 224 224 \item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\
\end{itemize} 225 225 \end{itemize}
226 226
Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions répondues dans le niveau de complexité $c$ (équation \ref{eqYc}). 227 227 Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions répondues dans le niveau de complexité $c$ (équation \ref{eqYc}).
228 228
\begin{equation} 229 229 \begin{equation}
x_{0,c}=\frac{<g_c>_{G_c}}{g_m} 230 230 x_{0,c}=\frac{<g_c>_{G_c}}{g_m}
\label{eqXc} 231 231 \label{eqXc}
\end{equation} 232 232 \end{equation}
233 233
\begin{equation} 234 234 \begin{equation}
x_{1,c}=\frac{ny_c}{n_c} 235 235 x_{1,c}=\frac{ny_c}{n_c}
\label{eqYc} 236 236 \label{eqYc}
\end{equation} 237 237 \end{equation}
238 238
La figure \ref{figMetric} montre l'équation globale pour la métrique $rp$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5. Un bon système de recommandation devrait donc avoir une valeur $r$ élevée. 239 239 La figure \ref{figMetric} montre l'équation globale pour la métrique $rp$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5. Un bon système de recommandation devrait donc avoir une valeur $r$ élevée.
240 240
\begin{figure} 241 241 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/metric.png} 242 242 \includegraphics[width=\textwidth]{./Figures/metric.png}
\caption{Métrique pour le parcours standard} 243 243 \caption{Métrique pour le parcours standard}
\label{figMetric} 244 244 \label{figMetric}
\end{figure} 245 245 \end{figure}
246 246
Les résultats des calculs de la métrique établie pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM}. 247 247 Les résultats des calculs de la métrique établie pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM}.
248 248
\begin{table}[!ht] 249 249 \begin{table}[!ht]
\centering 250 250 \centering
\begin{tabular}{cccccccc} 251 251 \begin{tabular}{cccccccc}
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ 252 252 &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\
\hline 253 253 \hline
Test 1\\ 254 254 Test 1\\
\hline 255 255 \hline
CBR&0.5388&-&-&-&-&0.5388&10.776\\ 256 256 CBR&0.5388&-&-&-&-&0.5388&10.776\\
DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\ 257 257 DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\
SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&79.25\\ 258 258 SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&79.25\\
\hline 259 259 \hline
Test 2\\ 260 260 Test 2\\
\hline 261 261 \hline
CBR&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\ 262 262 CBR&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\
DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\ 263 263 DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\
SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&81.982\\ 264 264 SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&81.982\\
\hline 265 265 \hline
Test3\\ 266 266 Test3\\
\hline 267 267 \hline
CBR&-&0.8559&0.7377&-&-&1.5936&31.872 268 268 CBR&-&0.8559&0.7377&-&-&1.5936&31.872
\\ 269 269 \\
DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\ 270 270 DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\
SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&82.852\\ 271 271 SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&82.852\\
\end{tabular} 272 272 \end{tabular}
\caption{Résultats de la métrique $rp_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} 273 273 \caption{Résultats de la métrique $rp_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}
\label{tabRM} 274 274 \label{tabRM}
\end{table} 275 275 \end{table}
276 276
Une métrique pour l'apprentissage en douceur est définie dans l'équation \ref{eqMetricS1} et l'équation \ref{eqMetricS2}, avec cette métrique un score élevé est attribué aux systèmes qui proposent plus d'exercices dans un niveau de complexité où les notes moyennes sont d'environ 0,4 et qui sont plus flexibles avec des notes moyennes plus basses, également si le nombre d'exercices proposés est faible pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent un nombre élevé de questions dans un niveau de complexité avec des notes moyennes élevées et si le nombre d'exercices recommandés est trop élevé ou trop faible pour les notes inférieures. 277 277 Une métrique pour l'apprentissage en douceur est définie dans l'équation \ref{eqMetricS1} et l'équation \ref{eqMetricS2}, avec cette métrique un score élevé est attribué aux systèmes qui proposent plus d'exercices dans un niveau de complexité où les notes moyennes sont d'environ 0,4 et qui sont plus flexibles avec des notes moyennes plus basses, également si le nombre d'exercices proposés est faible pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent un nombre élevé de questions dans un niveau de complexité avec des notes moyennes élevées et si le nombre d'exercices recommandés est trop élevé ou trop faible pour les notes inférieures.
278 278
\begin{equation} 279 279 \begin{equation}
rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} 280 280 rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\}
\label{eqMetricS1} 281 281 \label{eqMetricS1}
\end{equation} 282 282 \end{equation}
283 283
\begin{equation} 284 284 \begin{equation}
r=\sum_{c=0}^{c_n-1} rs_c 285 285 r=\sum_{c=0}^{c_n-1} rs_c
\label{eqMetricS2} 286 286 \label{eqMetricS2}
\end{equation} 287 287 \end{equation}
288 288
Les propriétés de la métrique sont : 289 289 Les propriétés de la métrique sont :
\begin{itemize} 290 290 \begin{itemize}
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$ 291 291 \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$
\item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\ 292 292 \item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\
\end{itemize} 293 293 \end{itemize}
294 294
La figure \ref{figMetric2} montre l'équation globale pour la métrique $rs$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5, un bon système de recommandation doit donc avoir une valeur $r$ élevée. 295 295 La figure \ref{figMetric2} montre l'équation globale pour la métrique $rs$ dans le domaine de deux variables $x_{0,c}$ et $x_{1,c}$. La valeur maximale de $r$ dans un niveau de complexité spécifique est de 1, la valeur maximale globale pour les scénarios testés est de 5, un bon système de recommandation doit donc avoir une valeur $r$ élevée.
296 296
Les résultats du calcul des métriques pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}. 297 297 Les résultats du calcul des métriques pour le système original et les deux modèles dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}.
298 298
\begin{figure}[!ht] 299 299 \begin{figure}[!ht]
\centering 300 300 \centering
\includegraphics[width=\textwidth]{./Figures/metric2.png} 301 301 \includegraphics[width=\textwidth]{./Figures/metric2.png}
\caption{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)} 302 302 \caption{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)}
\label{figMetric2} 303 303 \label{figMetric2}
\end{figure} 304 304 \end{figure}
305 305
\begin{table}[!ht] 306 306 \begin{table}[!ht]
\centering 307 307 \centering
\begin{tabular}{cccccccc} 308 308 \begin{tabular}{cccccccc}
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ 309 309 &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\
\hline 310 310 \hline
Test 1\\ 311 311 Test 1\\
\hline 312 312 \hline
CBR&\textbf{0.9979}&-&-&-&-&0.9979&\\ 313 313 CBR&\textbf{0.9979}&-&-&-&-&0.9979&\\
DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&\\ 314 314 DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&\\
SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\\ 315 315 SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\\
\hline 316 316 \hline
Test 2\\ 317 317 Test 2\\
\hline 318 318 \hline
CBR&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&\\ 319 319 CBR&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&\\
DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&\\ 320 320 DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&\\
SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\\ 321 321 SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\\
\hline 322 322 \hline
Test3\\ 323 323 Test3\\
\hline 324 324 \hline
CBR&-&\textbf{0.9179}&0.2692&-&-&1.1871& 325 325 CBR&-&\textbf{0.9179}&0.2692&-&-&1.1871&
\\ 326 326 \\
DM&-&-&0.2236&\textbf{0.9674}&-&1.191&\\ 327 327 DM&-&-&0.2236&\textbf{0.9674}&-&1.191&\\
SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\\ 328 328 SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\\
\end{tabular} 329 329 \end{tabular}
\caption{Résultats de la métrique $rs_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} 330 330 \caption{Résultats de la métrique $rs_c(x)$ (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}
\label{tabRM2} 331 331 \label{tabRM2}
\end{table} 332 332 \end{table}
333 333
Pour comparer le système original et le modèle de recommandation, est utilisée la métrique de la diversité des propositions, avec la similarité en cosinus (La similarité en cosinus entre un vecteur $A$ et un vecteur $B$, Équation \ref{eqCS}) entre toutes les propositions des apprenants. Les résultats de la similarité cosinus moyenne sont présentés dans le tableau \ref{tabCS}. 334 334 Pour comparer le système original et le modèle de recommandation, est utilisée la métrique de la diversité des propositions, avec la similarité en cosinus (La similarité en cosinus entre un vecteur $A$ et un vecteur $B$, Équation \ref{eqCS}) entre toutes les propositions des apprenants. Les résultats de la similarité cosinus moyenne sont présentés dans le tableau \ref{tabCS}.
335 335
\begin{equation} 336 336 \begin{equation}
sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}} 337 337 sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}}
\label{eqCS} 338 338 \label{eqCS}
\end{equation} 339 339 \end{equation}
340 340
\begin{table}[!ht] 341 341 \begin{table}[!ht]
\centering 342 342 \centering
\begin{tabular}{cccc} 343 343 \begin{tabular}{cccc}
Model&Scenario 1&Scenario 2&Scenario 3\\ 344 344 Model&Scenario 1&Scenario 2&Scenario 3\\
\hline 345 345 \hline
CBR&1&1&1\\ 346 346 CBR&1&1&1\\
DM&0.9540&0.9887&0.9989\\ 347 347 DM&0.9540&0.9887&0.9989\\
SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\ 348 348 SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\
\end{tabular} 349 349 \end{tabular}
\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)} 350 350 \caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (CBR - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}
\label{tabCS} 351 351 \label{tabCS}
\end{table} 352 352 \end{table}
353 353
\subsection{Discussion et Conclusions} 354 354 \subsection{Discussion et Conclusions}
Avec la génération d'exercices CBR, le système propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, presque un changement toutes les 3 ou 4 sessions, ceci parce que le système ne prend pas en compte les notes obtenues pendant la session. Les systèmes de recommandation sont plus dynamiques et les évolutions sont plus rapides mais en considérant les notes des apprenants, le modèle déterministe suggère des changements de niveaux à un grand nombre d'apprenants soudainement parce qu'ils sont regroupés à l'intérieur d'un intervalle de taux de maîtrise, alors que le modèle stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modèles proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la session à leurs besoins particuliers. 355 355 Avec la génération d'exercices CBR, le système propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, presque un changement toutes les 3 ou 4 sessions, ceci parce que le système ne prend pas en compte les notes obtenues pendant la session. Les systèmes de recommandation sont plus dynamiques et les évolutions sont plus rapides mais en considérant les notes des apprenants, le modèle déterministe suggère des changements de niveaux à un grand nombre d'apprenants soudainement parce qu'ils sont regroupés à l'intérieur d'un intervalle de taux de maîtrise, alors que le modèle stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modèles proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la session à leurs besoins particuliers.
356 356
La base de données générée a permis de simuler diverses situations avec les notes de 1000 apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations. 357 357 La base de données générée a permis de simuler diverses situations avec les notes de 1000 apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations.
358 358
Les résultats numériques utilisant la métrique définie montrent que les distributions des questions dans une session par les deux versions du modèle de recommandation sont différentes mais avec une tendance générale similaire pour tous les apprenants. Le modèle proposé tente de répartir les questions dans tous les niveaux de complexité définis. Globalement, avec la métrique définie, le modèle stochastique a obtenu un meilleur score. Par rapport au système original, le modèle de recommandation (versions déterministe et stochastique) obtient une augmentation globale de l'adaptabilité comprise entre 15\% et 68\% pour tous les niveaux de complexité. 359 359 Les résultats numériques utilisant la métrique définie montrent que les distributions des questions dans une session par les deux versions du modèle de recommandation sont différentes mais avec une tendance générale similaire pour tous les apprenants. Le modèle proposé tente de répartir les questions dans tous les niveaux de complexité définis. Globalement, avec la métrique définie, le modèle stochastique a obtenu un meilleur score. Par rapport au système original, le modèle de recommandation (versions déterministe et stochastique) obtient une augmentation globale de l'adaptabilité comprise entre 15\% et 68\% pour tous les niveaux de complexité.
360 360
Selon la métrique de la similarité cosinus, le modèle de recommandation proposé augmente la diversité des propositions par rapport au système original dans les trois scénarios évalués, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de faire progresser les apprenants entre les niveaux de complexité. La diversité des propositions est une caractéristique essentielle du modèle de recommandation dans ses deux versions. 361 361 Selon la métrique de la similarité cosinus, le modèle de recommandation proposé augmente la diversité des propositions par rapport au système original dans les trois scénarios évalués, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de faire progresser les apprenants entre les niveaux de complexité. La diversité des propositions est une caractéristique essentielle du modèle de recommandation dans ses deux versions.
362 362
Les modules de recommandation sont une pièce essentielle pour les systèmes ITS car ils aident à guider le processus d'apprentissage individuel, permettent d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les versions du modèle proposé peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la session vers le meilleur niveau de complexité possible afin d'aider l'apprenant à acquérir et à maîtriser les connaissances avant de passer aux niveaux de complexité supérieurs, car généralement les connaissances des niveaux de complexité inférieurs sont nécessaires pour compléter les niveaux supérieurs. Même si l'ensemble de données généré est une simulation des temps de réponse et des notes des apprenants, les tests qui l'utilisent permettent de voir la flexibilité et la robustesse du modèle de recommandation proposé, car les données relatives aux apprenants présentent une grande diversité et obligent le système à s'adapter à différents types de configurations. Par conséquent, il est possible de conclure que le modèle de recommandation proposé a la capacité de fonctionner dans différentes situations et dans chaque cas de proposer des chemins alternatifs pour améliorer le processus d'apprentissage global, même si l'objectif d'apprentissage est différent pour chaque apprenant, comme le démontrent les résultats obtenus dans l'évaluation des deux métriques proposées. Le modèle proposé permet également la diversité et la personnalisation du système, puisque selon les résultats de la comparaison avec la similarité cosinus entre toutes les recommandations générées pour chaque apprenant, il y a une augmentation par rapport au système original.\\\\ 363 363 Les modules de recommandation sont une pièce essentielle pour les systèmes ITS car ils aident à guider le processus d'apprentissage individuel, permettent d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les versions du modèle proposé peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la session vers le meilleur niveau de complexité possible afin d'aider l'apprenant à acquérir et à maîtriser les connaissances avant de passer aux niveaux de complexité supérieurs, car généralement les connaissances des niveaux de complexité inférieurs sont nécessaires pour compléter les niveaux supérieurs. Même si l'ensemble de données généré est une simulation des temps de réponse et des notes des apprenants, les tests qui l'utilisent permettent de voir la flexibilité et la robustesse du modèle de recommandation proposé, car les données relatives aux apprenants présentent une grande diversité et obligent le système à s'adapter à différents types de configurations. Par conséquent, il est possible de conclure que le modèle de recommandation proposé a la capacité de fonctionner dans différentes situations et dans chaque cas de proposer des chemins alternatifs pour améliorer le processus d'apprentissage global, même si l'objectif d'apprentissage est différent pour chaque apprenant, comme le démontrent les résultats obtenus dans l'évaluation des deux métriques proposées. Le modèle proposé permet également la diversité et la personnalisation du système, puisque selon les résultats de la comparaison avec la similarité cosinus entre toutes les recommandations générées pour chaque apprenant, il y a une augmentation par rapport au système original.\\\\
364 364
\section{DEUXIÈME PARTIE} 365 365 \section{DEUXIÈME PARTIE}
366 366
\subsection{Concepts Associés} 367 367 \subsection{Concepts Associés}
368 368
Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du modèle proposé, ainsi que les modèles et les mesures fondamentaux. Le premier paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (CBR), qui permet d'exploiter les connaissances historiquement acquises et l'expérience accumulée en ce qui concerne un problème spécifique. Ce paradigme est utilisé pour générer des solutions émergentes pour un nouveau problème en utilisant une base de données de connaissances. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. La CBR est particulièrement utile lorsque les causes sous-jacentes d'un problème ne sont pas bien comprises. Le raisonnement à base de cas définit un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}. 369 369 Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du modèle proposé, ainsi que les modèles et les mesures fondamentaux. Le premier paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (CBR), qui permet d'exploiter les connaissances historiquement acquises et l'expérience accumulée en ce qui concerne un problème spécifique. Ce paradigme est utilisé pour générer des solutions émergentes pour un nouveau problème en utilisant une base de données de connaissances. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. La CBR est particulièrement utile lorsque les causes sous-jacentes d'un problème ne sont pas bien comprises. Le raisonnement à base de cas définit un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}.
370 370
Puisque l'objectif ici est d'adapter les exercices proposés par AI-VT, il est nécessaire de connaître le fonctionnement de l'un des algorithmes les plus utilisés pour effectuer l'adaptation du contenu et des exercices dans certains STI, afin de comparer les résultats avec l'algorithme proposé et de voir dans quelle mesure il permet d'obtenir une amélioration de l'adaptation et de la performance des apprenants. L'un des modèles les plus couramment utilisés dans les STI pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (Bayesian Knowledge Tracing) \cite{ZHANG2018189}. Ce modèle utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur.$P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour avec les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée. 371 371 Puisque l'objectif ici est d'adapter les exercices proposés par AI-VT, il est nécessaire de connaître le fonctionnement de l'un des algorithmes les plus utilisés pour effectuer l'adaptation du contenu et des exercices dans certains STI, afin de comparer les résultats avec l'algorithme proposé et de voir dans quelle mesure il permet d'obtenir une amélioration de l'adaptation et de la performance des apprenants. L'un des modèles les plus couramment utilisés dans les STI pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (Bayesian Knowledge Tracing) \cite{ZHANG2018189}. Ce modèle utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur.$P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour avec les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée.
372 372
\begin{equation} 373 373 \begin{equation}
P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)} 374 374 P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)}
\label{eqbkt1} 375 375 \label{eqbkt1}
\end{equation} 376 376 \end{equation}
377 377
\begin{equation} 378 378 \begin{equation}
P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))} 379 379 P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))}
\label{eqbkt2} 380 380 \label{eqbkt2}
\end{equation} 381 381 \end{equation}
382 382
\begin{equation} 383 383 \begin{equation}
P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w) 384 384 P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w)
\label{eqbkt3} 385 385 \label{eqbkt3}
\end{equation} 386 386 \end{equation}
387 387
Le modèle de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. L'algorithme utilisé pour l'adaptation est un algorithme d'apprentissage par renforcement appelé échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus analysé spécifique \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Bêta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}. 388 388 Le modèle de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. L'algorithme utilisé pour l'adaptation est un algorithme d'apprentissage par renforcement appelé échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus analysé spécifique \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions Bêta (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}.
389 389
%\begin{equation} 390 390 %\begin{equation}
% Beta(x,\alpha,\beta)=\begin{cases} 391 391 % Beta(x,\alpha,\beta)=\begin{cases}
% \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\ 392 392 % \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\
% 0&otherwise 393 393 % 0&otherwise
% \end{cases} 394 394 % \end{cases}
%\end{equation} 395 395 %\end{equation}
396 396
\begin{equation} 397 397 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} 398 398 Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{fbeta} 399 399 \label{fbeta}
\end{equation} 400 400 \end{equation}
401 401
En utilisant la definition formelle de la fonction Gamma $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant des variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}). 402 402 En utilisant la definition formelle de la fonction Gamma $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant des variables, une nouvelle expression de la fonction Beta est obtenue (équation \ref{f2beta}).
403 403
\begin{equation} 404 404 \begin{equation}
\Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx 405 405 \Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx
\label{eqGamma1} 406 406 \label{eqGamma1}
\end{equation} 407 407 \end{equation}
408 408
\begin{equation} 409 409 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1} 410 410 Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{f2beta} 411 411 \label{f2beta}
\end{equation} 412 412 \end{equation}
413 413
En exprimant les deux intégrales du denominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue. 414 414 En exprimant les deux intégrales du denominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue.
415 415
\begin{equation} 416 416 \begin{equation}
\int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv 417 417 \int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv
\label{f3Beta} 418 418 \label{f3Beta}
\end{equation} 419 419 \end{equation}
420 420
Après, sont remplacées $u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$, avec le résultat du Jacobien \ref{eqJac}, alors l'expression finale est comme montre l'équation \ref{f4Beta}. 421 421 Après, sont remplacées $u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$, avec le résultat du Jacobien \ref{eqJac}, alors l'expression finale est comme montre l'équation \ref{f4Beta}.
422 422
\begin{equation} 423 423 \begin{equation}
\left ( 424 424 \left (
\begin{matrix} 425 425 \begin{matrix}
\frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\ 426 426 \frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\
\frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\ 427 427 \frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\
\end{matrix} 428 428 \end{matrix}
\right ) = 429 429 \right ) =
\left ( 430 430 \left (
\begin{matrix} 431 431 \begin{matrix}
sdt & tds \\ 432 432 sdt & tds \\
-sdt & (1-t)ds\\ 433 433 -sdt & (1-t)ds\\
\end{matrix} 434 434 \end{matrix}
\right ) = s \; dtds 435 435 \right ) = s \; dtds
\label{eqJac} 436 436 \label{eqJac}
\end{equation} 437 437 \end{equation}
438 438
\begin{equation} 439 439 \begin{equation}
\int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt 440 440 \int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt
\label{f4Beta} 441 441 \label{f4Beta}
\end{equation} 442 442 \end{equation}
443 443
Si les intégrales sont exprimées en fonction des variables indépendantes $s$ et $t$ l'équation \ref{f5Beta} est générée. 444 444 Si les intégrales sont exprimées en fonction des variables indépendantes $s$ et $t$ l'équation \ref{f5Beta} est générée.
445 445
\begin{equation} 446 446 \begin{equation}
\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 447 447 \int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
\label{f5Beta} 448 448 \label{f5Beta}
\end{equation} 449 449 \end{equation}
450 450
En plaçant les termes dans l'équation le résultat est l'équation \ref{f6Beta}. 451 451 En plaçant les termes dans l'équation le résultat est l'équation \ref{f6Beta}.
452 452
\begin{equation} 453 453 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 454 454 Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
}\theta^{\alpha-1}(1-\theta)^{\beta-1} 455 455 }\theta^{\alpha-1}(1-\theta)^{\beta-1}
\label{f6Beta} 456 456 \label{f6Beta}
\end{equation} 457 457 \end{equation}
458 458
Finalement, la famille de fonctions de distribution Beta peut être exprimée comme l'équation \ref{f7Beta}. Les métriques utilisées dans ce chapitre s'expriment en fonction de cette définition. 459 459 Finalement, la famille de fonctions de distribution Beta peut être exprimée comme l'équation \ref{f7Beta}. Les métriques utilisées dans ce chapitre s'expriment en fonction de cette définition.
460 460
\begin{equation} 461 461 \begin{equation}
Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt 462 462 Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt
} 463 463 }
\label{f7Beta} 464 464 \label{f7Beta}
\end{equation} 465 465 \end{equation}
466 466
L'évolution de l'algorithme de recommandation TS est établie par le changement des distributions de probabilité, mais au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude, sous la forme d'une métrique qui détermine numériquement les différences entre elles. L'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'information nécessaire pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. La divergence de Kullback-Liebler (équation \ref{dkl}) est largement utilisée, mais elle présente l'inconvénient de ne pas pouvoir être utilisée comme métrique dans certains cas, car il ne s'agit pas d'une mesure symétrique, $D_{KL}(p,q) \neq D_{KL}(q,p)$, elle ne satisfait pas à l'inégalité triangulaire et elle n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon. 467 467 L'évolution de l'algorithme de recommandation TS est établie par le changement des distributions de probabilité, mais au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude, sous la forme d'une métrique qui détermine numériquement les différences entre elles. L'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'information nécessaire pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. La divergence de Kullback-Liebler (équation \ref{dkl}) est largement utilisée, mais elle présente l'inconvénient de ne pas pouvoir être utilisée comme métrique dans certains cas, car il ne s'agit pas d'une mesure symétrique, $D_{KL}(p,q) \neq D_{KL}(q,p)$, elle ne satisfait pas à l'inégalité triangulaire et elle n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon.
468 468
\begin{equation} 469 469 \begin{equation}
D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx 470 470 D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx
\label{dkl} 471 471 \label{dkl}
\end{equation} 472 472 \end{equation}
473 473
La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler, à la différence qu'une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$, l'équation \ref{djs2} montre comment elle est calculée. La divergence de Jensen-Shannon est un mélange de distributions de probabilités fondé sur $p(x)$ et $q(x)$. 474 474 La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler, à la différence qu'une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$, l'équation \ref{djs2} montre comment elle est calculée. La divergence de Jensen-Shannon est un mélange de distributions de probabilités fondé sur $p(x)$ et $q(x)$.
475 475
%Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\ 476 476 %Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\
477 477
\begin{equation} 478 478 \begin{equation}
D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x)) 479 479 D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x))
\label{djs} 480 480 \label{djs}
\end{equation} 481 481 \end{equation}
482 482
\begin{equation} 483 483 \begin{equation}
m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x) 484 484 m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x)
\label{djs2} 485 485 \label{djs2}
\end{equation} 486 486 \end{equation}
487 487
Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine. 488 488 Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine.
489 489
La prédiction utilisée dans le modèle proposé est fondée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement à partir de cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle fondé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet d'éviter le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation par raisonnement à partir de cas. 490 490 La prédiction utilisée dans le modèle proposé est fondée sur les travaux de Soto \textit{et al.} \cite{10.1007/978-3-031-63646-2_11}, il s'agit d'un modèle d'empilage de raisonnement à partir de cas qui met en œuvre deux niveaux d'intégration, le modèle utilise globalement la stratégie d'empilage pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et de générer des solutions à différents problèmes génériques, en outre il y a une étape d'évaluation qui permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. Il a été décidé de mettre en œuvre le modèle fondé sur l'empilement car il s'agit d'une méthode d'ensemble qui permet d'éviter le paradoxe de Stein puisqu'elle combine les points de vue de différents estimateurs à des étapes de récupération et de réutilisation par raisonnement à partir de cas.
491 491
\subsection{Modèle Proposé} 492 492 \subsection{Modèle Proposé}
493 493
Le modèle proposé est une intégration du modèle d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec le raisonnement à base de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée. 494 494 Le modèle proposé est une intégration du modèle d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec le raisonnement à base de cas d'ensemble (ESCBR-SMA). Dans ce cas, le modèle de recommandation produit une adaptation en fonction des notes de l'apprenant et l'ESCBR-SMA effectue une prédiction pour valider l'adaptation générée.
495 495
L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en se basant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec CBR). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel}, où l'on peut voir que les deux modèles TS et CBR sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}. 496 496 L'idée d'unifier les deux modèles est d'obtenir des informations du point de vue local où une recommandation est obtenue en se basant uniquement sur les informations des apprenants individuels (modèle fondé sur l'échantillonnage de Thompson) et la prédiction globale où les informations sont obtenues à partir de tous les apprenants qui ont des résultats similaires (filtre collaboratif avec CBR). L'architecture du modèle est présentée dans la figure \ref{fig:Amodel}, où l'on peut voir que les deux modèles TS et CBR sont exécutés en parallèle et indépendamment avec les informations extraites de la même base de données, une fois que les résultats de chaque modèle sont obtenus, les résultats sont unifiés par le biais d'une fonction de pondération, la recommandation finale est celle qui maximise l'expression \ref{eqMixModels}. La consolidation des résultats des deux modèles permet d'atténuer l'effet du paradoxe de Simpson \cite{10.1145/3578337.3605122}. Ce paradox décrit l'effet qui se présente lorsque les données sont grouppes de différents manières et montrent tendances divergentes \cite{lei2024analysis}.
497 497
\begin{figure} 498 498 \begin{figure}
\centering 499 499 \centering
\includegraphics[width=0.5\linewidth]{Figures/Model.png} 500 500 \includegraphics[width=0.5\linewidth]{Figures/Model.png}
\caption{Schéma de l'architecture du modèle proposé} 501 501 \caption{Schéma de l'architecture du modèle proposé}
\label{fig:Amodel} 502 502 \label{fig:Amodel}
\end{figure} 503 503 \end{figure}
504 504
La première étape est l'adaptation avec l'échantillonnage de Thompson, puis la prédiction ECBR-SMA et enfin la prise de décision à envoyer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité de l'apprenant et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées. 505 505 La première étape est l'adaptation avec l'échantillonnage de Thompson, puis la prédiction ECBR-SMA et enfin la prise de décision à envoyer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité de l'apprenant et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées. Le tableau \ref{tabvp} présente les variables et les paramètres du modèle proposé ainsi que les mesures employées.
506 506
\begin{table}[!ht] 507 507 \begin{table}[!ht]
\centering 508 508 \centering
\footnotesize 509 509 \footnotesize
\begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c} 510 510 \begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c}
ID&Type&Description&Domain\\ 511 511 ID&Type&Description&Domain\\
\hline 512 512 \hline
$\alpha$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\ 513 513 $\alpha$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\
$\beta$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\ 514 514 $\beta$&p&Paramètre de la distribution bêta&$[1, \infty] \in \mathbb{R}$\\
$t$&p&Temps défini comme itérations&$\mathbb{N}$\\ 515 515 $t$&p&Temps défini comme itérations&$\mathbb{N}$\\
$c$&p&Niveau de complexité&$\mathbb{N}$\\ 516 516 $c$&p&Niveau de complexité&$\mathbb{N}$\\
$k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ 517 517 $k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\
$vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\ 518 518 $vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\
$TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ 519 519 $TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\
$TSN_c$&v&Normalization de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\ 520 520 $TSN_c$&v&Normalization de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\
$ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\ 521 521 $ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\
$p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\ 522 522 $p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\
$D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\ 523 523 $D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\
524 524
\end{tabular} 525 525 \end{tabular}
\caption{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées} 526 526 \caption{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées}
\label{tabvp} 527 527 \label{tabvp}
\end{table} 528 528 \end{table}
529 529
L'intégration se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le modèle TS (équation \ref{IntEq1}), une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée comme indiqué dans l'équation \ref{IntEq2}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par le modèle ESCBR-SMA, comme le montre l'équation \ref{eqMixModels}. 530 530 L'intégration se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le modèle TS (équation \ref{IntEq1}), une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée comme indiqué dans l'équation \ref{IntEq2}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par le modèle ESCBR-SMA, comme le montre l'équation \ref{eqMixModels}.
531 531
\begin{equation} 532 532 \begin{equation}
TS_c=rand(Beta(\alpha_c, \beta_c)) 533 533 TS_c=rand(Beta(\alpha_c, \beta_c))
\label{IntEq1} 534 534 \label{IntEq1}
\end{equation} 535 535 \end{equation}
536 536
\begin{equation} 537 537 \begin{equation}
TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i} 538 538 TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i}
\label{IntEq2} 539 539 \label{IntEq2}
\end{equation} 540 540 \end{equation}
541 541
\begin{equation} 542 542 \begin{equation}
n_c=argmax_c(TSN_c*ESCBR_c) 543 543 n_c=argmax_c(TSN_c*ESCBR_c)
\label{eqMixModels} 544 544 \label{eqMixModels}
\end{equation} 545 545 \end{equation}
546 546
Avec les valeurs finales calculées pour chaque niveau de complexité, le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels}). Le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels}). 547 547 Avec les valeurs finales calculées pour chaque niveau de complexité, le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels}). Le niveau de complexité qui a la valeur la plus élevée est proposé comme recommandation finale (équation \ref{eqMixModels}).
548 548
\subsection{Résultats et Discussion} 549 549 \subsection{Résultats et Discussion}
550 550
Cette section présente la description de la base de données et les paramètres utilisés pour mesurer la précision, la performance et la progression des connaissances, les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'IA-VT. Cette section présente les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'IA-VT. 551 551 Cette section présente la description de la base de données et les paramètres utilisés pour mesurer la précision, la performance et la progression des connaissances, les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'IA-VT. Cette section présente les résultats individuels du modèle de recommandation, le modèle de prédiction ainsi que leur intégration finale pour améliorer la personnalisation du système d'IA-VT.
552 552
La base de données a été générée avec la distribution logit-normale pour simuler les notes des apprenants, car il s'agit d'un bon modèle pour se rapprocher du monde réel. La base de données représente les notes et les temps de réponse d'un apprenant pour cinq questions à chaque niveau de complexité. 553 553 La base de données a été générée avec la distribution logit-normale pour simuler les notes des apprenants, car il s'agit d'un bon modèle pour se rapprocher du monde réel. La base de données représente les notes et les temps de réponse d'un apprenant pour cinq questions à chaque niveau de complexité.
554 554
Le principal inconvénient de ce système de validation « en situation réelle » est la difficulté de la collecte des données. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulé, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment et que les données peuvent être incomplètes \cite{badier:hal-04092828}. 555 555 Le principal inconvénient de ce système de validation « en situation réelle » est la difficulté de la collecte des données. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulé, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment et que les données peuvent être incomplètes \cite{badier:hal-04092828}.
556 556
Quatre tests différents ont été effectués pour démontrer les avantages de l'intégration de la TS et de la CBR dans les EIAH. Le premier est l'utilisation de CBR pour la régression avec une base de données d'apprenants afin de démontrer la capacité du modèle à prédire les notes à différents niveaux de complexité, le deuxième est l'évaluation de la progression des connaissances avec TS afin de déterminer l'efficacité du modèle dans la recommandation personnalisée pour chaque apprenant, La troisième est la comparaison entre les modèles de recommandation BKT et TS afin d'établir la performance du modèle TS en utilisant BKT comme modèle de base et enfin, la comparaison entre TS seul et TS avec ESCBR-SMA pour démontrer que l'intégration entre les deux modèles améliore l'ensemble du système de recommandation dans AI-VT. 557 557 Quatre tests différents ont été effectués pour démontrer les avantages de l'intégration de la TS et de la CBR dans les EIAH. Le premier est l'utilisation de CBR pour la régression avec une base de données d'apprenants afin de démontrer la capacité du modèle à prédire les notes à différents niveaux de complexité, le deuxième est l'évaluation de la progression des connaissances avec TS afin de déterminer l'efficacité du modèle dans la recommandation personnalisée pour chaque apprenant, La troisième est la comparaison entre les modèles de recommandation BKT et TS afin d'établir la performance du modèle TS en utilisant BKT comme modèle de base et enfin, la comparaison entre TS seul et TS avec ESCBR-SMA pour démontrer que l'intégration entre les deux modèles améliore l'ensemble du système de recommandation dans AI-VT.
558 558
\subsubsection{Régression dans la base de données des apprenants avec ESCBR-SMA} 559 559 \subsubsection{Régression dans la base de données des apprenants avec ESCBR-SMA}
560 560
Le SMA utilise le raisonnement bayésien, ce qui permet aux agents d'apprendre des données et des interactions au cours de l'exécution et de l'exploration. 561 561 Le SMA utilise le raisonnement bayésien, ce qui permet aux agents d'apprendre des données et des interactions au cours de l'exécution et de l'exploration.
562 562
L'algorithme utilise une fonction noyau pour obtenir la meilleure approximation de la solution du nouveau problème, le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions. Le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions \cite{doi:10.1137/23M1592420}. 563 563 L'algorithme utilise une fonction noyau pour obtenir la meilleure approximation de la solution du nouveau problème, le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions. Le problème de l'obtention de la meilleure solution est un problème NP, car la formulation est similaire au problème de Fermat-Weber à N dimensions \cite{doi:10.1137/23M1592420}.
564 564
La première série de tests est définie sous la forme de différents scénarios, comme le montre le tableau \ref{tab:scenarios}. Dans le scénario 1 (E1), il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario 2 (E2) contient les notes de 8 questions et l'objectif est de prédire la note de 9 questions dans le même niveau de complexité. Le scénario 3 (E3) contient les données permettant de prédire le passage à un niveau de complexité supérieur après 4 questions. Le scénario 4 (E4) contient 4 questions et la prédiction de 2 notes dans un niveau de complexité supérieur. 565 565 La première série de tests est définie sous la forme de différents scénarios, comme le montre le tableau \ref{tab:scenarios}. Dans le scénario 1 (E1), il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario 2 (E2) contient les notes de 8 questions et l'objectif est de prédire la note de 9 questions dans le même niveau de complexité. Le scénario 3 (E3) contient les données permettant de prédire le passage à un niveau de complexité supérieur après 4 questions. Le scénario 4 (E4) contient 4 questions et la prédiction de 2 notes dans un niveau de complexité supérieur.
566 566
\begin{table}[!ht] 567 567 \begin{table}[!ht]
\centering 568 568 \centering
\begin{tabular}{ccc} 569 569 \begin{tabular}{ccc}
Scenario&Features&Output Dimension\\ 570 570 Scenario&Features&Output Dimension\\
\hline 571 571 \hline
E1 & 5 & 1\\ 572 572 E1 & 5 & 1\\
E2 & 15& 1\\ 573 573 E2 & 15& 1\\
E3 & 9 & 1\\ 574 574 E3 & 9 & 1\\
E4 & 9 & 2\\ 575 575 E4 & 9 & 2\\
\end{tabular} 576 576 \end{tabular}
\caption{Description des scénarios} 577 577 \caption{Description des scénarios}
\label{tab:scenarios} 578 578 \label{tab:scenarios}
\end{table} 579 579 \end{table}
580 580
Le modèle a été comparé à neuf algorithmes bien connus utilisés pour résoudre les problèmes de régression. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}. 581 581 Le modèle a été comparé à neuf algorithmes bien connus utilisés pour résoudre les problèmes de régression. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs}.
582 582
\begin{table}[!ht] 583 583 \begin{table}[!ht]
\footnotesize 584 584 \footnotesize
\begin{tabular}{ll|ll} 585 585 \begin{tabular}{ll|ll}
ID&Algorithm&ID&Algorithm\\ 586 586 ID&Algorithm&ID&Algorithm\\
\hline 587 587 \hline
A1&Linear Regression&A6&Polinomial Regression\\ 588 588 A1&Linear Regression&A6&Polinomial Regression\\
A2&K-Nearest Neighbor&A7&Ridge Regression\\ 589 589 A2&K-Nearest Neighbor&A7&Ridge Regression\\
A3&Decision Tree&A8&Lasso Regression\\ 590 590 A3&Decision Tree&A8&Lasso Regression\\
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ 591 591 A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\
A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking CBR\\ 592 592 A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking CBR\\
\end{tabular} 593 593 \end{tabular}
\caption{Liste des algorithmes évalués } 594 594 \caption{Liste des algorithmes évalués }
\label{tabAlgs} 595 595 \label{tabAlgs}
\end{table} 596 596 \end{table}
597 597
Les algorithmes ont été évalués à l'aide de trois mesures (Root Mean Squared Error - RMSE, Median Absolute Error - MedAE, Mean Absolute Error - MAE), dont les résultats figurent dans le tableau \ref{tab:results}, où l'on constate que l'algorithme proposé obtient de meilleurs résultats que les autres algorithmes avec lesquels il a été comparé, sauf dans les cas E1(MedAE), E1(MAE), E2(MedAE), E2(MAE), E3 et E4(MedAE) où les meilleurs résultats sont obtenus par l'algorithme A9, mais l'algorithme proposé occupe la deuxième place dans ces cas avec des résultats très proches. Il est possible de conclure que l'intégration de plusieurs algorithmes de recherche et de génération de solutions dans le cadre des paradigmes CBR et Stacking est efficace dans le cas de l'application à la prédiction des notes des apprenants. 598 598 Les algorithmes ont été évalués à l'aide de trois mesures (Root Mean Squared Error - RMSE, Median Absolute Error - MedAE, Mean Absolute Error - MAE), dont les résultats figurent dans le tableau \ref{tab:results}, où l'on constate que l'algorithme proposé obtient de meilleurs résultats que les autres algorithmes avec lesquels il a été comparé, sauf dans les cas E1(MedAE), E1(MAE), E2(MedAE), E2(MAE), E3 et E4(MedAE) où les meilleurs résultats sont obtenus par l'algorithme A9, mais l'algorithme proposé occupe la deuxième place dans ces cas avec des résultats très proches. Il est possible de conclure que l'intégration de plusieurs algorithmes de recherche et de génération de solutions dans le cadre des paradigmes CBR et Stacking est efficace dans le cas de l'application à la prédiction des notes des apprenants.
599 599
\begin{table}[!ht] 600 600 \begin{table}[!ht]
\centering 601 601 \centering
\footnotesize 602 602 \footnotesize
\begin{tabular}{c|cccccccccc} 603 603 \begin{tabular}{c|cccccccccc}
&\multicolumn{10}{c}{\textbf{Algorithme}}\\ 604 604 &\multicolumn{10}{c}{\textbf{Algorithme}}\\
\hline 605 605 \hline
& A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ 606 606 & A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
\textbf{Scenario (Metrique)}\\ 607 607 \textbf{Scenario (Metrique)}\\
\hline 608 608 \hline
E1 (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\ 609 609 E1 (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\
E1 (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\ 610 610 E1 (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\
E1 (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\ 611 611 E1 (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\
\hline 612 612 \hline
E2 (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\ 613 613 E2 (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\
E2 (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\ 614 614 E2 (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\
E2 (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\ 615 615 E2 (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\
\hline 616 616 \hline
E3 (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\ 617 617 E3 (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\
E3 (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\ 618 618 E3 (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\
E3 (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\ 619 619 E3 (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\
\hline 620 620 \hline
E4 (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\ 621 621 E4 (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\
E4 (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\ 622 622 E4 (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\
E4 (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\ 623 623 E4 (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\
\end{tabular} 624 624 \end{tabular}
\caption{Résultats de la régression pour la base de données des apprenants avec 100 exécutions} 625 625 \caption{Résultats de la régression pour la base de données des apprenants avec 100 exécutions}
\label{tab:results} 626 626 \label{tab:results}
\end{table} 627 627 \end{table}
628 628
\subsubsection{Progression des connaissances} 629 629 \subsubsection{Progression des connaissances}
630 630
Le modèle de recommandation TS est fondé sur le paradigme bayésien, ce qui est très utile lorsque les données sont limitées et l'incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ fois a été utilisée comme second test. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). 631 631 Le modèle de recommandation TS est fondé sur le paradigme bayésien, ce qui est très utile lorsque les données sont limitées et l'incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ fois a été utilisée comme second test. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}).
632 632
%\begin{equation} 633 633 %\begin{equation}
\begin{multline} 634 634 \begin{multline}
k_{t,c}=\frac{1}{2} 635 635 k_{t,c}=\frac{1}{2}
\int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx 636 636 \int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx
\\ 637 637 \\
+\frac{1}{2} 638 638 +\frac{1}{2}
\int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx 639 639 \int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx
\label{eqprog1} 640 640 \label{eqprog1}
\end{multline} 641 641 \end{multline}
%\end{equation} 642 642 %\end{equation}
643 643
\begin{multline} 644 644 \begin{multline}
m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\ 645 645 m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\
+\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right ) 646 646 +\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right )
%\end{equation} 647 647 %\end{equation}
\label{eqprog2} 648 648 \label{eqprog2}
\end{multline} 649 649 \end{multline}
650 650
La progression totale des connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). en utilisant l'évaluation de la progression de la variabilité (équation \ref{eqVarP}). 651 651 La progression totale des connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). en utilisant l'évaluation de la progression de la variabilité (équation \ref{eqVarP}).
652 652
\begin{equation} 653 653 \begin{equation}
vk_{t,c}=\begin{cases} 654 654 vk_{t,c}=\begin{cases}
D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\ 655 655 D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\
-D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise 656 656 -D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise
\end{cases} 657 657 \end{cases}
\label{eqVarP} 658 658 \label{eqVarP}
\end{equation} 659 659 \end{equation}
660 660
\begin{equation} 661 661 \begin{equation}
k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0} 662 662 k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0}
\begin{cases} 663 663 \begin{cases}
\alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\ 664 664 \alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\
0;&Otherwise 665 665 0;&Otherwise
\end{cases} 666 666 \end{cases}
\label{eqTEK} 667 667 \label{eqTEK}
\end{equation} 668 668 \end{equation}
669 669
\begin{figure}[!ht] 670 670 \begin{figure}[!ht]
\centering 671 671 \centering
\includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg} 672 672 \includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg}
\caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon} 673 673 \caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon}
\label{fig:evolution} 674 674 \label{fig:evolution}
\end{figure} 675 675 \end{figure}
676 676
La figure \ref{fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une seule session de formation. Entre la première et la dernière question de la même session, tous les apprenants ont statistiquement augmenté leur niveau de connaissance puisque la moyenne a augmenté, la variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants, à partir de là la variabilité diminue et la moyenne augmente. La figure {fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une même session de formation. 677 677 La figure \ref{fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une seule session de formation. Entre la première et la dernière question de la même session, tous les apprenants ont statistiquement augmenté leur niveau de connaissance puisque la moyenne a augmenté, la variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants, à partir de là la variabilité diminue et la moyenne augmente. La figure {fig:evolution} montre la progression cumulative des connaissances sur les quinze questions d'une même session de formation.
678 678
\subsubsection{Comparaison entre TS et BKT} 679 679 \subsubsection{Comparaison entre TS et BKT}
680 680
L'évolution du système de recommandation TS est testée en comparaison avec BKT, la figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même session. Dans ce cas, le modèle TS génère moins de variabilité que BKT, mais si est faite la comparaison des moyennes générées par chaque question, l'évolution est très similaire. La figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent au cours de la même session. 681 681 L'évolution du système de recommandation TS est testée en comparaison avec BKT, la figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même session. Dans ce cas, le modèle TS génère moins de variabilité que BKT, mais si est faite la comparaison des moyennes générées par chaque question, l'évolution est très similaire. La figure \ref{fig:EvGrades} montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent au cours de la même session.
682 682
\begin{figure} 683 683 \begin{figure}[!ht]
\centering 684 684 \centering
\includegraphics[width=\textwidth]{Figures/GradesEv.jpg} 685 685 \includegraphics[width=\textwidth]{Figures/GradesEv.jpg}
\caption{Comparaison de l'évolution des notes entre les algorithmes BKT et TS} 686 686 \caption{Comparaison de l'évolution des notes entre les algorithmes BKT et TS}
\label{fig:EvGrades} 687 687 \label{fig:EvGrades}
\end{figure} 688 688 \end{figure}
689 689
Mais, si les résultats obtenus sont comparés par rapport à l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), le modèle TS fait évoluer le niveau de complexité des apprenants, alors que le modèle BKT a tendance à laisser les apprenants au même niveau de complexité, c'est-à-dire qu'avec le modèle BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En examinant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}) et en établissant des comparaisons, le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité.\N- Le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité. Le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité. 690 690 Mais, si les résultats obtenus sont comparés par rapport à l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), le modèle TS fait évoluer le niveau de complexité des apprenants, alors que le modèle BKT a tendance à laisser les apprenants au même niveau de complexité, c'est-à-dire qu'avec le modèle BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En examinant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}) et en établissant des comparaisons, le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité.\N- Le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité. Le modèle TS permet de progresser en moyenne dans la valeur des notes et facilite l'évolution des niveaux de complexité.
691 691
\begin{figure} 692 692 \begin{figure}[!ht]
\centering 693 693 \centering
\includegraphics[width=\textwidth]{Figures/LevelsEv.jpg} 694 694 \includegraphics[width=\textwidth]{Figures/LevelsEv.jpg}
\caption{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS} 695 695 \caption{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS}
\label{fig:EvCL} 696 696 \label{fig:EvCL}
\end{figure} 697 697 \end{figure}
698 698
\subsubsection{Système de recommandation avec ESCBR-SMA} 699 699 \subsubsection{Système de recommandation avec ESCBR-SMA}
700 700
Le troisième test est l'intégration entre deux modèles. Cette combinaison est faite pour éviter le paradoxe de Stein, en essayant de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (Thomson sampling recommender) et le filtre collaboratif (Case-base reasoning prediction) pour améliorer la personnalisation. Le test est une comparaison entre le système de recommandation TS et le système de recommandation TS avec la prédiction ESCBR-SMA afin de déterminer si l'intégration des deux modèles permet d'améliorer l'évolution du processus d'apprentissage proposé par le système AI-VT. 701 701 Le troisième test est l'intégration entre deux modèles. Cette combinaison est faite pour éviter le paradoxe de Stein, en essayant de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (Thomson sampling recommender) et le filtre collaboratif (Case-base reasoning prediction) pour améliorer la personnalisation. Le test est une comparaison entre le système de recommandation TS et le système de recommandation TS avec la prédiction ESCBR-SMA afin de déterminer si l'intégration des deux modèles permet d'améliorer l'évolution du processus d'apprentissage proposé par le système AI-VT.
702 702
La comparaison est effectuée après la question 6 pour tous les apprenants, car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité pour la question suivante. 703 703 La comparaison est effectuée après la question 6 pour tous les apprenants, car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité pour la question suivante.
704 704
\subsubsection{Progression des connaissances TS vs TS et ESCBR-SMA} 705 705 \subsubsection{Progression des connaissances TS vs TS et ESCBR-SMA}
706 706
Pour établir la différence entre le modèle de recommandation TS et le même modèle associé à la prédiction fondée sur le raisonnement à partir de cas ESCBR-SMA, le quatrième test est défini en utilisant la métrique de Jensen-Shannon, mais dans ce cas la comparaison est faite entre les différents modèles (TS, TS-ESCBR) sur le même niveau de complexité dans le même temps $t$. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}. 707 707 Pour établir la différence entre le modèle de recommandation TS et le même modèle associé à la prédiction fondée sur le raisonnement à partir de cas ESCBR-SMA, le quatrième test est défini en utilisant la métrique de Jensen-Shannon, mais dans ce cas la comparaison est faite entre les différents modèles (TS, TS-ESCBR) sur le même niveau de complexité dans le même temps $t$. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}. La définition formelle de la métrique est exprimée par les équations \ref{eqjs4} et \ref{eqjs5}.
708 708
\begin{multline} 709 709 \begin{multline}
k_{t,c}=\frac{1}{2} 710 710 k_{t,c}=\frac{1}{2}
\int_{0}^{1}p_c(\alpha_{p1,t},\beta_{p1,t},x) 711 711 \int_{0}^{1}p_c(\alpha_{p1,t},\beta_{p1,t},x)
log \left(\frac{p_c(\alpha_{p1,t},\beta_{p1,t},x)}{m(p_c(\alpha_{p1,t},\beta_{p1,t},x),p_c(\alpha_{p2,t},\beta_{p2,t},x))} \right)dx 712 712 log \left(\frac{p_c(\alpha_{p1,t},\beta_{p1,t},x)}{m(p_c(\alpha_{p1,t},\beta_{p1,t},x),p_c(\alpha_{p2,t},\beta_{p2,t},x))} \right)dx
\\ 713 713 \\
+\frac{1}{2} 714 714 +\frac{1}{2}
\int_{0}^{1}p_c(\alpha_{p2,t},\beta_{p2,t},x) log \left(\frac{p_c(\alpha_{p2,t},\beta_{p2,t},x)}{m(p_c(\alpha_{p1,t},\beta_{p1,t},x),p_c(\alpha_{p2,t},\beta_{p2,t},x))} \right)dx 715 715 \int_{0}^{1}p_c(\alpha_{p2,t},\beta_{p2,t},x) log \left(\frac{p_c(\alpha_{p2,t},\beta_{p2,t},x)}{m(p_c(\alpha_{p1,t},\beta_{p1,t},x),p_c(\alpha_{p2,t},\beta_{p2,t},x))} \right)dx
\label{eqjs4} 716 716 \label{eqjs4}
\end{multline} 717 717 \end{multline}
%\end{equation} 718 718 %\end{equation}
719 719
\begin{multline} 720 720 \begin{multline}
m(p(\alpha_{p1,t},\beta_{p1,t},x),p(\alpha_{p2,t},\beta_{p2,t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{p1,t}-1}(1-x)^{\beta_{p1,t}-1}}{\int_0^1 u^{\alpha_{p1,t}-1}(1-u^{\beta_{p1,t}-1})du} \right )\\ 721 721 m(p(\alpha_{p1,t},\beta_{p1,t},x),p(\alpha_{p2,t},\beta_{p2,t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{p1,t}-1}(1-x)^{\beta_{p1,t}-1}}{\int_0^1 u^{\alpha_{p1,t}-1}(1-u^{\beta_{p1,t}-1})du} \right )\\
+\frac{1}{2} \left (\frac{x^{\alpha_{p2,t}-1}(1-x)^{\beta_{p2,t}-1}}{\int_0^1 u^{\alpha_{p2,t}-1}(1-u^{\beta_{p2,t}-1})du} \right ) 722 722 +\frac{1}{2} \left (\frac{x^{\alpha_{p2,t}-1}(1-x)^{\beta_{p2,t}-1}}{\int_0^1 u^{\alpha_{p2,t}-1}(1-u^{\beta_{p2,t}-1})du} \right )
\label{eqjs5} 723 723 \label{eqjs5}
%\end{equation} 724 724 %\end{equation}
This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 28 MAY 2025 16:29 1 1 This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 31 MAY 2025 00:14
entering extended mode 2 2 entering extended mode
restricted \write18 enabled. 3 3 restricted \write18 enabled.
%&-line parsing enabled. 4 4 %&-line parsing enabled.
**main.tex 5 5 **main.tex
(./main.tex 6 6 (./main.tex
LaTeX2e <2022-11-01> patch level 1 7 7 LaTeX2e <2022-11-01> patch level 1
L3 programming layer <2023-05-22> (./spimufcphdthesis.cls 8 8 L3 programming layer <2023-05-22> (./spimufcphdthesis.cls
Document Class: spimufcphdthesis 2022/02/10 9 9 Document Class: spimufcphdthesis 2022/02/10
10 10
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-docum 11 11 (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-docum
ent.cls 12 12 ent.cls
Document Class: upmethodology-document 2022/10/04 13 13 Document Class: upmethodology-document 2022/10/04
(./upmethodology-p-common.sty 14 14 (./upmethodology-p-common.sty
Package: upmethodology-p-common 2015/04/24 15 15 Package: upmethodology-p-common 2015/04/24
16 16
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/ifthen.sty 17 17 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/ifthen.sty
Package: ifthen 2022/04/13 v1.1d Standard LaTeX ifthen package (DPC) 18 18 Package: ifthen 2022/04/13 v1.1d Standard LaTeX ifthen package (DPC)
) 19 19 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/xspace.sty 20 20 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/xspace.sty
Package: xspace 2014/10/28 v1.13 Space after command names (DPC,MH) 21 21 Package: xspace 2014/10/28 v1.13 Space after command names (DPC,MH)
) 22 22 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/xcolor/xcolor.sty 23 23 (/usr/local/texlive/2023/texmf-dist/tex/latex/xcolor/xcolor.sty
Package: xcolor 2022/06/12 v2.14 LaTeX color extensions (UK) 24 24 Package: xcolor 2022/06/12 v2.14 LaTeX color extensions (UK)
25 25
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/color.cfg 26 26 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/color.cfg
File: color.cfg 2016/01/02 v1.6 sample color configuration 27 27 File: color.cfg 2016/01/02 v1.6 sample color configuration
) 28 28 )
Package xcolor Info: Driver file: pdftex.def on input line 227. 29 29 Package xcolor Info: Driver file: pdftex.def on input line 227.
30 30
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-def/pdftex.def 31 31 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-def/pdftex.def
File: pdftex.def 2022/09/22 v1.2b Graphics/color driver for pdftex 32 32 File: pdftex.def 2022/09/22 v1.2b Graphics/color driver for pdftex
) 33 33 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/mathcolor.ltx) 34 34 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/mathcolor.ltx)
Package xcolor Info: Model `cmy' substituted by `cmy0' on input line 1353. 35 35 Package xcolor Info: Model `cmy' substituted by `cmy0' on input line 1353.
Package xcolor Info: Model `hsb' substituted by `rgb' on input line 1357. 36 36 Package xcolor Info: Model `hsb' substituted by `rgb' on input line 1357.
Package xcolor Info: Model `RGB' extended on input line 1369. 37 37 Package xcolor Info: Model `RGB' extended on input line 1369.
Package xcolor Info: Model `HTML' substituted by `rgb' on input line 1371. 38 38 Package xcolor Info: Model `HTML' substituted by `rgb' on input line 1371.
Package xcolor Info: Model `Hsb' substituted by `hsb' on input line 1372. 39 39 Package xcolor Info: Model `Hsb' substituted by `hsb' on input line 1372.
Package xcolor Info: Model `tHsb' substituted by `hsb' on input line 1373. 40 40 Package xcolor Info: Model `tHsb' substituted by `hsb' on input line 1373.
Package xcolor Info: Model `HSB' substituted by `hsb' on input line 1374. 41 41 Package xcolor Info: Model `HSB' substituted by `hsb' on input line 1374.
Package xcolor Info: Model `Gray' substituted by `gray' on input line 1375. 42 42 Package xcolor Info: Model `Gray' substituted by `gray' on input line 1375.
Package xcolor Info: Model `wave' substituted by `hsb' on input line 1376. 43 43 Package xcolor Info: Model `wave' substituted by `hsb' on input line 1376.
) 44 44 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifpdf.sty 45 45 (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifpdf.sty
Package: ifpdf 2019/10/25 v3.4 ifpdf legacy package. Use iftex instead. 46 46 Package: ifpdf 2019/10/25 v3.4 ifpdf legacy package. Use iftex instead.
47 47
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/iftex.sty 48 48 (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/iftex.sty
Package: iftex 2022/02/03 v1.0f TeX engine tests 49 49 Package: iftex 2022/02/03 v1.0f TeX engine tests
)) 50 50 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/UPMVERSION.def)) 51 51 (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/UPMVERSION.def))
*********** UPMETHODOLOGY BOOK CLASS (WITH PART AND CHAPTER) 52 52 *********** UPMETHODOLOGY BOOK CLASS (WITH PART AND CHAPTER)
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/book.cls 53 53 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/book.cls
Document Class: book 2022/07/02 v1.4n Standard LaTeX document class 54 54 Document Class: book 2022/07/02 v1.4n Standard LaTeX document class
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/bk11.clo 55 55 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/bk11.clo
File: bk11.clo 2022/07/02 v1.4n Standard LaTeX file (size option) 56 56 File: bk11.clo 2022/07/02 v1.4n Standard LaTeX file (size option)
) 57 57 )
\c@part=\count185 58 58 \c@part=\count185
\c@chapter=\count186 59 59 \c@chapter=\count186
\c@section=\count187 60 60 \c@section=\count187
\c@subsection=\count188 61 61 \c@subsection=\count188
\c@subsubsection=\count189 62 62 \c@subsubsection=\count189
\c@paragraph=\count190 63 63 \c@paragraph=\count190
\c@subparagraph=\count191 64 64 \c@subparagraph=\count191
\c@figure=\count192 65 65 \c@figure=\count192
\c@table=\count193 66 66 \c@table=\count193
\abovecaptionskip=\skip48 67 67 \abovecaptionskip=\skip48
\belowcaptionskip=\skip49 68 68 \belowcaptionskip=\skip49
\bibindent=\dimen140 69 69 \bibindent=\dimen140
) 70 70 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/a4wide/a4wide.sty 71 71 (/usr/local/texlive/2023/texmf-dist/tex/latex/a4wide/a4wide.sty
Package: a4wide 1994/08/30 72 72 Package: a4wide 1994/08/30
73 73
(/usr/local/texlive/2023/texmf-dist/tex/latex/ntgclass/a4.sty 74 74 (/usr/local/texlive/2023/texmf-dist/tex/latex/ntgclass/a4.sty
Package: a4 2023/01/10 v1.2g A4 based page layout 75 75 Package: a4 2023/01/10 v1.2g A4 based page layout
)) 76 76 ))
(./upmethodology-document.sty 77 77 (./upmethodology-document.sty
Package: upmethodology-document 2015/04/24 78 78 Package: upmethodology-document 2015/04/24
79 79
**** upmethodology-document is using French language **** 80 80 **** upmethodology-document is using French language ****
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/babel.sty 81 81 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/babel.sty
Package: babel 2023/05/11 v3.89 The Babel package 82 82 Package: babel 2023/05/11 v3.89 The Babel package
\babel@savecnt=\count194 83 83 \babel@savecnt=\count194
\U@D=\dimen141 84 84 \U@D=\dimen141
\l@unhyphenated=\language87 85 85 \l@unhyphenated=\language87
86 86
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/txtbabel.def) 87 87 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/txtbabel.def)
\bbl@readstream=\read2 88 88 \bbl@readstream=\read2
\bbl@dirlevel=\count195 89 89 \bbl@dirlevel=\count195
90 90
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf 91 91 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf
Language: french 2023/03/08 v3.5q French support from the babel system 92 92 Language: french 2023/03/08 v3.5q French support from the babel system
Package babel Info: Hyphen rules for 'acadian' set to \l@french 93 93 Package babel Info: Hyphen rules for 'acadian' set to \l@french
(babel) (\language29). Reported on input line 91. 94 94 (babel) (\language29). Reported on input line 91.
Package babel Info: Hyphen rules for 'canadien' set to \l@french 95 95 Package babel Info: Hyphen rules for 'canadien' set to \l@french
(babel) (\language29). Reported on input line 92. 96 96 (babel) (\language29). Reported on input line 92.
\FB@nonchar=\count196 97 97 \FB@nonchar=\count196
Package babel Info: Making : an active character on input line 395. 98 98 Package babel Info: Making : an active character on input line 395.
Package babel Info: Making ; an active character on input line 396. 99 99 Package babel Info: Making ; an active character on input line 396.
Package babel Info: Making ! an active character on input line 397. 100 100 Package babel Info: Making ! an active character on input line 397.
Package babel Info: Making ? an active character on input line 398. 101 101 Package babel Info: Making ? an active character on input line 398.
\FBguill@level=\count197 102 102 \FBguill@level=\count197
\FBold@everypar=\toks16 103 103 \FBold@everypar=\toks16
\FB@Mht=\dimen142 104 104 \FB@Mht=\dimen142
\mc@charclass=\count198 105 105 \mc@charclass=\count198
\mc@charfam=\count199 106 106 \mc@charfam=\count199
\mc@charslot=\count266 107 107 \mc@charslot=\count266
\std@mcc=\count267 108 108 \std@mcc=\count267
\dec@mcc=\count268 109 109 \dec@mcc=\count268
\FB@parskip=\dimen143 110 110 \FB@parskip=\dimen143
\listindentFB=\dimen144 111 111 \listindentFB=\dimen144
\descindentFB=\dimen145 112 112 \descindentFB=\dimen145
\labelindentFB=\dimen146 113 113 \labelindentFB=\dimen146
\labelwidthFB=\dimen147 114 114 \labelwidthFB=\dimen147
\leftmarginFB=\dimen148 115 115 \leftmarginFB=\dimen148
\parindentFFN=\dimen149 116 116 \parindentFFN=\dimen149
\FBfnindent=\dimen150 117 117 \FBfnindent=\dimen150
) 118 118 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/frenchb.ldf 119 119 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/frenchb.ldf
Language: frenchb 2023/03/08 v3.5q French support from the babel system 120 120 Language: frenchb 2023/03/08 v3.5q French support from the babel system
121 121
122 122
Package babel-french Warning: Option `frenchb' for Babel is *deprecated*, 123 123 Package babel-french Warning: Option `frenchb' for Babel is *deprecated*,
(babel-french) it might be removed sooner or later. Please 124 124 (babel-french) it might be removed sooner or later. Please
(babel-french) use `french' instead; reported on input line 35. 125 125 (babel-french) use `french' instead; reported on input line 35.
126 126
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf 127 127 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf
Language: french 2023/03/08 v3.5q French support from the babel system 128 128 Language: french 2023/03/08 v3.5q French support from the babel system
))) 129 129 )))
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/locale/fr/babel-french.te 130 130 (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/locale/fr/babel-french.te
x 131 131 x
Package babel Info: Importing font and identification data for french 132 132 Package babel Info: Importing font and identification data for french
(babel) from babel-fr.ini. Reported on input line 11. 133 133 (babel) from babel-fr.ini. Reported on input line 11.
) (/usr/local/texlive/2023/texmf-dist/tex/latex/carlisle/scalefnt.sty) 134 134 ) (/usr/local/texlive/2023/texmf-dist/tex/latex/carlisle/scalefnt.sty)
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/keyval.sty 135 135 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/keyval.sty
Package: keyval 2022/05/29 v1.15 key=value parser (DPC) 136 136 Package: keyval 2022/05/29 v1.15 key=value parser (DPC)
\KV@toks@=\toks17 137 137 \KV@toks@=\toks17
) 138 138 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/vmargin/vmargin.sty 139 139 (/usr/local/texlive/2023/texmf-dist/tex/latex/vmargin/vmargin.sty
Package: vmargin 2004/07/15 V2.5 set document margins (VK) 140 140 Package: vmargin 2004/07/15 V2.5 set document margins (VK)
141 141
Package: vmargin 2004/07/15 V2.5 set document margins (VK) 142 142 Package: vmargin 2004/07/15 V2.5 set document margins (VK)
\PaperWidth=\dimen151 143 143 \PaperWidth=\dimen151
\PaperHeight=\dimen152 144 144 \PaperHeight=\dimen152
) (./upmethodology-extension.sty 145 145 ) (./upmethodology-extension.sty
Package: upmethodology-extension 2012/09/21 146 146 Package: upmethodology-extension 2012/09/21
\upmext@tmp@putx=\skip50 147 147 \upmext@tmp@putx=\skip50
148 148
*** define extension value frontillustrationsize **** 149 149 *** define extension value frontillustrationsize ****
*** define extension value watermarksize **** 150 150 *** define extension value watermarksize ****
*** undefine extension value publisher **** 151 151 *** undefine extension value publisher ****
*** undefine extension value copyrighter **** 152 152 *** undefine extension value copyrighter ****
*** undefine extension value printedin ****) 153 153 *** undefine extension value printedin ****)
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-fmt.s 154 154 (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-fmt.s
ty 155 155 ty
Package: upmethodology-fmt 2022/10/04 156 156 Package: upmethodology-fmt 2022/10/04
**** upmethodology-fmt is using French language **** 157 157 **** upmethodology-fmt is using French language ****
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphicx.sty 158 158 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphicx.sty
Package: graphicx 2021/09/16 v1.2d Enhanced LaTeX Graphics (DPC,SPQR) 159 159 Package: graphicx 2021/09/16 v1.2d Enhanced LaTeX Graphics (DPC,SPQR)
160 160
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphics.sty 161 161 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphics.sty
Package: graphics 2022/03/10 v1.4e Standard LaTeX Graphics (DPC,SPQR) 162 162 Package: graphics 2022/03/10 v1.4e Standard LaTeX Graphics (DPC,SPQR)
163 163
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/trig.sty 164 164 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/trig.sty
Package: trig 2021/08/11 v1.11 sin cos tan (DPC) 165 165 Package: trig 2021/08/11 v1.11 sin cos tan (DPC)
) 166 166 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/graphics.cfg 167 167 (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/graphics.cfg
File: graphics.cfg 2016/06/04 v1.11 sample graphics configuration 168 168 File: graphics.cfg 2016/06/04 v1.11 sample graphics configuration
) 169 169 )
Package graphics Info: Driver file: pdftex.def on input line 107. 170 170 Package graphics Info: Driver file: pdftex.def on input line 107.
) 171 171 )
\Gin@req@height=\dimen153 172 172 \Gin@req@height=\dimen153
\Gin@req@width=\dimen154 173 173 \Gin@req@width=\dimen154
) 174 174 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/subcaption.sty 175 175 (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/subcaption.sty
Package: subcaption 2023/02/19 v1.6 Sub-captions (AR) 176 176 Package: subcaption 2023/02/19 v1.6 Sub-captions (AR)
177 177
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption.sty 178 178 (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption.sty
Package: caption 2023/03/12 v3.6j Customizing captions (AR) 179 179 Package: caption 2023/03/12 v3.6j Customizing captions (AR)
180 180
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption3.sty 181 181 (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption3.sty
Package: caption3 2023/03/12 v2.4 caption3 kernel (AR) 182 182 Package: caption3 2023/03/12 v2.4 caption3 kernel (AR)
\caption@tempdima=\dimen155 183 183 \caption@tempdima=\dimen155
\captionmargin=\dimen156 184 184 \captionmargin=\dimen156
\caption@leftmargin=\dimen157 185 185 \caption@leftmargin=\dimen157
\caption@rightmargin=\dimen158 186 186 \caption@rightmargin=\dimen158
\caption@width=\dimen159 187 187 \caption@width=\dimen159
\caption@indent=\dimen160 188 188 \caption@indent=\dimen160
\caption@parindent=\dimen161 189 189 \caption@parindent=\dimen161
\caption@hangindent=\dimen162 190 190 \caption@hangindent=\dimen162
Package caption Info: Standard document class detected. 191 191 Package caption Info: Standard document class detected.
Package caption Info: french babel package is loaded. 192 192 Package caption Info: french babel package is loaded.
) 193 193 )
\c@caption@flags=\count269 194 194 \c@caption@flags=\count269
\c@continuedfloat=\count270 195 195 \c@continuedfloat=\count270
) 196 196 )
Package caption Info: New subtype `subfigure' on input line 239. 197 197 Package caption Info: New subtype `subfigure' on input line 239.
\c@subfigure=\count271 198 198 \c@subfigure=\count271
Package caption Info: New subtype `subtable' on input line 239. 199 199 Package caption Info: New subtype `subtable' on input line 239.
\c@subtable=\count272 200 200 \c@subtable=\count272
) 201 201 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/tabularx.sty 202 202 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/tabularx.sty
Package: tabularx 2020/01/15 v2.11c `tabularx' package (DPC) 203 203 Package: tabularx 2020/01/15 v2.11c `tabularx' package (DPC)
204 204
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/array.sty 205 205 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/array.sty
Package: array 2022/09/04 v2.5g Tabular extension package (FMi) 206 206 Package: array 2022/09/04 v2.5g Tabular extension package (FMi)
\col@sep=\dimen163 207 207 \col@sep=\dimen163
\ar@mcellbox=\box51 208 208 \ar@mcellbox=\box51
\extrarowheight=\dimen164 209 209 \extrarowheight=\dimen164
\NC@list=\toks18 210 210 \NC@list=\toks18
\extratabsurround=\skip51 211 211 \extratabsurround=\skip51
\backup@length=\skip52 212 212 \backup@length=\skip52
\ar@cellbox=\box52 213 213 \ar@cellbox=\box52
) 214 214 )
\TX@col@width=\dimen165 215 215 \TX@col@width=\dimen165
\TX@old@table=\dimen166 216 216 \TX@old@table=\dimen166
\TX@old@col=\dimen167 217 217 \TX@old@col=\dimen167
\TX@target=\dimen168 218 218 \TX@target=\dimen168
\TX@delta=\dimen169 219 219 \TX@delta=\dimen169
\TX@cols=\count273 220 220 \TX@cols=\count273
\TX@ftn=\toks19 221 221 \TX@ftn=\toks19
) 222 222 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/multicol.sty 223 223 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/multicol.sty
Package: multicol 2021/11/30 v1.9d multicolumn formatting (FMi) 224 224 Package: multicol 2021/11/30 v1.9d multicolumn formatting (FMi)
\c@tracingmulticols=\count274 225 225 \c@tracingmulticols=\count274
\mult@box=\box53 226 226 \mult@box=\box53
\multicol@leftmargin=\dimen170 227 227 \multicol@leftmargin=\dimen170
\c@unbalance=\count275 228 228 \c@unbalance=\count275
\c@collectmore=\count276 229 229 \c@collectmore=\count276
\doublecol@number=\count277 230 230 \doublecol@number=\count277
\multicoltolerance=\count278 231 231 \multicoltolerance=\count278
\multicolpretolerance=\count279 232 232 \multicolpretolerance=\count279
\full@width=\dimen171 233 233 \full@width=\dimen171
\page@free=\dimen172 234 234 \page@free=\dimen172
\premulticols=\dimen173 235 235 \premulticols=\dimen173
\postmulticols=\dimen174 236 236 \postmulticols=\dimen174
\multicolsep=\skip53 237 237 \multicolsep=\skip53
\multicolbaselineskip=\skip54 238 238 \multicolbaselineskip=\skip54
\partial@page=\box54 239 239 \partial@page=\box54
\last@line=\box55 240 240 \last@line=\box55
\maxbalancingoverflow=\dimen175 241 241 \maxbalancingoverflow=\dimen175
\mult@rightbox=\box56 242 242 \mult@rightbox=\box56
\mult@grightbox=\box57 243 243 \mult@grightbox=\box57
\mult@firstbox=\box58 244 244 \mult@firstbox=\box58
\mult@gfirstbox=\box59 245 245 \mult@gfirstbox=\box59
\@tempa=\box60 246 246 \@tempa=\box60
\@tempa=\box61 247 247 \@tempa=\box61
\@tempa=\box62 248 248 \@tempa=\box62
\@tempa=\box63 249 249 \@tempa=\box63
\@tempa=\box64 250 250 \@tempa=\box64
\@tempa=\box65 251 251 \@tempa=\box65
\@tempa=\box66 252 252 \@tempa=\box66
\@tempa=\box67 253 253 \@tempa=\box67
\@tempa=\box68 254 254 \@tempa=\box68
\@tempa=\box69 255 255 \@tempa=\box69
\@tempa=\box70 256 256 \@tempa=\box70
\@tempa=\box71 257 257 \@tempa=\box71
\@tempa=\box72 258 258 \@tempa=\box72
\@tempa=\box73 259 259 \@tempa=\box73
\@tempa=\box74 260 260 \@tempa=\box74
\@tempa=\box75 261 261 \@tempa=\box75
\@tempa=\box76 262 262 \@tempa=\box76
\@tempa=\box77 263 263 \@tempa=\box77
\@tempa=\box78 264 264 \@tempa=\box78
\@tempa=\box79 265 265 \@tempa=\box79
\@tempa=\box80 266 266 \@tempa=\box80
\@tempa=\box81 267 267 \@tempa=\box81
\@tempa=\box82 268 268 \@tempa=\box82
\@tempa=\box83 269 269 \@tempa=\box83
\@tempa=\box84 270 270 \@tempa=\box84
\@tempa=\box85 271 271 \@tempa=\box85
\@tempa=\box86 272 272 \@tempa=\box86
\@tempa=\box87 273 273 \@tempa=\box87
\@tempa=\box88 274 274 \@tempa=\box88
\@tempa=\box89 275 275 \@tempa=\box89
\@tempa=\box90 276 276 \@tempa=\box90
\@tempa=\box91 277 277 \@tempa=\box91
\@tempa=\box92 278 278 \@tempa=\box92
\@tempa=\box93 279 279 \@tempa=\box93
\@tempa=\box94 280 280 \@tempa=\box94
\@tempa=\box95 281 281 \@tempa=\box95
\c@minrows=\count280 282 282 \c@minrows=\count280
\c@columnbadness=\count281 283 283 \c@columnbadness=\count281
\c@finalcolumnbadness=\count282 284 284 \c@finalcolumnbadness=\count282
\last@try=\dimen176 285 285 \last@try=\dimen176
\multicolovershoot=\dimen177 286 286 \multicolovershoot=\dimen177
\multicolundershoot=\dimen178 287 287 \multicolundershoot=\dimen178
\mult@nat@firstbox=\box96 288 288 \mult@nat@firstbox=\box96
\colbreak@box=\box97 289 289 \colbreak@box=\box97
\mc@col@check@num=\count283 290 290 \mc@col@check@num=\count283
) 291 291 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/colortbl/colortbl.sty 292 292 (/usr/local/texlive/2023/texmf-dist/tex/latex/colortbl/colortbl.sty
Package: colortbl 2022/06/20 v1.0f Color table columns (DPC) 293 293 Package: colortbl 2022/06/20 v1.0f Color table columns (DPC)
\everycr=\toks20 294 294 \everycr=\toks20
\minrowclearance=\skip55 295 295 \minrowclearance=\skip55
\rownum=\count284 296 296 \rownum=\count284
) 297 297 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/picinpar/picinpar.sty 298 298 (/usr/local/texlive/2023/texmf-dist/tex/latex/picinpar/picinpar.sty
Pictures in Paragraphs. Version 1.3, November 22, 2022 299 299 Pictures in Paragraphs. Version 1.3, November 22, 2022
\br=\count285 300 300 \br=\count285
\bl=\count286 301 301 \bl=\count286
\na=\count287 302 302 \na=\count287
\nb=\count288 303 303 \nb=\count288
\tcdsav=\count289 304 304 \tcdsav=\count289
\tcl=\count290 305 305 \tcl=\count290
\tcd=\count291 306 306 \tcd=\count291
\tcn=\count292 307 307 \tcn=\count292
\cumtcl=\count293 308 308 \cumtcl=\count293
\cumpartcl=\count294 309 309 \cumpartcl=\count294
\lftside=\dimen179 310 310 \lftside=\dimen179
\rtside=\dimen180 311 311 \rtside=\dimen180
\hpic=\dimen181 312 312 \hpic=\dimen181
\vpic=\dimen182 313 313 \vpic=\dimen182
\strutilg=\dimen183 314 314 \strutilg=\dimen183
\picwd=\dimen184 315 315 \picwd=\dimen184
\topheight=\dimen185 316 316 \topheight=\dimen185
\ilg=\dimen186 317 317 \ilg=\dimen186
\lpic=\dimen187 318 318 \lpic=\dimen187
\lwindowsep=\dimen188 319 319 \lwindowsep=\dimen188
\rwindowsep=\dimen189 320 320 \rwindowsep=\dimen189
\cumpar=\dimen190 321 321 \cumpar=\dimen190
\twa=\toks21 322 322 \twa=\toks21
\la=\toks22 323 323 \la=\toks22
\ra=\toks23 324 324 \ra=\toks23
\ha=\toks24 325 325 \ha=\toks24
\pictoc=\toks25 326 326 \pictoc=\toks25
\rawtext=\box98 327 327 \rawtext=\box98
\holder=\box99 328 328 \holder=\box99
\windowbox=\box100 329 329 \windowbox=\box100
\wartext=\box101 330 330 \wartext=\box101
\finaltext=\box102 331 331 \finaltext=\box102
\aslice=\box103 332 332 \aslice=\box103
\bslice=\box104 333 333 \bslice=\box104
\wbox=\box105 334 334 \wbox=\box105
\wstrutbox=\box106 335 335 \wstrutbox=\box106
\picbox=\box107 336 336 \picbox=\box107
\waslice=\box108 337 337 \waslice=\box108
\wbslice=\box109 338 338 \wbslice=\box109
\fslice=\box110 339 339 \fslice=\box110
) (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsmath.sty 340 340 ) (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsmath.sty
Package: amsmath 2022/04/08 v2.17n AMS math features 341 341 Package: amsmath 2022/04/08 v2.17n AMS math features
\@mathmargin=\skip56 342 342 \@mathmargin=\skip56
343 343
For additional information on amsmath, use the `?' option. 344 344 For additional information on amsmath, use the `?' option.
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amstext.sty 345 345 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amstext.sty
Package: amstext 2021/08/26 v2.01 AMS text 346 346 Package: amstext 2021/08/26 v2.01 AMS text
347 347
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsgen.sty 348 348 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsgen.sty
File: amsgen.sty 1999/11/30 v2.0 generic functions 349 349 File: amsgen.sty 1999/11/30 v2.0 generic functions
\@emptytoks=\toks26 350 350 \@emptytoks=\toks26
\ex@=\dimen191 351 351 \ex@=\dimen191
)) 352 352 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsbsy.sty 353 353 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsbsy.sty
Package: amsbsy 1999/11/29 v1.2d Bold Symbols 354 354 Package: amsbsy 1999/11/29 v1.2d Bold Symbols
\pmbraise@=\dimen192 355 355 \pmbraise@=\dimen192
) 356 356 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsopn.sty 357 357 (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsopn.sty
Package: amsopn 2022/04/08 v2.04 operator names 358 358 Package: amsopn 2022/04/08 v2.04 operator names
) 359 359 )
\inf@bad=\count295 360 360 \inf@bad=\count295
LaTeX Info: Redefining \frac on input line 234. 361 361 LaTeX Info: Redefining \frac on input line 234.
\uproot@=\count296 362 362 \uproot@=\count296
\leftroot@=\count297 363 363 \leftroot@=\count297
LaTeX Info: Redefining \overline on input line 399. 364 364 LaTeX Info: Redefining \overline on input line 399.
LaTeX Info: Redefining \colon on input line 410. 365 365 LaTeX Info: Redefining \colon on input line 410.
\classnum@=\count298 366 366 \classnum@=\count298
\DOTSCASE@=\count299 367 367 \DOTSCASE@=\count299
LaTeX Info: Redefining \ldots on input line 496. 368 368 LaTeX Info: Redefining \ldots on input line 496.
LaTeX Info: Redefining \dots on input line 499. 369 369 LaTeX Info: Redefining \dots on input line 499.
LaTeX Info: Redefining \cdots on input line 620. 370 370 LaTeX Info: Redefining \cdots on input line 620.
\Mathstrutbox@=\box111 371 371 \Mathstrutbox@=\box111
\strutbox@=\box112 372 372 \strutbox@=\box112
LaTeX Info: Redefining \big on input line 722. 373 373 LaTeX Info: Redefining \big on input line 722.
LaTeX Info: Redefining \Big on input line 723. 374 374 LaTeX Info: Redefining \Big on input line 723.
LaTeX Info: Redefining \bigg on input line 724. 375 375 LaTeX Info: Redefining \bigg on input line 724.
LaTeX Info: Redefining \Bigg on input line 725. 376 376 LaTeX Info: Redefining \Bigg on input line 725.
\big@size=\dimen193 377 377 \big@size=\dimen193
LaTeX Font Info: Redeclaring font encoding OML on input line 743. 378 378 LaTeX Font Info: Redeclaring font encoding OML on input line 743.
LaTeX Font Info: Redeclaring font encoding OMS on input line 744. 379 379 LaTeX Font Info: Redeclaring font encoding OMS on input line 744.
\macc@depth=\count300 380 380 \macc@depth=\count300
LaTeX Info: Redefining \bmod on input line 905. 381 381 LaTeX Info: Redefining \bmod on input line 905.
LaTeX Info: Redefining \pmod on input line 910. 382 382 LaTeX Info: Redefining \pmod on input line 910.
LaTeX Info: Redefining \smash on input line 940. 383 383 LaTeX Info: Redefining \smash on input line 940.
LaTeX Info: Redefining \relbar on input line 970. 384 384 LaTeX Info: Redefining \relbar on input line 970.
LaTeX Info: Redefining \Relbar on input line 971. 385 385 LaTeX Info: Redefining \Relbar on input line 971.
\c@MaxMatrixCols=\count301 386 386 \c@MaxMatrixCols=\count301
\dotsspace@=\muskip16 387 387 \dotsspace@=\muskip16
\c@parentequation=\count302 388 388 \c@parentequation=\count302
\dspbrk@lvl=\count303 389 389 \dspbrk@lvl=\count303
\tag@help=\toks27 390 390 \tag@help=\toks27
\row@=\count304 391 391 \row@=\count304
\column@=\count305 392 392 \column@=\count305
\maxfields@=\count306 393 393 \maxfields@=\count306
\andhelp@=\toks28 394 394 \andhelp@=\toks28
\eqnshift@=\dimen194 395 395 \eqnshift@=\dimen194
\alignsep@=\dimen195 396 396 \alignsep@=\dimen195
\tagshift@=\dimen196 397 397 \tagshift@=\dimen196
\tagwidth@=\dimen197 398 398 \tagwidth@=\dimen197
\totwidth@=\dimen198 399 399 \totwidth@=\dimen198
\lineht@=\dimen199 400 400 \lineht@=\dimen199
\@envbody=\toks29 401 401 \@envbody=\toks29
\multlinegap=\skip57 402 402 \multlinegap=\skip57
\multlinetaggap=\skip58 403 403 \multlinetaggap=\skip58
\mathdisplay@stack=\toks30 404 404 \mathdisplay@stack=\toks30
LaTeX Info: Redefining \[ on input line 2953. 405 405 LaTeX Info: Redefining \[ on input line 2953.
LaTeX Info: Redefining \] on input line 2954. 406 406 LaTeX Info: Redefining \] on input line 2954.
) 407 407 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/amscls/amsthm.sty 408 408 (/usr/local/texlive/2023/texmf-dist/tex/latex/amscls/amsthm.sty
Package: amsthm 2020/05/29 v2.20.6 409 409 Package: amsthm 2020/05/29 v2.20.6
\thm@style=\toks31 410 410 \thm@style=\toks31
\thm@bodyfont=\toks32 411 411 \thm@bodyfont=\toks32
\thm@headfont=\toks33 412 412 \thm@headfont=\toks33
\thm@notefont=\toks34 413 413 \thm@notefont=\toks34
\thm@headpunct=\toks35 414 414 \thm@headpunct=\toks35
\thm@preskip=\skip59 415 415 \thm@preskip=\skip59
\thm@postskip=\skip60 416 416 \thm@postskip=\skip60
\thm@headsep=\skip61 417 417 \thm@headsep=\skip61
\dth@everypar=\toks36 418 418 \dth@everypar=\toks36
) 419 419 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thmtools.sty 420 420 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thmtools.sty
Package: thmtools 2023/05/04 v0.76 421 421 Package: thmtools 2023/05/04 v0.76
\thmt@toks=\toks37 422 422 \thmt@toks=\toks37
\c@thmt@dummyctr=\count307 423 423 \c@thmt@dummyctr=\count307
424 424
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-patch.sty 425 425 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-patch.sty
Package: thm-patch 2023/05/04 v0.76 426 426 Package: thm-patch 2023/05/04 v0.76
427 427
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/parseargs.sty 428 428 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/parseargs.sty
Package: parseargs 2023/05/04 v0.76 429 429 Package: parseargs 2023/05/04 v0.76
\@parsespec=\toks38 430 430 \@parsespec=\toks38
)) 431 431 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-kv.sty 432 432 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-kv.sty
Package: thm-kv 2023/05/04 v0.76 433 433 Package: thm-kv 2023/05/04 v0.76
Package thm-kv Info: Theorem names will be uppercased on input line 42. 434 434 Package thm-kv Info: Theorem names will be uppercased on input line 42.
435 435
(/usr/local/texlive/2023/texmf-dist/tex/latex/kvsetkeys/kvsetkeys.sty 436 436 (/usr/local/texlive/2023/texmf-dist/tex/latex/kvsetkeys/kvsetkeys.sty
Package: kvsetkeys 2022-10-05 v1.19 Key value parser (HO) 437 437 Package: kvsetkeys 2022-10-05 v1.19 Key value parser (HO)
) 438 438 )
Package thm-kv Info: kvsetkeys patch (v1.16 or later) on input line 158. 439 439 Package thm-kv Info: kvsetkeys patch (v1.16 or later) on input line 158.
) 440 440 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-autoref.sty 441 441 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-autoref.sty
Package: thm-autoref 2023/05/04 v0.76 442 442 Package: thm-autoref 2023/05/04 v0.76
443 443
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/aliasctr.sty 444 444 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/aliasctr.sty
Package: aliasctr 2023/05/04 v0.76 445 445 Package: aliasctr 2023/05/04 v0.76
)) 446 446 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-listof.sty 447 447 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-listof.sty
Package: thm-listof 2023/05/04 v0.76 448 448 Package: thm-listof 2023/05/04 v0.76
) 449 449 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-restate.sty 450 450 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-restate.sty
Package: thm-restate 2023/05/04 v0.76 451 451 Package: thm-restate 2023/05/04 v0.76
) 452 452 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-amsthm.sty 453 453 (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-amsthm.sty
Package: thm-amsthm 2023/05/04 v0.76 454 454 Package: thm-amsthm 2023/05/04 v0.76
\thmt@style@headstyle=\toks39 455 455 \thmt@style@headstyle=\toks39
)) 456 456 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/pifont.sty 457 457 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/pifont.sty
Package: pifont 2020/03/25 PSNFSS-v9.3 Pi font support (SPQR) 458 458 Package: pifont 2020/03/25 PSNFSS-v9.3 Pi font support (SPQR)
LaTeX Font Info: Trying to load font information for U+pzd on input line 63. 459 459 LaTeX Font Info: Trying to load font information for U+pzd on input line 63.
460 460
461 461
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upzd.fd 462 462 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upzd.fd
File: upzd.fd 2001/06/04 font definitions for U/pzd. 463 463 File: upzd.fd 2001/06/04 font definitions for U/pzd.
) 464 464 )
LaTeX Font Info: Trying to load font information for U+psy on input line 64. 465 465 LaTeX Font Info: Trying to load font information for U+psy on input line 64.
466 466
467 467
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upsy.fd 468 468 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upsy.fd
File: upsy.fd 2001/06/04 font definitions for U/psy. 469 469 File: upsy.fd 2001/06/04 font definitions for U/psy.
)) 470 470 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/setspace/setspace.sty 471 471 (/usr/local/texlive/2023/texmf-dist/tex/latex/setspace/setspace.sty
Package: setspace 2022/12/04 v6.7b set line spacing 472 472 Package: setspace 2022/12/04 v6.7b set line spacing
) 473 473 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/varioref.sty 474 474 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/varioref.sty
Package: varioref 2022/01/09 v1.6f package for extended references (FMi) 475 475 Package: varioref 2022/01/09 v1.6f package for extended references (FMi)
\c@vrcnt=\count308 476 476 \c@vrcnt=\count308
) 477 477 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/txfonts.sty 478 478 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/txfonts.sty
Package: txfonts 2008/01/22 v3.2.1 479 479 Package: txfonts 2008/01/22 v3.2.1
LaTeX Font Info: Redeclaring symbol font `operators' on input line 21. 480 480 LaTeX Font Info: Redeclaring symbol font `operators' on input line 21.
LaTeX Font Info: Overwriting symbol font `operators' in version `normal' 481 481 LaTeX Font Info: Overwriting symbol font `operators' in version `normal'
(Font) OT1/cmr/m/n --> OT1/txr/m/n on input line 21. 482 482 (Font) OT1/cmr/m/n --> OT1/txr/m/n on input line 21.
LaTeX Font Info: Overwriting symbol font `operators' in version `bold' 483 483 LaTeX Font Info: Overwriting symbol font `operators' in version `bold'
(Font) OT1/cmr/bx/n --> OT1/txr/m/n on input line 21. 484 484 (Font) OT1/cmr/bx/n --> OT1/txr/m/n on input line 21.
LaTeX Font Info: Overwriting symbol font `operators' in version `bold' 485 485 LaTeX Font Info: Overwriting symbol font `operators' in version `bold'
(Font) OT1/txr/m/n --> OT1/txr/bx/n on input line 22. 486 486 (Font) OT1/txr/m/n --> OT1/txr/bx/n on input line 22.
\symitalic=\mathgroup4 487 487 \symitalic=\mathgroup4
LaTeX Font Info: Overwriting symbol font `italic' in version `bold' 488 488 LaTeX Font Info: Overwriting symbol font `italic' in version `bold'
(Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 26. 489 489 (Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 26.
LaTeX Font Info: Redeclaring math alphabet \mathbf on input line 29. 490 490 LaTeX Font Info: Redeclaring math alphabet \mathbf on input line 29.
LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `normal' 491 491 LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `normal'
(Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. 492 492 (Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29.
LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `bold' 493 493 LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `bold'
(Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. 494 494 (Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29.
LaTeX Font Info: Redeclaring math alphabet \mathit on input line 30. 495 495 LaTeX Font Info: Redeclaring math alphabet \mathit on input line 30.
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `normal' 496 496 LaTeX Font Info: Overwriting math alphabet `\mathit' in version `normal'
(Font) OT1/cmr/m/it --> OT1/txr/m/it on input line 30. 497 497 (Font) OT1/cmr/m/it --> OT1/txr/m/it on input line 30.
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' 498 498 LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold'
(Font) OT1/cmr/bx/it --> OT1/txr/m/it on input line 30. 499 499 (Font) OT1/cmr/bx/it --> OT1/txr/m/it on input line 30.
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' 500 500 LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold'
(Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 31. 501 501 (Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 31.
LaTeX Font Info: Redeclaring math alphabet \mathsf on input line 40. 502 502 LaTeX Font Info: Redeclaring math alphabet \mathsf on input line 40.
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `normal' 503 503 LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `normal'
(Font) OT1/cmss/m/n --> OT1/txss/m/n on input line 40. 504 504 (Font) OT1/cmss/m/n --> OT1/txss/m/n on input line 40.
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' 505 505 LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold'
(Font) OT1/cmss/bx/n --> OT1/txss/m/n on input line 40. 506 506 (Font) OT1/cmss/bx/n --> OT1/txss/m/n on input line 40.
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' 507 507 LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold'
(Font) OT1/txss/m/n --> OT1/txss/b/n on input line 41. 508 508 (Font) OT1/txss/m/n --> OT1/txss/b/n on input line 41.
LaTeX Font Info: Redeclaring math alphabet \mathtt on input line 50. 509 509 LaTeX Font Info: Redeclaring math alphabet \mathtt on input line 50.
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `normal' 510 510 LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `normal'
(Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. 511 511 (Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50.
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' 512 512 LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold'
(Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. 513 513 (Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50.
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' 514 514 LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold'
(Font) OT1/txtt/m/n --> OT1/txtt/b/n on input line 51. 515 515 (Font) OT1/txtt/m/n --> OT1/txtt/b/n on input line 51.
LaTeX Font Info: Redeclaring symbol font `letters' on input line 58. 516 516 LaTeX Font Info: Redeclaring symbol font `letters' on input line 58.
LaTeX Font Info: Overwriting symbol font `letters' in version `normal' 517 517 LaTeX Font Info: Overwriting symbol font `letters' in version `normal'
(Font) OML/cmm/m/it --> OML/txmi/m/it on input line 58. 518 518 (Font) OML/cmm/m/it --> OML/txmi/m/it on input line 58.
LaTeX Font Info: Overwriting symbol font `letters' in version `bold' 519 519 LaTeX Font Info: Overwriting symbol font `letters' in version `bold'
(Font) OML/cmm/b/it --> OML/txmi/m/it on input line 58. 520 520 (Font) OML/cmm/b/it --> OML/txmi/m/it on input line 58.
LaTeX Font Info: Overwriting symbol font `letters' in version `bold' 521 521 LaTeX Font Info: Overwriting symbol font `letters' in version `bold'
(Font) OML/txmi/m/it --> OML/txmi/bx/it on input line 59. 522 522 (Font) OML/txmi/m/it --> OML/txmi/bx/it on input line 59.
\symlettersA=\mathgroup5 523 523 \symlettersA=\mathgroup5
LaTeX Font Info: Overwriting symbol font `lettersA' in version `bold' 524 524 LaTeX Font Info: Overwriting symbol font `lettersA' in version `bold'
(Font) U/txmia/m/it --> U/txmia/bx/it on input line 67. 525 525 (Font) U/txmia/m/it --> U/txmia/bx/it on input line 67.
LaTeX Font Info: Redeclaring symbol font `symbols' on input line 77. 526 526 LaTeX Font Info: Redeclaring symbol font `symbols' on input line 77.
LaTeX Font Info: Overwriting symbol font `symbols' in version `normal' 527 527 LaTeX Font Info: Overwriting symbol font `symbols' in version `normal'
(Font) OMS/cmsy/m/n --> OMS/txsy/m/n on input line 77. 528 528 (Font) OMS/cmsy/m/n --> OMS/txsy/m/n on input line 77.
LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' 529 529 LaTeX Font Info: Overwriting symbol font `symbols' in version `bold'
(Font) OMS/cmsy/b/n --> OMS/txsy/m/n on input line 77. 530 530 (Font) OMS/cmsy/b/n --> OMS/txsy/m/n on input line 77.
LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' 531 531 LaTeX Font Info: Overwriting symbol font `symbols' in version `bold'
(Font) OMS/txsy/m/n --> OMS/txsy/bx/n on input line 78. 532 532 (Font) OMS/txsy/m/n --> OMS/txsy/bx/n on input line 78.
\symAMSa=\mathgroup6 533 533 \symAMSa=\mathgroup6
LaTeX Font Info: Overwriting symbol font `AMSa' in version `bold' 534 534 LaTeX Font Info: Overwriting symbol font `AMSa' in version `bold'
(Font) U/txsya/m/n --> U/txsya/bx/n on input line 94. 535 535 (Font) U/txsya/m/n --> U/txsya/bx/n on input line 94.
\symAMSb=\mathgroup7 536 536 \symAMSb=\mathgroup7
LaTeX Font Info: Overwriting symbol font `AMSb' in version `bold' 537 537 LaTeX Font Info: Overwriting symbol font `AMSb' in version `bold'
(Font) U/txsyb/m/n --> U/txsyb/bx/n on input line 103. 538 538 (Font) U/txsyb/m/n --> U/txsyb/bx/n on input line 103.
\symsymbolsC=\mathgroup8 539 539 \symsymbolsC=\mathgroup8
LaTeX Font Info: Overwriting symbol font `symbolsC' in version `bold' 540 540 LaTeX Font Info: Overwriting symbol font `symbolsC' in version `bold'
(Font) U/txsyc/m/n --> U/txsyc/bx/n on input line 113. 541 541 (Font) U/txsyc/m/n --> U/txsyc/bx/n on input line 113.
LaTeX Font Info: Redeclaring symbol font `largesymbols' on input line 120. 542 542 LaTeX Font Info: Redeclaring symbol font `largesymbols' on input line 120.
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `normal' 543 543 LaTeX Font Info: Overwriting symbol font `largesymbols' in version `normal'
(Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. 544 544 (Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120.
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' 545 545 LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold'
(Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. 546 546 (Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120.
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' 547 547 LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold'
(Font) OMX/txex/m/n --> OMX/txex/bx/n on input line 121. 548 548 (Font) OMX/txex/m/n --> OMX/txex/bx/n on input line 121.
\symlargesymbolsA=\mathgroup9 549 549 \symlargesymbolsA=\mathgroup9
LaTeX Font Info: Overwriting symbol font `largesymbolsA' in version `bold' 550 550 LaTeX Font Info: Overwriting symbol font `largesymbolsA' in version `bold'
(Font) U/txexa/m/n --> U/txexa/bx/n on input line 129. 551 551 (Font) U/txexa/m/n --> U/txexa/bx/n on input line 129.
LaTeX Font Info: Redeclaring math symbol \mathsterling on input line 164. 552 552 LaTeX Font Info: Redeclaring math symbol \mathsterling on input line 164.
LaTeX Font Info: Redeclaring math symbol \hbar on input line 591. 553 553 LaTeX Font Info: Redeclaring math symbol \hbar on input line 591.
LaTeX Info: Redefining \not on input line 1043. 554 554 LaTeX Info: Redefining \not on input line 1043.
LaTeX Info: Redefining \textsquare on input line 1063. 555 555 LaTeX Info: Redefining \textsquare on input line 1063.
LaTeX Info: Redefining \openbox on input line 1064. 556 556 LaTeX Info: Redefining \openbox on input line 1064.
) 557 557 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/relsize/relsize.sty 558 558 (/usr/local/texlive/2023/texmf-dist/tex/latex/relsize/relsize.sty
Package: relsize 2013/03/29 ver 4.1 559 559 Package: relsize 2013/03/29 ver 4.1
) 560 560 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/xkeyval/xkeyval.sty 561 561 (/usr/local/texlive/2023/texmf-dist/tex/latex/xkeyval/xkeyval.sty
Package: xkeyval 2022/06/16 v2.9 package option processing (HA) 562 562 Package: xkeyval 2022/06/16 v2.9 package option processing (HA)
563 563
(/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkeyval.tex 564 564 (/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkeyval.tex
(/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkvutils.tex 565 565 (/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkvutils.tex
\XKV@toks=\toks40 566 566 \XKV@toks=\toks40
\XKV@tempa@toks=\toks41 567 567 \XKV@tempa@toks=\toks41
) 568 568 )
\XKV@depth=\count309 569 569 \XKV@depth=\count309
File: xkeyval.tex 2014/12/03 v2.7a key=value parser (HA) 570 570 File: xkeyval.tex 2014/12/03 v2.7a key=value parser (HA)
)) 571 571 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyphenat/hyphenat.sty 572 572 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyphenat/hyphenat.sty
Package: hyphenat 2009/09/02 v2.3c hyphenation utilities 573 573 Package: hyphenat 2009/09/02 v2.3c hyphenation utilities
\langwohyphens=\language88 574 574 \langwohyphens=\language88
LaTeX Info: Redefining \_ on input line 43. 575 575 LaTeX Info: Redefining \_ on input line 43.
) 576 576 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/bbm-macros/bbm.sty 577 577 (/usr/local/texlive/2023/texmf-dist/tex/latex/bbm-macros/bbm.sty
Package: bbm 1999/03/15 V 1.2 provides fonts for set symbols - TH 578 578 Package: bbm 1999/03/15 V 1.2 provides fonts for set symbols - TH
LaTeX Font Info: Overwriting math alphabet `\mathbbm' in version `bold' 579 579 LaTeX Font Info: Overwriting math alphabet `\mathbbm' in version `bold'
(Font) U/bbm/m/n --> U/bbm/bx/n on input line 33. 580 580 (Font) U/bbm/m/n --> U/bbm/bx/n on input line 33.
LaTeX Font Info: Overwriting math alphabet `\mathbbmss' in version `bold' 581 581 LaTeX Font Info: Overwriting math alphabet `\mathbbmss' in version `bold'
(Font) U/bbmss/m/n --> U/bbmss/bx/n on input line 35. 582 582 (Font) U/bbmss/m/n --> U/bbmss/bx/n on input line 35.
) 583 583 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/environ/environ.sty 584 584 (/usr/local/texlive/2023/texmf-dist/tex/latex/environ/environ.sty
Package: environ 2014/05/04 v0.3 A new way to define environments 585 585 Package: environ 2014/05/04 v0.3 A new way to define environments
586 586
(/usr/local/texlive/2023/texmf-dist/tex/latex/trimspaces/trimspaces.sty 587 587 (/usr/local/texlive/2023/texmf-dist/tex/latex/trimspaces/trimspaces.sty
Package: trimspaces 2009/09/17 v1.1 Trim spaces around a token list 588 588 Package: trimspaces 2009/09/17 v1.1 Trim spaces around a token list
)) 589 589 ))
\c@upm@subfigure@count=\count310 590 590 \c@upm@subfigure@count=\count310
\c@upm@fmt@mtabular@columnnumber=\count311 591 591 \c@upm@fmt@mtabular@columnnumber=\count311
\c@upm@format@section@sectionlevel=\count312 592 592 \c@upm@format@section@sectionlevel=\count312
\c@upm@fmt@savedcounter=\count313 593 593 \c@upm@fmt@savedcounter=\count313
\c@@@upm@fmt@inlineenumeration=\count314 594 594 \c@@@upm@fmt@inlineenumeration=\count314
\c@@upm@fmt@enumdescription@cnt@=\count315 595 595 \c@@upm@fmt@enumdescription@cnt@=\count315
\upm@framed@minipage=\box113 596 596 \upm@framed@minipage=\box113
\upm@highlight@box@save=\box114 597 597 \upm@highlight@box@save=\box114
\c@upmdefinition=\count316 598 598 \c@upmdefinition=\count316
) 599 599 )
(./upmethodology-version.sty 600 600 (./upmethodology-version.sty
Package: upmethodology-version 2013/08/26 601 601 Package: upmethodology-version 2013/08/26
602 602
**** upmethodology-version is using French language **** 603 603 **** upmethodology-version is using French language ****
\upm@tmp@a=\count317 604 604 \upm@tmp@a=\count317
) 605 605 )
\listendskip=\skip62 606 606 \listendskip=\skip62
) 607 607 )
(./upmethodology-frontpage.sty 608 608 (./upmethodology-frontpage.sty
Package: upmethodology-frontpage 2015/06/26 609 609 Package: upmethodology-frontpage 2015/06/26
610 610
**** upmethodology-frontpage is using French language **** 611 611 **** upmethodology-frontpage is using French language ****
\upm@front@tmpa=\dimen256 612 612 \upm@front@tmpa=\dimen256
\upm@front@tmpb=\dimen257 613 613 \upm@front@tmpb=\dimen257
614 614
*** define extension value frontillustrationsize ****) 615 615 *** define extension value frontillustrationsize ****)
(./upmethodology-backpage.sty 616 616 (./upmethodology-backpage.sty
Package: upmethodology-backpage 2013/12/14 617 617 Package: upmethodology-backpage 2013/12/14
618 618
**** upmethodology-backpage is using French language ****) 619 619 **** upmethodology-backpage is using French language ****)
(/usr/local/texlive/2023/texmf-dist/tex/latex/url/url.sty 620 620 (/usr/local/texlive/2023/texmf-dist/tex/latex/url/url.sty
\Urlmuskip=\muskip17 621 621 \Urlmuskip=\muskip17
Package: url 2013/09/16 ver 3.4 Verb mode for urls, etc. 622 622 Package: url 2013/09/16 ver 3.4 Verb mode for urls, etc.
) 623 623 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hyperref.sty 624 624 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hyperref.sty
Package: hyperref 2023-05-16 v7.00y Hypertext links for LaTeX 625 625 Package: hyperref 2023-05-16 v7.00y Hypertext links for LaTeX
626 626
(/usr/local/texlive/2023/texmf-dist/tex/generic/ltxcmds/ltxcmds.sty 627 627 (/usr/local/texlive/2023/texmf-dist/tex/generic/ltxcmds/ltxcmds.sty
Package: ltxcmds 2020-05-10 v1.25 LaTeX kernel commands for general use (HO) 628 628 Package: ltxcmds 2020-05-10 v1.25 LaTeX kernel commands for general use (HO)
) 629 629 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/pdftexcmds/pdftexcmds.sty 630 630 (/usr/local/texlive/2023/texmf-dist/tex/generic/pdftexcmds/pdftexcmds.sty
Package: pdftexcmds 2020-06-27 v0.33 Utility functions of pdfTeX for LuaTeX (HO 631 631 Package: pdftexcmds 2020-06-27 v0.33 Utility functions of pdfTeX for LuaTeX (HO
) 632 632 )
633 633
(/usr/local/texlive/2023/texmf-dist/tex/generic/infwarerr/infwarerr.sty 634 634 (/usr/local/texlive/2023/texmf-dist/tex/generic/infwarerr/infwarerr.sty
Package: infwarerr 2019/12/03 v1.5 Providing info/warning/error messages (HO) 635 635 Package: infwarerr 2019/12/03 v1.5 Providing info/warning/error messages (HO)
) 636 636 )
Package pdftexcmds Info: \pdf@primitive is available. 637 637 Package pdftexcmds Info: \pdf@primitive is available.
Package pdftexcmds Info: \pdf@ifprimitive is available. 638 638 Package pdftexcmds Info: \pdf@ifprimitive is available.
Package pdftexcmds Info: \pdfdraftmode found. 639 639 Package pdftexcmds Info: \pdfdraftmode found.
) 640 640 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/kvdefinekeys/kvdefinekeys.sty 641 641 (/usr/local/texlive/2023/texmf-dist/tex/generic/kvdefinekeys/kvdefinekeys.sty
Package: kvdefinekeys 2019-12-19 v1.6 Define keys (HO) 642 642 Package: kvdefinekeys 2019-12-19 v1.6 Define keys (HO)
) 643 643 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/pdfescape/pdfescape.sty 644 644 (/usr/local/texlive/2023/texmf-dist/tex/generic/pdfescape/pdfescape.sty
Package: pdfescape 2019/12/09 v1.15 Implements pdfTeX's escape features (HO) 645 645 Package: pdfescape 2019/12/09 v1.15 Implements pdfTeX's escape features (HO)
) 646 646 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/hycolor/hycolor.sty 647 647 (/usr/local/texlive/2023/texmf-dist/tex/latex/hycolor/hycolor.sty
Package: hycolor 2020-01-27 v1.10 Color options for hyperref/bookmark (HO) 648 648 Package: hycolor 2020-01-27 v1.10 Color options for hyperref/bookmark (HO)
) 649 649 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/letltxmacro/letltxmacro.sty 650 650 (/usr/local/texlive/2023/texmf-dist/tex/latex/letltxmacro/letltxmacro.sty
Package: letltxmacro 2019/12/03 v1.6 Let assignment for LaTeX macros (HO) 651 651 Package: letltxmacro 2019/12/03 v1.6 Let assignment for LaTeX macros (HO)
) 652 652 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/auxhook/auxhook.sty 653 653 (/usr/local/texlive/2023/texmf-dist/tex/latex/auxhook/auxhook.sty
Package: auxhook 2019-12-17 v1.6 Hooks for auxiliary files (HO) 654 654 Package: auxhook 2019-12-17 v1.6 Hooks for auxiliary files (HO)
) 655 655 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/nameref.sty 656 656 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/nameref.sty
Package: nameref 2023-05-16 v2.51 Cross-referencing by name of section 657 657 Package: nameref 2023-05-16 v2.51 Cross-referencing by name of section
658 658
(/usr/local/texlive/2023/texmf-dist/tex/latex/refcount/refcount.sty 659 659 (/usr/local/texlive/2023/texmf-dist/tex/latex/refcount/refcount.sty
Package: refcount 2019/12/15 v3.6 Data extraction from label references (HO) 660 660 Package: refcount 2019/12/15 v3.6 Data extraction from label references (HO)
) 661 661 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/gettitlestring/gettitlestring.s 662 662 (/usr/local/texlive/2023/texmf-dist/tex/generic/gettitlestring/gettitlestring.s
ty 663 663 ty
Package: gettitlestring 2019/12/15 v1.6 Cleanup title references (HO) 664 664 Package: gettitlestring 2019/12/15 v1.6 Cleanup title references (HO)
(/usr/local/texlive/2023/texmf-dist/tex/latex/kvoptions/kvoptions.sty 665 665 (/usr/local/texlive/2023/texmf-dist/tex/latex/kvoptions/kvoptions.sty
Package: kvoptions 2022-06-15 v3.15 Key value format for package options (HO) 666 666 Package: kvoptions 2022-06-15 v3.15 Key value format for package options (HO)
)) 667 667 ))
\c@section@level=\count318 668 668 \c@section@level=\count318
) 669 669 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/etoolbox/etoolbox.sty 670 670 (/usr/local/texlive/2023/texmf-dist/tex/latex/etoolbox/etoolbox.sty
Package: etoolbox 2020/10/05 v2.5k e-TeX tools for LaTeX (JAW) 671 671 Package: etoolbox 2020/10/05 v2.5k e-TeX tools for LaTeX (JAW)
\etb@tempcnta=\count319 672 672 \etb@tempcnta=\count319
) 673 673 )
\@linkdim=\dimen258 674 674 \@linkdim=\dimen258
\Hy@linkcounter=\count320 675 675 \Hy@linkcounter=\count320
\Hy@pagecounter=\count321 676 676 \Hy@pagecounter=\count321
677 677
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/pd1enc.def 678 678 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/pd1enc.def
File: pd1enc.def 2023-05-16 v7.00y Hyperref: PDFDocEncoding definition (HO) 679 679 File: pd1enc.def 2023-05-16 v7.00y Hyperref: PDFDocEncoding definition (HO)
Now handling font encoding PD1 ... 680 680 Now handling font encoding PD1 ...
... no UTF-8 mapping file for font encoding PD1 681 681 ... no UTF-8 mapping file for font encoding PD1
) 682 682 )
(/usr/local/texlive/2023/texmf-dist/tex/generic/intcalc/intcalc.sty 683 683 (/usr/local/texlive/2023/texmf-dist/tex/generic/intcalc/intcalc.sty
Package: intcalc 2019/12/15 v1.3 Expandable calculations with integers (HO) 684 684 Package: intcalc 2019/12/15 v1.3 Expandable calculations with integers (HO)
) 685 685 )
\Hy@SavedSpaceFactor=\count322 686 686 \Hy@SavedSpaceFactor=\count322
687 687
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/puenc.def 688 688 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/puenc.def
File: puenc.def 2023-05-16 v7.00y Hyperref: PDF Unicode definition (HO) 689 689 File: puenc.def 2023-05-16 v7.00y Hyperref: PDF Unicode definition (HO)
Now handling font encoding PU ... 690 690 Now handling font encoding PU ...
... no UTF-8 mapping file for font encoding PU 691 691 ... no UTF-8 mapping file for font encoding PU
) 692 692 )
Package hyperref Info: Option `breaklinks' set `true' on input line 4050. 693 693 Package hyperref Info: Option `breaklinks' set `true' on input line 4050.
Package hyperref Info: Option `pageanchor' set `true' on input line 4050. 694 694 Package hyperref Info: Option `pageanchor' set `true' on input line 4050.
Package hyperref Info: Option `bookmarks' set `false' on input line 4050. 695 695 Package hyperref Info: Option `bookmarks' set `false' on input line 4050.
Package hyperref Info: Option `hyperfigures' set `true' on input line 4050. 696 696 Package hyperref Info: Option `hyperfigures' set `true' on input line 4050.
Package hyperref Info: Option `hyperindex' set `true' on input line 4050. 697 697 Package hyperref Info: Option `hyperindex' set `true' on input line 4050.
Package hyperref Info: Option `linktocpage' set `true' on input line 4050. 698 698 Package hyperref Info: Option `linktocpage' set `true' on input line 4050.
Package hyperref Info: Option `bookmarks' set `true' on input line 4050. 699 699 Package hyperref Info: Option `bookmarks' set `true' on input line 4050.
Package hyperref Info: Option `bookmarksopen' set `true' on input line 4050. 700 700 Package hyperref Info: Option `bookmarksopen' set `true' on input line 4050.
Package hyperref Info: Option `bookmarksnumbered' set `true' on input line 4050 701 701 Package hyperref Info: Option `bookmarksnumbered' set `true' on input line 4050
. 702 702 .
Package hyperref Info: Option `colorlinks' set `false' on input line 4050. 703 703 Package hyperref Info: Option `colorlinks' set `false' on input line 4050.
Package hyperref Info: Hyper figures ON on input line 4165. 704 704 Package hyperref Info: Hyper figures ON on input line 4165.
Package hyperref Info: Link nesting OFF on input line 4172. 705 705 Package hyperref Info: Link nesting OFF on input line 4172.
Package hyperref Info: Hyper index ON on input line 4175. 706 706 Package hyperref Info: Hyper index ON on input line 4175.
Package hyperref Info: Plain pages OFF on input line 4182. 707 707 Package hyperref Info: Plain pages OFF on input line 4182.
Package hyperref Info: Backreferencing OFF on input line 4187. 708 708 Package hyperref Info: Backreferencing OFF on input line 4187.
Package hyperref Info: Implicit mode ON; LaTeX internals redefined. 709 709 Package hyperref Info: Implicit mode ON; LaTeX internals redefined.
Package hyperref Info: Bookmarks ON on input line 4434. 710 710 Package hyperref Info: Bookmarks ON on input line 4434.
LaTeX Info: Redefining \href on input line 4683. 711 711 LaTeX Info: Redefining \href on input line 4683.
\c@Hy@tempcnt=\count323 712 712 \c@Hy@tempcnt=\count323
LaTeX Info: Redefining \url on input line 4772. 713 713 LaTeX Info: Redefining \url on input line 4772.
\XeTeXLinkMargin=\dimen259 714 714 \XeTeXLinkMargin=\dimen259
715 715
(/usr/local/texlive/2023/texmf-dist/tex/generic/bitset/bitset.sty 716 716 (/usr/local/texlive/2023/texmf-dist/tex/generic/bitset/bitset.sty
Package: bitset 2019/12/09 v1.3 Handle bit-vector datatype (HO) 717 717 Package: bitset 2019/12/09 v1.3 Handle bit-vector datatype (HO)
718 718
(/usr/local/texlive/2023/texmf-dist/tex/generic/bigintcalc/bigintcalc.sty 719 719 (/usr/local/texlive/2023/texmf-dist/tex/generic/bigintcalc/bigintcalc.sty
Package: bigintcalc 2019/12/15 v1.5 Expandable calculations on big integers (HO 720 720 Package: bigintcalc 2019/12/15 v1.5 Expandable calculations on big integers (HO
) 721 721 )
)) 722 722 ))
\Fld@menulength=\count324 723 723 \Fld@menulength=\count324
\Field@Width=\dimen260 724 724 \Field@Width=\dimen260
\Fld@charsize=\dimen261 725 725 \Fld@charsize=\dimen261
Package hyperref Info: Hyper figures ON on input line 6049. 726 726 Package hyperref Info: Hyper figures ON on input line 6049.
Package hyperref Info: Link nesting OFF on input line 6056. 727 727 Package hyperref Info: Link nesting OFF on input line 6056.
Package hyperref Info: Hyper index ON on input line 6059. 728 728 Package hyperref Info: Hyper index ON on input line 6059.
Package hyperref Info: backreferencing OFF on input line 6066. 729 729 Package hyperref Info: backreferencing OFF on input line 6066.
Package hyperref Info: Link coloring OFF on input line 6071. 730 730 Package hyperref Info: Link coloring OFF on input line 6071.
Package hyperref Info: Link coloring with OCG OFF on input line 6076. 731 731 Package hyperref Info: Link coloring with OCG OFF on input line 6076.
Package hyperref Info: PDF/A mode OFF on input line 6081. 732 732 Package hyperref Info: PDF/A mode OFF on input line 6081.
733 733
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/atbegshi-ltx.sty 734 734 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/atbegshi-ltx.sty
Package: atbegshi-ltx 2021/01/10 v1.0c Emulation of the original atbegshi 735 735 Package: atbegshi-ltx 2021/01/10 v1.0c Emulation of the original atbegshi
package with kernel methods 736 736 package with kernel methods
) 737 737 )
\Hy@abspage=\count325 738 738 \Hy@abspage=\count325
\c@Item=\count326 739 739 \c@Item=\count326
\c@Hfootnote=\count327 740 740 \c@Hfootnote=\count327
) 741 741 )
Package hyperref Info: Driver: hpdftex. 742 742 Package hyperref Info: Driver: hpdftex.
743 743
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hpdftex.def 744 744 (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hpdftex.def
File: hpdftex.def 2023-05-16 v7.00y Hyperref driver for pdfTeX 745 745 File: hpdftex.def 2023-05-16 v7.00y Hyperref driver for pdfTeX
746 746
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/atveryend-ltx.sty 747 747 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/atveryend-ltx.sty
Package: atveryend-ltx 2020/08/19 v1.0a Emulation of the original atveryend pac 748 748 Package: atveryend-ltx 2020/08/19 v1.0a Emulation of the original atveryend pac
kage 749 749 kage
with kernel methods 750 750 with kernel methods
) 751 751 )
\Fld@listcount=\count328 752 752 \Fld@listcount=\count328
\c@bookmark@seq@number=\count329 753 753 \c@bookmark@seq@number=\count329
754 754
(/usr/local/texlive/2023/texmf-dist/tex/latex/rerunfilecheck/rerunfilecheck.sty 755 755 (/usr/local/texlive/2023/texmf-dist/tex/latex/rerunfilecheck/rerunfilecheck.sty
Package: rerunfilecheck 2022-07-10 v1.10 Rerun checks for auxiliary files (HO) 756 756 Package: rerunfilecheck 2022-07-10 v1.10 Rerun checks for auxiliary files (HO)
757 757
(/usr/local/texlive/2023/texmf-dist/tex/generic/uniquecounter/uniquecounter.sty 758 758 (/usr/local/texlive/2023/texmf-dist/tex/generic/uniquecounter/uniquecounter.sty
Package: uniquecounter 2019/12/15 v1.4 Provide unlimited unique counter (HO) 759 759 Package: uniquecounter 2019/12/15 v1.4 Provide unlimited unique counter (HO)
) 760 760 )
Package uniquecounter Info: New unique counter `rerunfilecheck' on input line 2 761 761 Package uniquecounter Info: New unique counter `rerunfilecheck' on input line 2
85. 762 762 85.
) 763 763 )
\Hy@SectionHShift=\skip63 764 764 \Hy@SectionHShift=\skip63
) 765 765 )
\upm@smalllogo@height=\dimen262 766 766 \upm@smalllogo@height=\dimen262
) (./spimbasephdthesis.sty 767 767 ) (./spimbasephdthesis.sty
Package: spimbasephdthesis 2015/09/01 768 768 Package: spimbasephdthesis 2015/09/01
769 769
(/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.sty 770 770 (/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.sty
File: lettrine.sty 2023-04-18 v2.40 (Daniel Flipo) 771 771 File: lettrine.sty 2023-04-18 v2.40 (Daniel Flipo)
772 772
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3packages/xfp/xfp.sty 773 773 (/usr/local/texlive/2023/texmf-dist/tex/latex/l3packages/xfp/xfp.sty
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3kernel/expl3.sty 774 774 (/usr/local/texlive/2023/texmf-dist/tex/latex/l3kernel/expl3.sty
Package: expl3 2023-05-22 L3 programming layer (loader) 775 775 Package: expl3 2023-05-22 L3 programming layer (loader)
776 776
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3backend/l3backend-pdftex.def 777 777 (/usr/local/texlive/2023/texmf-dist/tex/latex/l3backend/l3backend-pdftex.def
File: l3backend-pdftex.def 2023-04-19 L3 backend support: PDF output (pdfTeX) 778 778 File: l3backend-pdftex.def 2023-04-19 L3 backend support: PDF output (pdfTeX)
\l__color_backend_stack_int=\count330 779 779 \l__color_backend_stack_int=\count330
\l__pdf_internal_box=\box115 780 780 \l__pdf_internal_box=\box115
)) 781 781 ))
Package: xfp 2023-02-02 L3 Floating point unit 782 782 Package: xfp 2023-02-02 L3 Floating point unit
) 783 783 )
\c@DefaultLines=\count331 784 784 \c@DefaultLines=\count331
\c@DefaultDepth=\count332 785 785 \c@DefaultDepth=\count332
\DefaultFindent=\dimen263 786 786 \DefaultFindent=\dimen263
\DefaultNindent=\dimen264 787 787 \DefaultNindent=\dimen264
\DefaultSlope=\dimen265 788 788 \DefaultSlope=\dimen265
\DiscardVskip=\dimen266 789 789 \DiscardVskip=\dimen266
\L@lbox=\box116 790 790 \L@lbox=\box116
\L@tbox=\box117 791 791 \L@tbox=\box117
\c@L@lines=\count333 792 792 \c@L@lines=\count333
\c@L@depth=\count334 793 793 \c@L@depth=\count334
\L@Pindent=\dimen267 794 794 \L@Pindent=\dimen267
\L@Findent=\dimen268 795 795 \L@Findent=\dimen268
\L@Nindent=\dimen269 796 796 \L@Nindent=\dimen269
\L@lraise=\dimen270 797 797 \L@lraise=\dimen270
\L@first=\dimen271 798 798 \L@first=\dimen271
\L@next=\dimen272 799 799 \L@next=\dimen272
\L@slope=\dimen273 800 800 \L@slope=\dimen273
\L@height=\dimen274 801 801 \L@height=\dimen274
\L@novskip=\dimen275 802 802 \L@novskip=\dimen275
\L@target@ht=\dimen276 803 803 \L@target@ht=\dimen276
\L@target@dp=\dimen277 804 804 \L@target@dp=\dimen277
\L@target@tht=\dimen278 805 805 \L@target@tht=\dimen278
\LettrineWidth=\dimen279 806 806 \LettrineWidth=\dimen279
\LettrineHeight=\dimen280 807 807 \LettrineHeight=\dimen280
\LettrineDepth=\dimen281 808 808 \LettrineDepth=\dimen281
Loading lettrine.cfg 809 809 Loading lettrine.cfg
(/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.cfg) 810 810 (/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.cfg)
\Llist@everypar=\toks42 811 811 \Llist@everypar=\toks42
) 812 812 )
*** define extension value backcovermessage ****) 813 813 *** define extension value backcovermessage ****)
**** including upm extension spimufcphdthesis (upmext-spimufcphdthesis.cfg) *** 814 814 **** including upm extension spimufcphdthesis (upmext-spimufcphdthesis.cfg) ***
* (./upmext-spimufcphdthesis.cfg *** define extension value copyright **** 815 815 * (./upmext-spimufcphdthesis.cfg *** define extension value copyright ****
*** style extension spimufcphdthesis, Copyright {(c)} 2012--14 Dr. St\unhbox \v 816 816 *** style extension spimufcphdthesis, Copyright {(c)} 2012--14 Dr. St\unhbox \v
oidb@x \bgroup \let \unhbox \voidb@x \setbox \@tempboxa \hbox {e\global \mathch 817 817 oidb@x \bgroup \let \unhbox \voidb@x \setbox \@tempboxa \hbox {e\global \mathch
ardef \accent@spacefactor \spacefactor }\let \begingroup \let \typeout \protect 818 818 ardef \accent@spacefactor \spacefactor }\let \begingroup \let \typeout \protect
\begingroup \def \MessageBreak { 819 819 \begingroup \def \MessageBreak {
(Font) }\let \protect \immediate\write \m@ne {LaTeX Font Info: 820 820 (Font) }\let \protect \immediate\write \m@ne {LaTeX Font Info:
on input line 5.}\endgroup \endgroup \relax \let \ignorespaces \relax \accent 821 821 on input line 5.}\endgroup \endgroup \relax \let \ignorespaces \relax \accent
19 e\egroup \spacefactor \accent@spacefactor phane GALLAND. **** 822 822 19 e\egroup \spacefactor \accent@spacefactor phane GALLAND. ****
*** define extension value trademarks **** 823 823 *** define extension value trademarks ****
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/helvet.sty 824 824 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/helvet.sty
Package: helvet 2020/03/25 PSNFSS-v9.3 (WaS) 825 825 Package: helvet 2020/03/25 PSNFSS-v9.3 (WaS)
) 826 826 )
*** define extension value frontillustration **** 827 827 *** define extension value frontillustration ****
*** define extension value p3illustration **** 828 828 *** define extension value p3illustration ****
*** define extension value backillustration **** 829 829 *** define extension value backillustration ****
*** define extension value watermarksize **** 830 830 *** define extension value watermarksize ****
*** define extension value universityname **** 831 831 *** define extension value universityname ****
*** define extension value speciality **** 832 832 *** define extension value speciality ****
*** define extension value defensedate **** 833 833 *** define extension value defensedate ****
*** define extension value jurytabwidth **** 834 834 *** define extension value jurytabwidth ****
*** define extension value jurystyle **** 835 835 *** define extension value jurystyle ****
*** define extension value defensemessage ****)) 836 836 *** define extension value defensemessage ****))
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/inputenc.sty 837 837 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/inputenc.sty
Package: inputenc 2021/02/14 v1.3d Input encoding file 838 838 Package: inputenc 2021/02/14 v1.3d Input encoding file
\inpenc@prehook=\toks43 839 839 \inpenc@prehook=\toks43
\inpenc@posthook=\toks44 840 840 \inpenc@posthook=\toks44
) 841 841 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/fontenc.sty 842 842 (/usr/local/texlive/2023/texmf-dist/tex/latex/base/fontenc.sty
Package: fontenc 2021/04/29 v2.0v Standard LaTeX package 843 843 Package: fontenc 2021/04/29 v2.0v Standard LaTeX package
LaTeX Font Info: Trying to load font information for T1+phv on input line 11 844 844 LaTeX Font Info: Trying to load font information for T1+phv on input line 11
2. 845 845 2.
846 846
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1phv.fd 847 847 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1phv.fd
File: t1phv.fd 2020/03/25 scalable font definitions for T1/phv. 848 848 File: t1phv.fd 2020/03/25 scalable font definitions for T1/phv.
)) 849 849 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/times.sty 850 850 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/times.sty
Package: times 2020/03/25 PSNFSS-v9.3 (SPQR) 851 851 Package: times 2020/03/25 PSNFSS-v9.3 (SPQR)
) 852 852 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjustbox.sty 853 853 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjustbox.sty
Package: adjustbox 2022/10/17 v1.3a Adjusting TeX boxes (trim, clip, ...) 854 854 Package: adjustbox 2022/10/17 v1.3a Adjusting TeX boxes (trim, clip, ...)
855 855
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjcalc.sty 856 856 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjcalc.sty
Package: adjcalc 2012/05/16 v1.1 Provides advanced setlength with multiple back 857 857 Package: adjcalc 2012/05/16 v1.1 Provides advanced setlength with multiple back
-ends (calc, etex, pgfmath) 858 858 -ends (calc, etex, pgfmath)
) 859 859 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/trimclip.sty 860 860 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/trimclip.sty
Package: trimclip 2020/08/19 v1.2 Trim and clip general TeX material 861 861 Package: trimclip 2020/08/19 v1.2 Trim and clip general TeX material
862 862
(/usr/local/texlive/2023/texmf-dist/tex/latex/collectbox/collectbox.sty 863 863 (/usr/local/texlive/2023/texmf-dist/tex/latex/collectbox/collectbox.sty
Package: collectbox 2022/10/17 v0.4c Collect macro arguments as boxes 864 864 Package: collectbox 2022/10/17 v0.4c Collect macro arguments as boxes
\collectedbox=\box118 865 865 \collectedbox=\box118
) 866 866 )
\tc@llx=\dimen282 867 867 \tc@llx=\dimen282
\tc@lly=\dimen283 868 868 \tc@lly=\dimen283
\tc@urx=\dimen284 869 869 \tc@urx=\dimen284
\tc@ury=\dimen285 870 870 \tc@ury=\dimen285
Package trimclip Info: Using driver 'tc-pdftex.def'. 871 871 Package trimclip Info: Using driver 'tc-pdftex.def'.
872 872
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/tc-pdftex.def 873 873 (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/tc-pdftex.def
File: tc-pdftex.def 2019/01/04 v2.2 Clipping driver for pdftex 874 874 File: tc-pdftex.def 2019/01/04 v2.2 Clipping driver for pdftex
)) 875 875 ))
\adjbox@Width=\dimen286 876 876 \adjbox@Width=\dimen286
\adjbox@Height=\dimen287 877 877 \adjbox@Height=\dimen287
\adjbox@Depth=\dimen288 878 878 \adjbox@Depth=\dimen288
\adjbox@Totalheight=\dimen289 879 879 \adjbox@Totalheight=\dimen289
\adjbox@pwidth=\dimen290 880 880 \adjbox@pwidth=\dimen290
\adjbox@pheight=\dimen291 881 881 \adjbox@pheight=\dimen291
\adjbox@pdepth=\dimen292 882 882 \adjbox@pdepth=\dimen292
\adjbox@ptotalheight=\dimen293 883 883 \adjbox@ptotalheight=\dimen293
884 884
(/usr/local/texlive/2023/texmf-dist/tex/latex/ifoddpage/ifoddpage.sty 885 885 (/usr/local/texlive/2023/texmf-dist/tex/latex/ifoddpage/ifoddpage.sty
Package: ifoddpage 2022/10/18 v1.2 Conditionals for odd/even page detection 886 886 Package: ifoddpage 2022/10/18 v1.2 Conditionals for odd/even page detection
\c@checkoddpage=\count335 887 887 \c@checkoddpage=\count335
) 888 888 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/varwidth/varwidth.sty 889 889 (/usr/local/texlive/2023/texmf-dist/tex/latex/varwidth/varwidth.sty
Package: varwidth 2009/03/30 ver 0.92; Variable-width minipages 890 890 Package: varwidth 2009/03/30 ver 0.92; Variable-width minipages
\@vwid@box=\box119 891 891 \@vwid@box=\box119
\sift@deathcycles=\count336 892 892 \sift@deathcycles=\count336
\@vwid@loff=\dimen294 893 893 \@vwid@loff=\dimen294
\@vwid@roff=\dimen295 894 894 \@vwid@roff=\dimen295
)) 895 895 ))
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithms/algorithm.sty 896 896 (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithms/algorithm.sty
Package: algorithm 2009/08/24 v0.1 Document Style `algorithm' - floating enviro 897 897 Package: algorithm 2009/08/24 v0.1 Document Style `algorithm' - floating enviro
nment 898 898 nment
899 899
(/usr/local/texlive/2023/texmf-dist/tex/latex/float/float.sty 900 900 (/usr/local/texlive/2023/texmf-dist/tex/latex/float/float.sty
Package: float 2001/11/08 v1.3d Float enhancements (AL) 901 901 Package: float 2001/11/08 v1.3d Float enhancements (AL)
\c@float@type=\count337 902 902 \c@float@type=\count337
\float@exts=\toks45 903 903 \float@exts=\toks45
\float@box=\box120 904 904 \float@box=\box120
\@float@everytoks=\toks46 905 905 \@float@everytoks=\toks46
\@floatcapt=\box121 906 906 \@floatcapt=\box121
) 907 907 )
\@float@every@algorithm=\toks47 908 908 \@float@every@algorithm=\toks47
\c@algorithm=\count338 909 909 \c@algorithm=\count338
) 910 910 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algpseudocode.sty 911 911 (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algpseudocode.sty
Package: algpseudocode 912 912 Package: algpseudocode
913 913
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algorithmicx.sty 914 914 (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algorithmicx.sty
Package: algorithmicx 2005/04/27 v1.2 Algorithmicx 915 915 Package: algorithmicx 2005/04/27 v1.2 Algorithmicx
916 916
Document Style algorithmicx 1.2 - a greatly improved `algorithmic' style 917 917 Document Style algorithmicx 1.2 - a greatly improved `algorithmic' style
\c@ALG@line=\count339 918 918 \c@ALG@line=\count339
\c@ALG@rem=\count340 919 919 \c@ALG@rem=\count340
\c@ALG@nested=\count341 920 920 \c@ALG@nested=\count341
\ALG@tlm=\skip64 921 921 \ALG@tlm=\skip64
\ALG@thistlm=\skip65 922 922 \ALG@thistlm=\skip65
\c@ALG@Lnr=\count342 923 923 \c@ALG@Lnr=\count342
\c@ALG@blocknr=\count343 924 924 \c@ALG@blocknr=\count343
\c@ALG@storecount=\count344 925 925 \c@ALG@storecount=\count344
\c@ALG@tmpcounter=\count345 926 926 \c@ALG@tmpcounter=\count345
\ALG@tmplength=\skip66 927 927 \ALG@tmplength=\skip66
) 928 928 )
Document Style - pseudocode environments for use with the `algorithmicx' style 929 929 Document Style - pseudocode environments for use with the `algorithmicx' style
) *** define extension value defensedate **** 930 930 ) *** define extension value defensedate ****
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/layout.sty 931 931 (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/layout.sty
Package: layout 2021-03-10 v1.2e Show layout parameters 932 932 Package: layout 2021-03-10 v1.2e Show layout parameters
\oneinch=\count346 933 933 \oneinch=\count346
\cnt@paperwidth=\count347 934 934 \cnt@paperwidth=\count347
\cnt@paperheight=\count348 935 935 \cnt@paperheight=\count348
\cnt@hoffset=\count349 936 936 \cnt@hoffset=\count349
\cnt@voffset=\count350 937 937 \cnt@voffset=\count350
\cnt@textheight=\count351 938 938 \cnt@textheight=\count351
\cnt@textwidth=\count352 939 939 \cnt@textwidth=\count352
\cnt@topmargin=\count353 940 940 \cnt@topmargin=\count353
\cnt@oddsidemargin=\count354 941 941 \cnt@oddsidemargin=\count354
\cnt@evensidemargin=\count355 942 942 \cnt@evensidemargin=\count355
\cnt@headheight=\count356 943 943 \cnt@headheight=\count356
\cnt@headsep=\count357 944 944 \cnt@headsep=\count357
\cnt@marginparsep=\count358 945 945 \cnt@marginparsep=\count358
\cnt@marginparwidth=\count359 946 946 \cnt@marginparwidth=\count359
\cnt@marginparpush=\count360 947 947 \cnt@marginparpush=\count360
\cnt@footskip=\count361 948 948 \cnt@footskip=\count361
\fheight=\count362 949 949 \fheight=\count362
\ref@top=\count363 950 950 \ref@top=\count363
\ref@hoffset=\count364 951 951 \ref@hoffset=\count364
\ref@voffset=\count365 952 952 \ref@voffset=\count365
\ref@head=\count366 953 953 \ref@head=\count366
\ref@body=\count367 954 954 \ref@body=\count367
\ref@foot=\count368 955 955 \ref@foot=\count368
\ref@margin=\count369 956 956 \ref@margin=\count369
\ref@marginwidth=\count370 957 957 \ref@marginwidth=\count370
\ref@marginpar=\count371 958 958 \ref@marginpar=\count371
\Interval=\count372 959 959 \Interval=\count372
\ExtraYPos=\count373 960 960 \ExtraYPos=\count373
\PositionX=\count374 961 961 \PositionX=\count374
\PositionY=\count375 962 962 \PositionY=\count375
\ArrowLength=\count376 963 963 \ArrowLength=\count376
) 964 964 )
(/usr/local/texlive/2023/texmf-dist/tex/latex/geometry/geometry.sty 965 965 (/usr/local/texlive/2023/texmf-dist/tex/latex/geometry/geometry.sty
Package: geometry 2020/01/02 v5.9 Page Geometry 966 966 Package: geometry 2020/01/02 v5.9 Page Geometry
967 967
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifvtex.sty 968 968 (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifvtex.sty
Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead. 969 969 Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead.
) 970 970 )
\Gm@cnth=\count377 971 971 \Gm@cnth=\count377
\Gm@cntv=\count378 972 972 \Gm@cntv=\count378
\c@Gm@tempcnt=\count379 973 973 \c@Gm@tempcnt=\count379
\Gm@bindingoffset=\dimen296 974 974 \Gm@bindingoffset=\dimen296
\Gm@wd@mp=\dimen297 975 975 \Gm@wd@mp=\dimen297
\Gm@odd@mp=\dimen298 976 976 \Gm@odd@mp=\dimen298
\Gm@even@mp=\dimen299 977 977 \Gm@even@mp=\dimen299
\Gm@layoutwidth=\dimen300 978 978 \Gm@layoutwidth=\dimen300
\Gm@layoutheight=\dimen301 979 979 \Gm@layoutheight=\dimen301
\Gm@layouthoffset=\dimen302 980 980 \Gm@layouthoffset=\dimen302
\Gm@layoutvoffset=\dimen303 981 981 \Gm@layoutvoffset=\dimen303
\Gm@dimlist=\toks48 982 982 \Gm@dimlist=\toks48
) (./main.aux 983 983 ) (./main.aux
(./chapters/contexte2.aux) (./chapters/EIAH.aux) (./chapters/CBR.aux) 984 984 (./chapters/contexte2.aux) (./chapters/EIAH.aux) (./chapters/CBR.aux)
(./chapters/Architecture.aux) (./chapters/ESCBR.aux 985 985 (./chapters/Architecture.aux) (./chapters/ESCBR.aux
986 986
LaTeX Warning: Label `figNCBR' multiply defined. 987 987 LaTeX Warning: Label `figNCBR' multiply defined.
988 988
989 989
LaTeX Warning: Label `figFlowCBR' multiply defined. 990 990 LaTeX Warning: Label `figFlowCBR' multiply defined.
991 991
992 992
LaTeX Warning: Label `tabVarPar' multiply defined. 993 993 LaTeX Warning: Label `tabVarPar' multiply defined.
994 994
995 995
LaTeX Warning: Label `tabRes1' multiply defined. 996 996 LaTeX Warning: Label `tabRes1' multiply defined.
997 997
998 998
LaTeX Warning: Label `tabBases' multiply defined. 999 999 LaTeX Warning: Label `tabBases' multiply defined.
1000 1000
1001 1001
LaTeX Warning: Label `figBox' multiply defined. 1002 1002 LaTeX Warning: Label `figBox' multiply defined.
1003 1003
1004 1004
LaTeX Warning: Label `tabRes2' multiply defined. 1005 1005 LaTeX Warning: Label `tabRes2' multiply defined.
1006 1006
) (./chapters/TS.aux 1007 1007 ) (./chapters/TS.aux
1008 1008
LaTeX Warning: Label `eqBeta' multiply defined. 1009 1009 LaTeX Warning: Label `eqBeta' multiply defined.
1010 1010
1011 1011
LaTeX Warning: Label `tabAlgs' multiply defined. 1012 1012 LaTeX Warning: Label `tabAlgs' multiply defined.
1013 1013
1014 1014
LaTeX Warning: Label `IntEq1' multiply defined. 1015 1015 LaTeX Warning: Label `tabvp' multiply defined.
1016 1016
1017 1017
LaTeX Warning: Label `tabvp' multiply defined. 1018 1018 LaTeX Warning: Label `IntEq1' multiply defined.
1019 1019
1020 1020
LaTeX Warning: Label `IntEq2' multiply defined. 1021 1021 LaTeX Warning: Label `IntEq2' multiply defined.
1022 1022
1023 1023
LaTeX Warning: Label `eqMixModels' multiply defined. 1024 1024 LaTeX Warning: Label `eqMixModels' multiply defined.
1025 1025
1026 1026
LaTeX Warning: Label `fig:Amodel' multiply defined. 1027 1027 LaTeX Warning: Label `fig:Amodel' multiply defined.
1028 1028
) (./chapters/Publications.aux)) 1029 1029 ) (./chapters/Publications.aux))
\openout1 = `main.aux'. 1030 1030 \openout1 = `main.aux'.
1031 1031
LaTeX Font Info: Checking defaults for OML/txmi/m/it on input line 227. 1032 1032 LaTeX Font Info: Checking defaults for OML/txmi/m/it on input line 227.
LaTeX Font Info: Trying to load font information for OML+txmi on input line 1033 1033 LaTeX Font Info: Trying to load font information for OML+txmi on input line
227. 1034 1034 227.
1035 1035
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omltxmi.fd 1036 1036 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omltxmi.fd
File: omltxmi.fd 2000/12/15 v3.1 1037 1037 File: omltxmi.fd 2000/12/15 v3.1
) 1038 1038 )
LaTeX Font Info: ... okay on input line 227. 1039 1039 LaTeX Font Info: ... okay on input line 227.
LaTeX Font Info: Checking defaults for OMS/txsy/m/n on input line 227. 1040 1040 LaTeX Font Info: Checking defaults for OMS/txsy/m/n on input line 227.
LaTeX Font Info: Trying to load font information for OMS+txsy on input line 1041 1041 LaTeX Font Info: Trying to load font information for OMS+txsy on input line
227. 1042 1042 227.
1043 1043
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omstxsy.fd 1044 1044 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omstxsy.fd
File: omstxsy.fd 2000/12/15 v3.1 1045 1045 File: omstxsy.fd 2000/12/15 v3.1
) 1046 1046 )
LaTeX Font Info: ... okay on input line 227. 1047 1047 LaTeX Font Info: ... okay on input line 227.
LaTeX Font Info: Checking defaults for OT1/cmr/m/n on input line 227. 1048 1048 LaTeX Font Info: Checking defaults for OT1/cmr/m/n on input line 227.
LaTeX Font Info: ... okay on input line 227. 1049 1049 LaTeX Font Info: ... okay on input line 227.
LaTeX Font Info: Checking defaults for T1/cmr/m/n on input line 227. 1050 1050 LaTeX Font Info: Checking defaults for T1/cmr/m/n on input line 227.
LaTeX Font Info: ... okay on input line 227. 1051 1051 LaTeX Font Info: ... okay on input line 227.
LaTeX Font Info: Checking defaults for TS1/cmr/m/n on input line 227. 1052 1052 LaTeX Font Info: Checking defaults for TS1/cmr/m/n on input line 227.
LaTeX Font Info: ... okay on input line 227. 1053 1053 LaTeX Font Info: ... okay on input line 227.
LaTeX Font Info: Checking defaults for OMX/txex/m/n on input line 227. 1054 1054 LaTeX Font Info: Checking defaults for OMX/txex/m/n on input line 227.
LaTeX Font Info: Trying to load font information for OMX+txex on input line 1055 1055 LaTeX Font Info: Trying to load font information for OMX+txex on input line
227. 1056 1056 227.
1057 1057
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omxtxex.fd 1058 1058 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omxtxex.fd
File: omxtxex.fd 2000/12/15 v3.1 1059 1059 File: omxtxex.fd 2000/12/15 v3.1
) 1060 1060 )
LaTeX Font Info: ... okay on input line 227. 1061 1061 LaTeX Font Info: ... okay on input line 227.
LaTeX Font Info: Checking defaults for U/txexa/m/n on input line 227. 1062 1062 LaTeX Font Info: Checking defaults for U/txexa/m/n on input line 227.
LaTeX Font Info: Trying to load font information for U+txexa on input line 2 1063 1063 LaTeX Font Info: Trying to load font information for U+txexa on input line 2
27. 1064 1064 27.
1065 1065
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxexa.fd 1066 1066 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxexa.fd
File: utxexa.fd 2000/12/15 v3.1 1067 1067 File: utxexa.fd 2000/12/15 v3.1
) 1068 1068 )
LaTeX Font Info: ... okay on input line 227. 1069 1069 LaTeX Font Info: ... okay on input line 227.
LaTeX Font Info: Checking defaults for PD1/pdf/m/n on input line 227. 1070 1070 LaTeX Font Info: Checking defaults for PD1/pdf/m/n on input line 227.
LaTeX Font Info: ... okay on input line 227. 1071 1071 LaTeX Font Info: ... okay on input line 227.
LaTeX Font Info: Checking defaults for PU/pdf/m/n on input line 227. 1072 1072 LaTeX Font Info: Checking defaults for PU/pdf/m/n on input line 227.
LaTeX Font Info: ... okay on input line 227. 1073 1073 LaTeX Font Info: ... okay on input line 227.
1074 1074
(/usr/local/texlive/2023/texmf-dist/tex/context/base/mkii/supp-pdf.mkii 1075 1075 (/usr/local/texlive/2023/texmf-dist/tex/context/base/mkii/supp-pdf.mkii
[Loading MPS to PDF converter (version 2006.09.02).] 1076 1076 [Loading MPS to PDF converter (version 2006.09.02).]
\scratchcounter=\count380 1077 1077 \scratchcounter=\count380
\scratchdimen=\dimen304 1078 1078 \scratchdimen=\dimen304
\scratchbox=\box122 1079 1079 \scratchbox=\box122
\nofMPsegments=\count381 1080 1080 \nofMPsegments=\count381
\nofMParguments=\count382 1081 1081 \nofMParguments=\count382
\everyMPshowfont=\toks49 1082 1082 \everyMPshowfont=\toks49
\MPscratchCnt=\count383 1083 1083 \MPscratchCnt=\count383
\MPscratchDim=\dimen305 1084 1084 \MPscratchDim=\dimen305
\MPnumerator=\count384 1085 1085 \MPnumerator=\count384
\makeMPintoPDFobject=\count385 1086 1086 \makeMPintoPDFobject=\count385
\everyMPtoPDFconversion=\toks50 1087 1087 \everyMPtoPDFconversion=\toks50
) (/usr/local/texlive/2023/texmf-dist/tex/latex/epstopdf-pkg/epstopdf-base.sty 1088 1088 ) (/usr/local/texlive/2023/texmf-dist/tex/latex/epstopdf-pkg/epstopdf-base.sty
Package: epstopdf-base 2020-01-24 v2.11 Base part for package epstopdf 1089 1089 Package: epstopdf-base 2020-01-24 v2.11 Base part for package epstopdf
Package epstopdf-base Info: Redefining graphics rule for `.eps' on input line 4 1090 1090 Package epstopdf-base Info: Redefining graphics rule for `.eps' on input line 4
85. 1091 1091 85.
1092 1092
(/usr/local/texlive/2023/texmf-dist/tex/latex/latexconfig/epstopdf-sys.cfg 1093 1093 (/usr/local/texlive/2023/texmf-dist/tex/latex/latexconfig/epstopdf-sys.cfg
File: epstopdf-sys.cfg 2010/07/13 v1.3 Configuration of (r)epstopdf for TeX Liv 1094 1094 File: epstopdf-sys.cfg 2010/07/13 v1.3 Configuration of (r)epstopdf for TeX Liv
e 1095 1095 e
)) 1096 1096 ))
LaTeX Info: Redefining \degres on input line 227. 1097 1097 LaTeX Info: Redefining \degres on input line 227.
LaTeX Info: Redefining \up on input line 227. 1098 1098 LaTeX Info: Redefining \up on input line 227.
Package caption Info: Begin \AtBeginDocument code. 1099 1099 Package caption Info: Begin \AtBeginDocument code.
Package caption Info: float package is loaded. 1100 1100 Package caption Info: float package is loaded.
Package caption Info: hyperref package is loaded. 1101 1101 Package caption Info: hyperref package is loaded.
Package caption Info: picinpar package is loaded. 1102 1102 Package caption Info: picinpar package is loaded.
Package caption Info: End \AtBeginDocument code. 1103 1103 Package caption Info: End \AtBeginDocument code.
1104 1104
*** Overriding the 'enumerate' environment. Pass option 'standardlists' for avo 1105 1105 *** Overriding the 'enumerate' environment. Pass option 'standardlists' for avo
iding this override. 1106 1106 iding this override.
*** Overriding the 'description' environment. Pass option 'standardlists' for a 1107 1107 *** Overriding the 'description' environment. Pass option 'standardlists' for a
voiding this override. ************ USE CUSTOM FRONT COVER 1108 1108 voiding this override. ************ USE CUSTOM FRONT COVER
Package hyperref Info: Link coloring OFF on input line 227. 1109 1109 Package hyperref Info: Link coloring OFF on input line 227.
(./main.out) 1110 1110 (./main.out)
(./main.out) 1111 1111 (./main.out)
\@outlinefile=\write3 1112 1112 \@outlinefile=\write3
\openout3 = `main.out'. 1113 1113 \openout3 = `main.out'.
1114 1114
1115 1115
*geometry* driver: auto-detecting 1116 1116 *geometry* driver: auto-detecting
*geometry* detected driver: pdftex 1117 1117 *geometry* detected driver: pdftex
*geometry* verbose mode - [ preamble ] result: 1118 1118 *geometry* verbose mode - [ preamble ] result:
* pass: disregarded the geometry package! 1119 1119 * pass: disregarded the geometry package!
* \paperwidth=598.14806pt 1120 1120 * \paperwidth=598.14806pt
* \paperheight=845.90042pt 1121 1121 * \paperheight=845.90042pt
* \textwidth=427.43153pt 1122 1122 * \textwidth=427.43153pt
* \textheight=671.71976pt 1123 1123 * \textheight=671.71976pt
* \oddsidemargin=99.58464pt 1124 1124 * \oddsidemargin=99.58464pt
* \evensidemargin=71.13188pt 1125 1125 * \evensidemargin=71.13188pt
* \topmargin=56.9055pt 1126 1126 * \topmargin=56.9055pt
* \headheight=12.0pt 1127 1127 * \headheight=12.0pt
* \headsep=31.29802pt 1128 1128 * \headsep=31.29802pt
* \topskip=11.0pt 1129 1129 * \topskip=11.0pt
* \footskip=31.29802pt 1130 1130 * \footskip=31.29802pt
* \marginparwidth=54.2025pt 1131 1131 * \marginparwidth=54.2025pt
* \marginparsep=7.0pt 1132 1132 * \marginparsep=7.0pt
* \columnsep=10.0pt 1133 1133 * \columnsep=10.0pt
* \skip\footins=10.0pt plus 4.0pt minus 2.0pt 1134 1134 * \skip\footins=10.0pt plus 4.0pt minus 2.0pt
* \hoffset=-72.26999pt 1135 1135 * \hoffset=-72.26999pt
* \voffset=-72.26999pt 1136 1136 * \voffset=-72.26999pt
* \mag=1000 1137 1137 * \mag=1000
* \@twocolumnfalse 1138 1138 * \@twocolumnfalse
* \@twosidetrue 1139 1139 * \@twosidetrue
* \@mparswitchtrue 1140 1140 * \@mparswitchtrue
* \@reversemarginfalse 1141 1141 * \@reversemarginfalse
* (1in=72.27pt=25.4mm, 1cm=28.453pt) 1142 1142 * (1in=72.27pt=25.4mm, 1cm=28.453pt)
1143 1143
*geometry* verbose mode - [ newgeometry ] result: 1144 1144 *geometry* verbose mode - [ newgeometry ] result:
* driver: pdftex 1145 1145 * driver: pdftex
* paper: a4paper 1146 1146 * paper: a4paper
* layout: <same size as paper> 1147 1147 * layout: <same size as paper>
* layoutoffset:(h,v)=(0.0pt,0.0pt) 1148 1148 * layoutoffset:(h,v)=(0.0pt,0.0pt)
* modes: twoside 1149 1149 * modes: twoside
* h-part:(L,W,R)=(170.71652pt, 355.65306pt, 71.77847pt) 1150 1150 * h-part:(L,W,R)=(170.71652pt, 355.65306pt, 71.77847pt)
* v-part:(T,H,B)=(101.50906pt, 741.54591pt, 2.84544pt) 1151 1151 * v-part:(T,H,B)=(101.50906pt, 741.54591pt, 2.84544pt)
* \paperwidth=598.14806pt 1152 1152 * \paperwidth=598.14806pt
* \paperheight=845.90042pt 1153 1153 * \paperheight=845.90042pt
* \textwidth=355.65306pt 1154 1154 * \textwidth=355.65306pt
* \textheight=741.54591pt 1155 1155 * \textheight=741.54591pt
* \oddsidemargin=98.44653pt 1156 1156 * \oddsidemargin=98.44653pt
* \evensidemargin=-0.49152pt 1157 1157 * \evensidemargin=-0.49152pt
* \topmargin=-14.05894pt 1158 1158 * \topmargin=-14.05894pt
* \headheight=12.0pt 1159 1159 * \headheight=12.0pt
* \headsep=31.29802pt 1160 1160 * \headsep=31.29802pt
* \topskip=11.0pt 1161 1161 * \topskip=11.0pt
* \footskip=31.29802pt 1162 1162 * \footskip=31.29802pt
* \marginparwidth=54.2025pt 1163 1163 * \marginparwidth=54.2025pt
* \marginparsep=7.0pt 1164 1164 * \marginparsep=7.0pt
* \columnsep=10.0pt 1165 1165 * \columnsep=10.0pt
* \skip\footins=10.0pt plus 4.0pt minus 2.0pt 1166 1166 * \skip\footins=10.0pt plus 4.0pt minus 2.0pt
* \hoffset=-72.26999pt 1167 1167 * \hoffset=-72.26999pt
* \voffset=-72.26999pt 1168 1168 * \voffset=-72.26999pt
* \mag=1000 1169 1169 * \mag=1000
* \@twocolumnfalse 1170 1170 * \@twocolumnfalse
* \@twosidetrue 1171 1171 * \@twosidetrue
* \@mparswitchtrue 1172 1172 * \@mparswitchtrue
* \@reversemarginfalse 1173 1173 * \@reversemarginfalse
* (1in=72.27pt=25.4mm, 1cm=28.453pt) 1174 1174 * (1in=72.27pt=25.4mm, 1cm=28.453pt)
1175 1175
<images_logos/image1_logoUBFC_grand.png, id=369, 156.6945pt x 74.898pt> 1176 1176 <images_logos/image1_logoUBFC_grand.png, id=369, 156.6945pt x 74.898pt>
File: images_logos/image1_logoUBFC_grand.png Graphic file (type png) 1177 1177 File: images_logos/image1_logoUBFC_grand.png Graphic file (type png)
<use images_logos/image1_logoUBFC_grand.png> 1178 1178 <use images_logos/image1_logoUBFC_grand.png>
Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input 1179 1179 Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input
line 233. 1180 1180 line 233.
(pdftex.def) Requested size: 142.25905pt x 68.00069pt. 1181 1181 (pdftex.def) Requested size: 142.25905pt x 68.00069pt.
<images_logos/logo_UFC_2018_transparence.png, id=371, 1160.335pt x 285.065pt> 1182 1182 <images_logos/logo_UFC_2018_transparence.png, id=371, 1160.335pt x 285.065pt>
File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png) 1183 1183 File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png)
<use images_logos/logo_UFC_2018_transparence.png> 1184 1184 <use images_logos/logo_UFC_2018_transparence.png>
Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i 1185 1185 Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i
nput line 233. 1186 1186 nput line 233.
(pdftex.def) Requested size: 142.25905pt x 34.94577pt. 1187 1187 (pdftex.def) Requested size: 142.25905pt x 34.94577pt.
LaTeX Font Info: Trying to load font information for OT1+txr on input line 2 1188 1188 LaTeX Font Info: Trying to load font information for OT1+txr on input line 2
43. 1189 1189 43.
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/ot1txr.fd 1190 1190 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/ot1txr.fd
File: ot1txr.fd 2000/12/15 v3.1 1191 1191 File: ot1txr.fd 2000/12/15 v3.1
) 1192 1192 )
LaTeX Font Info: Trying to load font information for U+txmia on input line 2 1193 1193 LaTeX Font Info: Trying to load font information for U+txmia on input line 2
43. 1194 1194 43.
1195 1195
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxmia.fd 1196 1196 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxmia.fd
File: utxmia.fd 2000/12/15 v3.1 1197 1197 File: utxmia.fd 2000/12/15 v3.1
) 1198 1198 )
LaTeX Font Info: Trying to load font information for U+txsya on input line 2 1199 1199 LaTeX Font Info: Trying to load font information for U+txsya on input line 2
43. 1200 1200 43.
1201 1201
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsya.fd 1202 1202 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsya.fd
File: utxsya.fd 2000/12/15 v3.1 1203 1203 File: utxsya.fd 2000/12/15 v3.1
) 1204 1204 )
LaTeX Font Info: Trying to load font information for U+txsyb on input line 2 1205 1205 LaTeX Font Info: Trying to load font information for U+txsyb on input line 2
43. 1206 1206 43.
1207 1207
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyb.fd 1208 1208 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyb.fd
File: utxsyb.fd 2000/12/15 v3.1 1209 1209 File: utxsyb.fd 2000/12/15 v3.1
) 1210 1210 )
LaTeX Font Info: Trying to load font information for U+txsyc on input line 2 1211 1211 LaTeX Font Info: Trying to load font information for U+txsyc on input line 2
43. 1212 1212 43.
1213 1213
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyc.fd 1214 1214 (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyc.fd
File: utxsyc.fd 2000/12/15 v3.1 1215 1215 File: utxsyc.fd 2000/12/15 v3.1
) [1 1216 1216 ) [1
1217 1217
1218 1218
1219 1219
1220 1220
{/usr/local/texlive/2023/texmf-var/fonts/map/pdftex/updmap/pdftex.map}{/usr/loc 1221 1221 {/usr/local/texlive/2023/texmf-var/fonts/map/pdftex/updmap/pdftex.map}{/usr/loc
al/texlive/2023/texmf-dist/fonts/enc/dvips/base/8r.enc} <./images_logos/image1_ 1222 1222 al/texlive/2023/texmf-dist/fonts/enc/dvips/base/8r.enc} <./images_logos/image1_
logoUBFC_grand.png> <./images_logos/logo_UFC_2018_transparence.png>] [2 1223 1223 logoUBFC_grand.png> <./images_logos/logo_UFC_2018_transparence.png>] [2
1224 1224
1225 1225
] [3] [4] 1226 1226 ] [3] [4]
(./main.toc 1227 1227 (./main.toc
LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available 1228 1228 LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available
(Font) Font shape `T1/phv/m/sl' tried instead on input line 23. 1229 1229 (Font) Font shape `T1/phv/m/sl' tried instead on input line 23.
[5 1230 1230 [5
1231 1231
] [6] [7] 1232 1232 ] [6] [7]
Overfull \hbox (1.29184pt too wide) detected at line 91 1233 1233 Overfull \hbox (1.29184pt too wide) detected at line 91
[][]\T1/phv/m/n/10.95 103[] 1234 1234 [][]\T1/phv/m/n/10.95 103[]
[] 1235 1235 []
1236 1236
1237 1237
Overfull \hbox (1.29184pt too wide) detected at line 92 1238 1238 Overfull \hbox (1.29184pt too wide) detected at line 92
[][]\T1/phv/m/n/10.95 104[] 1239 1239 [][]\T1/phv/m/n/10.95 104[]
[] 1240 1240 []
1241 1241
) 1242 1242 )
\tf@toc=\write4 1243 1243 \tf@toc=\write4
\openout4 = `main.toc'. 1244 1244 \openout4 = `main.toc'.
1245 1245
[8] [1 1246 1246 [8] [1
1247 1247
1248 1248
] [2] 1249 1249 ] [2]
Chapitre 1. 1250 1250 Chapitre 1.
Package lettrine.sty Info: Targeted height = 19.96736pt 1251 1251 Package lettrine.sty Info: Targeted height = 19.96736pt
(lettrine.sty) (for loversize=0, accent excluded), 1252 1252 (lettrine.sty) (for loversize=0, accent excluded),
(lettrine.sty) Lettrine height = 20.612pt (\uppercase {C}); 1253 1253 (lettrine.sty) Lettrine height = 20.612pt (\uppercase {C});
(lettrine.sty) reported on input line 337. 1254 1254 (lettrine.sty) reported on input line 337.
1255 1255
Overfull \hbox (6.79999pt too wide) in paragraph at lines 337--337 1256 1256 Overfull \hbox (6.79999pt too wide) in paragraph at lines 337--337
[][][][] 1257 1257 [][][][]
[] 1258 1258 []
1259 1259
1260 1260
Underfull \vbox (badness 10000) has occurred while \output is active [] 1261 1261 Underfull \vbox (badness 10000) has occurred while \output is active []
1262 1262
[3 1263 1263 [3
1264 1264
] 1265 1265 ]
[4] [5] 1266 1266 [4] [5]
\openout2 = `./chapters/contexte2.aux'. 1267 1267 \openout2 = `./chapters/contexte2.aux'.
1268 1268
(./chapters/contexte2.tex [6 1269 1269 (./chapters/contexte2.tex [6
1270 1270
1271 1271
] 1272 1272 ]
Chapitre 2. 1273 1273 Chapitre 2.
<./Figures/TLearning.png, id=538, 603.25375pt x 331.2375pt> 1274 1274 <./Figures/TLearning.png, id=538, 603.25375pt x 331.2375pt>
File: ./Figures/TLearning.png Graphic file (type png) 1275 1275 File: ./Figures/TLearning.png Graphic file (type png)
<use ./Figures/TLearning.png> 1276 1276 <use ./Figures/TLearning.png>
Package pdftex.def Info: ./Figures/TLearning.png used on input line 15. 1277 1277 Package pdftex.def Info: ./Figures/TLearning.png used on input line 15.
(pdftex.def) Requested size: 427.43153pt x 234.69505pt. 1278 1278 (pdftex.def) Requested size: 427.43153pt x 234.69505pt.
[7] 1279 1279 [7]
<./Figures/EIAH.png, id=547, 643.40375pt x 362.35374pt> 1280 1280 <./Figures/EIAH.png, id=547, 643.40375pt x 362.35374pt>
File: ./Figures/EIAH.png Graphic file (type png) 1281 1281 File: ./Figures/EIAH.png Graphic file (type png)
<use ./Figures/EIAH.png> 1282 1282 <use ./Figures/EIAH.png>
Package pdftex.def Info: ./Figures/EIAH.png used on input line 32. 1283 1283 Package pdftex.def Info: ./Figures/EIAH.png used on input line 32.
(pdftex.def) Requested size: 427.43153pt x 240.73pt. 1284 1284 (pdftex.def) Requested size: 427.43153pt x 240.73pt.
1285 1285
1286 1286
LaTeX Warning: `!h' float specifier changed to `!ht'. 1287 1287 LaTeX Warning: `!h' float specifier changed to `!ht'.
1288 1288
[8 <./Figures/TLearning.png>] [9 <./Figures/EIAH.png>] [10] 1289 1289 [8 <./Figures/TLearning.png>] [9 <./Figures/EIAH.png>] [10]
<./Figures/cycle.png, id=574, 668.4975pt x 665.48625pt> 1290 1290 <./Figures/cycle.png, id=574, 668.4975pt x 665.48625pt>
File: ./Figures/cycle.png Graphic file (type png) 1291 1291 File: ./Figures/cycle.png Graphic file (type png)
<use ./Figures/cycle.png> 1292 1292 <use ./Figures/cycle.png>
Package pdftex.def Info: ./Figures/cycle.png used on input line 83. 1293 1293 Package pdftex.def Info: ./Figures/cycle.png used on input line 83.
(pdftex.def) Requested size: 427.43153pt x 425.51372pt. 1294 1294 (pdftex.def) Requested size: 427.43153pt x 425.51372pt.
[11 <./Figures/cycle.png>] 1295 1295 [11 <./Figures/cycle.png>]
<./Figures/Reuse.png, id=597, 383.4325pt x 182.6825pt> 1296 1296 <./Figures/Reuse.png, id=597, 383.4325pt x 182.6825pt>
File: ./Figures/Reuse.png Graphic file (type png) 1297 1297 File: ./Figures/Reuse.png Graphic file (type png)
<use ./Figures/Reuse.png> 1298 1298 <use ./Figures/Reuse.png>
Package pdftex.def Info: ./Figures/Reuse.png used on input line 112. 1299 1299 Package pdftex.def Info: ./Figures/Reuse.png used on input line 112.
(pdftex.def) Requested size: 427.43153pt x 203.65802pt. 1300 1300 (pdftex.def) Requested size: 427.43153pt x 203.65802pt.
1301 1301
Underfull \hbox (badness 10000) in paragraph at lines 112--112 1302 1302 Underfull \hbox (badness 10000) in paragraph at lines 112--112
[]\T1/phv/m/sc/10.95 Figure 2.4 \T1/phv/m/n/10.95 ^^U |Prin-cipe de réuti-li-sa 1303 1303 []\T1/phv/m/sc/10.95 Figure 2.4 \T1/phv/m/n/10.95 ^^U |Prin-cipe de réuti-li-sa
-tion dans le RàPC (Tra-duit de 1304 1304 -tion dans le RàPC (Tra-duit de
[] 1305 1305 []
1306 1306
[12] [13 <./Figures/Reuse.png>] 1307 1307 [12] [13 <./Figures/Reuse.png>]
<./Figures/CycleCBR.png, id=617, 147.1899pt x 83.8332pt> 1308 1308 <./Figures/CycleCBR.png, id=617, 147.1899pt x 83.8332pt>
File: ./Figures/CycleCBR.png Graphic file (type png) 1309 1309 File: ./Figures/CycleCBR.png Graphic file (type png)
<use ./Figures/CycleCBR.png> 1310 1310 <use ./Figures/CycleCBR.png>
Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156. 1311 1311 Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156.
(pdftex.def) Requested size: 427.43153pt x 243.45026pt. 1312 1312 (pdftex.def) Requested size: 427.43153pt x 243.45026pt.
[14] [15 <./Figures/CycleCBR.png>] [16] 1313 1313 [14] [15 <./Figures/CycleCBR.png>] [16]
1314 1314
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1315 1315 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1316 1316 65.
1317 1317
LaTeX Font Info: Trying to load font information for TS1+phv on input line 2 1318 1318 LaTeX Font Info: Trying to load font information for TS1+phv on input line 2
65. 1319 1319 65.
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/ts1phv.fd 1320 1320 (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/ts1phv.fd
File: ts1phv.fd 2020/03/25 scalable font definitions for TS1/phv. 1321 1321 File: ts1phv.fd 2020/03/25 scalable font definitions for TS1/phv.
) 1322 1322 )
1323 1323
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1324 1324 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1325 1325 65.
1326 1326
1327 1327
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1328 1328 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1329 1329 65.
1330 1330
1331 1331
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1332 1332 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1333 1333 65.
1334 1334
1335 1335
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1336 1336 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1337 1337 65.
1338 1338
1339 1339
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 1340 1340 LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2
65. 1341 1341 65.
1342 1342
Missing character: There is no · in font txr! 1343 1343 Missing character: There is no · in font txr!
Missing character: There is no · in font txr! 1344 1344 Missing character: There is no · in font txr!
Missing character: There is no · in font txr! 1345 1345 Missing character: There is no · in font txr!
1346 1346
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined 1347 1347 LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined
(Font) using `T1/phv/m/it' instead on input line 284. 1348 1348 (Font) using `T1/phv/m/it' instead on input line 284.
1349 1349
[17] [18] 1350 1350 [17] [18]
1351 1351
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined 1352 1352 LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined
(Font) using `T1/phv/m/it' instead on input line 333. 1353 1353 (Font) using `T1/phv/m/it' instead on input line 333.
1354 1354
1355 1355
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined 1356 1356 LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined
(Font) using `T1/phv/m/it' instead on input line 337. 1357 1357 (Font) using `T1/phv/m/it' instead on input line 337.
1358 1358
<./Figures/beta-distribution.png, id=694, 621.11293pt x 480.07928pt> 1359 1359 <./Figures/beta-distribution.png, id=694, 621.11293pt x 480.07928pt>
File: ./Figures/beta-distribution.png Graphic file (type png) 1360 1360 File: ./Figures/beta-distribution.png Graphic file (type png)
<use ./Figures/beta-distribution.png> 1361 1361 <use ./Figures/beta-distribution.png>
Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34 1362 1362 Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34
5. 1363 1363 5.
(pdftex.def) Requested size: 427.43153pt x 330.38333pt. 1364 1364 (pdftex.def) Requested size: 427.43153pt x 330.38333pt.
[19]) [20 <./Figures/beta-distribution.png>] [21 1365 1365 [19]) [20 <./Figures/beta-distribution.png>] [21
1366 1366
1367 1367
1368 1368
] [22] 1369 1369 ] [22]
\openout2 = `./chapters/EIAH.aux'. 1370 1370 \openout2 = `./chapters/EIAH.aux'.
1371 1371
(./chapters/EIAH.tex 1372 1372 (./chapters/EIAH.tex
Chapitre 3. 1373 1373 Chapitre 3.
[23 1374 1374 [23
1375 1375
1376 1376
] 1377 1377 ]
Underfull \hbox (badness 10000) in paragraph at lines 23--24 1378 1378 Underfull \hbox (badness 10000) in paragraph at lines 23--24
[]\T1/phv/m/n/10.95 Les tech-niques d'IA peuvent aussi ai-der à prendre des dé- 1379 1379 []\T1/phv/m/n/10.95 Les tech-niques d'IA peuvent aussi ai-der à prendre des dé-
ci-sions stra-té- 1380 1380 ci-sions stra-té-
[] 1381 1381 []
1382 1382
1383 1383
Underfull \hbox (badness 1874) in paragraph at lines 23--24 1384 1384 Underfull \hbox (badness 1874) in paragraph at lines 23--24
\T1/phv/m/n/10.95 giques vi-sant des ob-jec-tifs à longue échéance comme le mon 1385 1385 \T1/phv/m/n/10.95 giques vi-sant des ob-jec-tifs à longue échéance comme le mon
tre le tra-vail de 1386 1386 tre le tra-vail de
[] 1387 1387 []
1388 1388
<./Figures/architecture.png, id=732, 776.9025pt x 454.69875pt> 1389 1389 <./Figures/architecture.png, id=732, 776.9025pt x 454.69875pt>
File: ./Figures/architecture.png Graphic file (type png) 1390 1390 File: ./Figures/architecture.png Graphic file (type png)
<use ./Figures/architecture.png> 1391 1391 <use ./Figures/architecture.png>
Package pdftex.def Info: ./Figures/architecture.png used on input line 37. 1392 1392 Package pdftex.def Info: ./Figures/architecture.png used on input line 37.
(pdftex.def) Requested size: 427.43153pt x 250.16833pt. 1393 1393 (pdftex.def) Requested size: 427.43153pt x 250.16833pt.
1394 1394
LaTeX Warning: Reference `sectBanditManchot' on page 24 undefined on input line 1395 1395 LaTeX Warning: Reference `sectBanditManchot' on page 24 undefined on input line
42. 1396 1396 42.
1397 1397
[24] 1398 1398 [24]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1399 1399 Underfull \vbox (badness 10000) has occurred while \output is active []
1400 1400
[25 <./Figures/architecture.png>] 1401 1401 [25 <./Figures/architecture.png>]
<./Figures/ELearningLevels.png, id=760, 602.25pt x 612.78937pt> 1402 1402 <./Figures/ELearningLevels.png, id=760, 602.25pt x 612.78937pt>
File: ./Figures/ELearningLevels.png Graphic file (type png) 1403 1403 File: ./Figures/ELearningLevels.png Graphic file (type png)
<use ./Figures/ELearningLevels.png> 1404 1404 <use ./Figures/ELearningLevels.png>
Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 61. 1405 1405 Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 61.
(pdftex.def) Requested size: 427.43153pt x 434.92455pt. 1406 1406 (pdftex.def) Requested size: 427.43153pt x 434.92455pt.
1407 1407
Underfull \hbox (badness 3690) in paragraph at lines 61--61 1408 1408 Underfull \hbox (badness 3690) in paragraph at lines 61--61
[]\T1/phv/m/sc/10.95 Figure 3.2 \T1/phv/m/n/10.95 ^^U |Tra-duc-tion des ni-veau 1409 1409 []\T1/phv/m/sc/10.95 Figure 3.2 \T1/phv/m/n/10.95 ^^U |Tra-duc-tion des ni-veau
x du sys-tème de re-com-man-da-tion dans 1410 1410 x du sys-tème de re-com-man-da-tion dans
[] 1411 1411 []
1412 1412
1413 1413
Underfull \vbox (badness 10000) has occurred while \output is active [] 1414 1414 Underfull \vbox (badness 10000) has occurred while \output is active []
1415 1415
[26] 1416 1416 [26]
Overfull \hbox (2.56369pt too wide) in paragraph at lines 81--81 1417 1417 Overfull \hbox (2.56369pt too wide) in paragraph at lines 81--81
[]|\T1/phv/m/n/9 [[]]| 1418 1418 []|\T1/phv/m/n/9 [[]]|
[] 1419 1419 []
1420 1420
1421 1421
Overfull \hbox (0.5975pt too wide) in paragraph at lines 76--92 1422 1422 Overfull \hbox (0.5975pt too wide) in paragraph at lines 76--92
[][] 1423 1423 [][]
[] 1424 1424 []
1425 1425
) [27 <./Figures/ELearningLevels.png>] [28] 1426 1426 ) [27 <./Figures/ELearningLevels.png>] [28]
\openout2 = `./chapters/CBR.aux'. 1427 1427 \openout2 = `./chapters/CBR.aux'.
1428 1428
(./chapters/CBR.tex 1429 1429 (./chapters/CBR.tex
Chapitre 4. 1430 1430 Chapitre 4.
[29 1431 1431 [29
1432 1432
1433 1433
1434 1434
1435 1435
] [30] 1436 1436 ] [30]
Underfull \hbox (badness 1048) in paragraph at lines 25--26 1437 1437 Underfull \hbox (badness 1048) in paragraph at lines 25--26
[]\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la 1438 1438 []\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la
1439 1439
[] 1440 1440 []
1441 1441
<./Figures/ModCBR2.png, id=825, 1145.27875pt x 545.03625pt> 1442 1442 <./Figures/ModCBR2.png, id=825, 1145.27875pt x 545.03625pt>
File: ./Figures/ModCBR2.png Graphic file (type png) 1443 1443 File: ./Figures/ModCBR2.png Graphic file (type png)
<use ./Figures/ModCBR2.png> 1444 1444 <use ./Figures/ModCBR2.png>
Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 39. 1445 1445 Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 39.
(pdftex.def) Requested size: 427.43153pt x 203.41505pt. 1446 1446 (pdftex.def) Requested size: 427.43153pt x 203.41505pt.
1447 1447
Underfull \vbox (badness 1163) has occurred while \output is active [] 1448 1448 Underfull \vbox (badness 1163) has occurred while \output is active []
1449 1449
1450 1450
Overfull \hbox (24.44536pt too wide) has occurred while \output is active 1451 1451 Overfull \hbox (24.44536pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY 1452 1452 \T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY
CLE DU RÀPC \T1/phv/m/n/10.95 31 1453 1453 CLE DU RÀPC \T1/phv/m/n/10.95 31
[] 1454 1454 []
1455 1455
[31] 1456 1456 [31]
<./Figures/ModCBR1.png, id=839, 942.52126pt x 624.83438pt> 1457 1457 <./Figures/ModCBR1.png, id=839, 942.52126pt x 624.83438pt>
File: ./Figures/ModCBR1.png Graphic file (type png) 1458 1458 File: ./Figures/ModCBR1.png Graphic file (type png)
<use ./Figures/ModCBR1.png> 1459 1459 <use ./Figures/ModCBR1.png>
Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 45. 1460 1460 Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 45.
(pdftex.def) Requested size: 427.43153pt x 283.36574pt. 1461 1461 (pdftex.def) Requested size: 427.43153pt x 283.36574pt.
[32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34] 1462 1462 [32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34]
<./Figures/taxonomieEIAH.png, id=880, 984.67876pt x 614.295pt> 1463 1463 <./Figures/taxonomieEIAH.png, id=880, 984.67876pt x 614.295pt>
File: ./Figures/taxonomieEIAH.png Graphic file (type png) 1464 1464 File: ./Figures/taxonomieEIAH.png Graphic file (type png)
<use ./Figures/taxonomieEIAH.png> 1465 1465 <use ./Figures/taxonomieEIAH.png>
Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 81. 1466 1466 Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 81.
(pdftex.def) Requested size: 427.43153pt x 266.65376pt. 1467 1467 (pdftex.def) Requested size: 427.43153pt x 266.65376pt.
1468 1468
Underfull \hbox (badness 1895) in paragraph at lines 90--90 1469 1469 Underfull \hbox (badness 1895) in paragraph at lines 90--90
[][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés 1470 1470 [][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés
[] 1471 1471 []
1472 1472
[35] 1473 1473 [35]
Overfull \hbox (2.19226pt too wide) in paragraph at lines 108--108 1474 1474 Overfull \hbox (2.19226pt too wide) in paragraph at lines 108--108
[]|\T1/phv/m/n/9 [[]]| 1475 1475 []|\T1/phv/m/n/9 [[]]|
[] 1476 1476 []
1477 1477
1478 1478
Overfull \hbox (8.65419pt too wide) in paragraph at lines 114--114 1479 1479 Overfull \hbox (8.65419pt too wide) in paragraph at lines 114--114
[]|\T1/phv/m/n/9 [[]]| 1480 1480 []|\T1/phv/m/n/9 [[]]|
[] 1481 1481 []
1482 1482
1483 1483
Overfull \hbox (1.23834pt too wide) in paragraph at lines 134--134 1484 1484 Overfull \hbox (1.23834pt too wide) in paragraph at lines 134--134
[]|\T1/phv/m/n/9 [[]]| 1485 1485 []|\T1/phv/m/n/9 [[]]|
[] 1486 1486 []
1487 1487
1488 1488
Overfull \hbox (7.38495pt too wide) in paragraph at lines 142--142 1489 1489 Overfull \hbox (7.38495pt too wide) in paragraph at lines 142--142
[]|\T1/phv/m/n/9 [[]]| 1490 1490 []|\T1/phv/m/n/9 [[]]|
[] 1491 1491 []
1492 1492
) [36 <./Figures/taxonomieEIAH.png>] 1493 1493 ) [36 <./Figures/taxonomieEIAH.png>]
Overfull \hbox (14.11055pt too wide) has occurred while \output is active 1494 1494 Overfull \hbox (14.11055pt too wide) has occurred while \output is active
\T1/phv/m/sl/10.95 4.7. RÉCAPITULATIF DES LIMITES DES TRAVAUX PRÉSENTÉS DANS C 1495 1495 \T1/phv/m/sl/10.95 4.7. RÉCAPITULATIF DES LIMITES DES TRAVAUX PRÉSENTÉS DANS C
E CHAPITRE \T1/phv/m/n/10.95 37 1496 1496 E CHAPITRE \T1/phv/m/n/10.95 37
[] 1497 1497 []
1498 1498
[37] [38 1499 1499 [37] [38
1500 1500
1501 1501
1502 1502
] [39] [40] 1503 1503 ] [39] [40]
\openout2 = `./chapters/Architecture.aux'. 1504 1504 \openout2 = `./chapters/Architecture.aux'.
1505 1505
(./chapters/Architecture.tex 1506 1506 (./chapters/Architecture.tex
Chapitre 5. 1507 1507 Chapitre 5.
1508 1508
Underfull \vbox (badness 10000) has occurred while \output is active [] 1509 1509 Underfull \vbox (badness 10000) has occurred while \output is active []
1510 1510
[41 1511 1511 [41
1512 1512
1513 1513
] 1514 1514 ]
<./Figures/AIVT.png, id=956, 1116.17pt x 512.91624pt> 1515 1515 <./Figures/AIVT.png, id=956, 1116.17pt x 512.91624pt>
File: ./Figures/AIVT.png Graphic file (type png) 1516 1516 File: ./Figures/AIVT.png Graphic file (type png)
<use ./Figures/AIVT.png> 1517 1517 <use ./Figures/AIVT.png>
Package pdftex.def Info: ./Figures/AIVT.png used on input line 21. 1518 1518 Package pdftex.def Info: ./Figures/AIVT.png used on input line 21.
(pdftex.def) Requested size: 427.43153pt x 196.41287pt. 1519 1519 (pdftex.def) Requested size: 427.43153pt x 196.41287pt.
1520 1520
[42 <./Figures/AIVT.png>] 1521 1521 [42 <./Figures/AIVT.png>]
Underfull \hbox (badness 3049) in paragraph at lines 42--43 1522 1522 Underfull \hbox (badness 3049) in paragraph at lines 42--43
[]|\T1/phv/m/n/10.95 Discipline des in-for-ma-tions conte- 1523 1523 []|\T1/phv/m/n/10.95 Discipline des in-for-ma-tions conte-
[] 1524 1524 []
1525 1525
1526 1526
Underfull \hbox (badness 2435) in paragraph at lines 44--44 1527 1527 Underfull \hbox (badness 2435) in paragraph at lines 44--44
[]|\T1/phv/m/n/10.95 Le ni-veau sco-laire de la ma-tière 1528 1528 []|\T1/phv/m/n/10.95 Le ni-veau sco-laire de la ma-tière
[] 1529 1529 []
1530 1530
1531 1531
Underfull \hbox (badness 7468) in paragraph at lines 45--46 1532 1532 Underfull \hbox (badness 7468) in paragraph at lines 45--46
[]|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- 1533 1533 []|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis-
[] 1534 1534 []
1535 1535
1536 1536
Underfull \hbox (badness 7468) in paragraph at lines 46--47 1537 1537 Underfull \hbox (badness 7468) in paragraph at lines 46--47
[]|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- 1538 1538 []|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis-
[] 1539 1539 []
1540 1540
1541 1541
Underfull \hbox (badness 5050) in paragraph at lines 50--50 1542 1542 Underfull \hbox (badness 5050) in paragraph at lines 50--50
[]|\T1/phv/m/n/10.95 Le type d'in-for-ma-tions conte-nues 1543 1543 []|\T1/phv/m/n/10.95 Le type d'in-for-ma-tions conte-nues
[] 1544 1544 []
1545 1545
1546 1546
Underfull \hbox (badness 10000) in paragraph at lines 52--53 1547 1547 Underfull \hbox (badness 10000) in paragraph at lines 52--53
[]|\T1/phv/m/n/10.95 Connaissances et 1548 1548 []|\T1/phv/m/n/10.95 Connaissances et
[] 1549 1549 []
1550 1550
1551 1551
Overfull \hbox (1.98096pt too wide) in paragraph at lines 55--55 1552 1552 Overfull \hbox (1.98096pt too wide) in paragraph at lines 55--55
[]|\T1/phv/m/n/10.95 Représentation 1553 1553 []|\T1/phv/m/n/10.95 Représentation
[] 1554 1554 []
1555 1555
1556 1556
Overfull \hbox (1.98096pt too wide) in paragraph at lines 56--56 1557 1557 Overfull \hbox (1.98096pt too wide) in paragraph at lines 56--56
[]|\T1/phv/m/n/10.95 Représentation 1558 1558 []|\T1/phv/m/n/10.95 Représentation
[] 1559 1559 []
1560 1560
1561 1561
Underfull \hbox (badness 10000) in paragraph at lines 57--58 1562 1562 Underfull \hbox (badness 10000) in paragraph at lines 57--58
[]|\T1/phv/m/n/10.95 Représentation tex- 1563 1563 []|\T1/phv/m/n/10.95 Représentation tex-
[] 1564 1564 []
1565 1565
1566 1566
Underfull \hbox (badness 10000) in paragraph at lines 57--58 1567 1567 Underfull \hbox (badness 10000) in paragraph at lines 57--58
\T1/phv/m/n/10.95 tuel et gra-phique 1568 1568 \T1/phv/m/n/10.95 tuel et gra-phique
[] 1569 1569 []
1570 1570
1571 1571
Underfull \hbox (badness 2343) in paragraph at lines 61--62 1572 1572 Underfull \hbox (badness 2343) in paragraph at lines 61--62
[]|\T1/phv/m/n/10.95 Ordinateur ou ap-pa- 1573 1573 []|\T1/phv/m/n/10.95 Ordinateur ou ap-pa-
[] 1574 1574 []
1575 1575
1576 1576
Underfull \vbox (badness 10000) has occurred while \output is active [] 1577 1577 Underfull \vbox (badness 10000) has occurred while \output is active []
1578 1578
[43] 1579 1579 [43]
<./Figures/Architecture AI-VT2.png, id=972, 1029.8475pt x 948.54375pt> 1580 1580 <./Figures/Architecture AI-VT2.png, id=972, 1029.8475pt x 948.54375pt>
File: ./Figures/Architecture AI-VT2.png Graphic file (type png) 1581 1581 File: ./Figures/Architecture AI-VT2.png Graphic file (type png)
<use ./Figures/Architecture AI-VT2.png> 1582 1582 <use ./Figures/Architecture AI-VT2.png>
Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line 1583 1583 Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line
73. 1584 1584 73.
(pdftex.def) Requested size: 427.43153pt x 393.68173pt. 1585 1585 (pdftex.def) Requested size: 427.43153pt x 393.68173pt.
1586 1586
Underfull \vbox (badness 10000) has occurred while \output is active [] 1587 1587 Underfull \vbox (badness 10000) has occurred while \output is active []
1588 1588
[44] 1589 1589 [44]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1590 1590 Underfull \vbox (badness 10000) has occurred while \output is active []
1591 1591
[45 <./Figures/Architecture AI-VT2.png>] 1592 1592 [45 <./Figures/Architecture AI-VT2.png>]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1593 1593 Underfull \vbox (badness 10000) has occurred while \output is active []
1594 1594
[46] 1595 1595 [46]
[47] 1596 1596 [47]
<./Figures/Layers.png, id=994, 392.46625pt x 216.81pt> 1597 1597 <./Figures/Layers.png, id=994, 392.46625pt x 216.81pt>
File: ./Figures/Layers.png Graphic file (type png) 1598 1598 File: ./Figures/Layers.png Graphic file (type png)
<use ./Figures/Layers.png> 1599 1599 <use ./Figures/Layers.png>
Package pdftex.def Info: ./Figures/Layers.png used on input line 145. 1600 1600 Package pdftex.def Info: ./Figures/Layers.png used on input line 145.
(pdftex.def) Requested size: 313.9734pt x 173.44823pt. 1601 1601 (pdftex.def) Requested size: 313.9734pt x 173.44823pt.
[48] 1602 1602 [48]
<./Figures/flow.png, id=1001, 721.69624pt x 593.21625pt> 1603 1603 <./Figures/flow.png, id=1001, 721.69624pt x 593.21625pt>
File: ./Figures/flow.png Graphic file (type png) 1604 1604 File: ./Figures/flow.png Graphic file (type png)
<use ./Figures/flow.png> 1605 1605 <use ./Figures/flow.png>
Package pdftex.def Info: ./Figures/flow.png used on input line 156. 1606 1606 Package pdftex.def Info: ./Figures/flow.png used on input line 156.
(pdftex.def) Requested size: 427.43153pt x 351.33421pt. 1607 1607 (pdftex.def) Requested size: 427.43153pt x 351.33421pt.
) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>] 1608 1608 ) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>]
\openout2 = `./chapters/ESCBR.aux'. 1609 1609 \openout2 = `./chapters/ESCBR.aux'.
1610 1610
1611 1611
(./chapters/ESCBR.tex 1612 1612 (./chapters/ESCBR.tex
Chapitre 6. 1613 1613 Chapitre 6.
1614 1614
Underfull \vbox (badness 10000) has occurred while \output is active [] 1615 1615 Underfull \vbox (badness 10000) has occurred while \output is active []
1616 1616
[51 1617 1617 [51
1618 1618
1619 1619
1620 1620
1621 1621
] 1622 1622 ]
Underfull \hbox (badness 10000) in paragraph at lines 18--19 1623 1623 Underfull \hbox (badness 10000) in paragraph at lines 18--19
1624 1624
[] 1625 1625 []
1626 1626
1627 1627
Underfull \hbox (badness 10000) in paragraph at lines 18--19 1628 1628 Underfull \hbox (badness 10000) in paragraph at lines 18--19
1629 1629
[] 1630 1630 []
1631 1631
[52] 1632 1632 [52]
<./Figures/NCBR0.png, id=1042, 623.32875pt x 459.7175pt> 1633 1633 <./Figures/NCBR0.png, id=1042, 623.32875pt x 459.7175pt>
File: ./Figures/NCBR0.png Graphic file (type png) 1634 1634 File: ./Figures/NCBR0.png Graphic file (type png)
<use ./Figures/NCBR0.png> 1635 1635 <use ./Figures/NCBR0.png>
Package pdftex.def Info: ./Figures/NCBR0.png used on input line 28. 1636 1636 Package pdftex.def Info: ./Figures/NCBR0.png used on input line 28.
(pdftex.def) Requested size: 427.43153pt x 315.24129pt. 1637 1637 (pdftex.def) Requested size: 427.43153pt x 315.24129pt.
<./Figures/FlowCBR0.png, id=1045, 370.38374pt x 661.47125pt> 1638 1638 <./Figures/FlowCBR0.png, id=1045, 370.38374pt x 661.47125pt>
File: ./Figures/FlowCBR0.png Graphic file (type png) 1639 1639 File: ./Figures/FlowCBR0.png Graphic file (type png)
<use ./Figures/FlowCBR0.png> 1640 1640 <use ./Figures/FlowCBR0.png>
Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 37. 1641 1641 Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 37.
(pdftex.def) Requested size: 222.23195pt x 396.8858pt. 1642 1642 (pdftex.def) Requested size: 222.23195pt x 396.8858pt.
[53 <./Figures/NCBR0.png>] 1643 1643 [53 <./Figures/NCBR0.png>]
<./Figures/Stacking1.png, id=1058, 743.77875pt x 414.54875pt> 1644 1644 <./Figures/Stacking1.png, id=1058, 743.77875pt x 414.54875pt>
File: ./Figures/Stacking1.png Graphic file (type png) 1645 1645 File: ./Figures/Stacking1.png Graphic file (type png)
<use ./Figures/Stacking1.png> 1646 1646 <use ./Figures/Stacking1.png>
Package pdftex.def Info: ./Figures/Stacking1.png used on input line 76. 1647 1647 Package pdftex.def Info: ./Figures/Stacking1.png used on input line 76.
(pdftex.def) Requested size: 427.43153pt x 238.23717pt. 1648 1648 (pdftex.def) Requested size: 427.43153pt x 238.23717pt.
1649 1649
Underfull \vbox (badness 10000) has occurred while \output is active [] 1650 1650 Underfull \vbox (badness 10000) has occurred while \output is active []
1651 1651
[54 <./Figures/FlowCBR0.png>] 1652 1652 [54 <./Figures/FlowCBR0.png>]
<./Figures/AutomaticS.png, id=1067, 688.5725pt x 548.0475pt> 1653 1653 <./Figures/AutomaticS.png, id=1067, 688.5725pt x 548.0475pt>
File: ./Figures/AutomaticS.png Graphic file (type png) 1654 1654 File: ./Figures/AutomaticS.png Graphic file (type png)
<use ./Figures/AutomaticS.png> 1655 1655 <use ./Figures/AutomaticS.png>
Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 89. 1656 1656 Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 89.
(pdftex.def) Requested size: 427.43153pt x 340.20406pt. 1657 1657 (pdftex.def) Requested size: 427.43153pt x 340.20406pt.
1658 1658
Underfull \vbox (badness 3029) has occurred while \output is active [] 1659 1659 Underfull \vbox (badness 3029) has occurred while \output is active []
1660 1660
[55] 1661 1661 [55]
1662 1662
LaTeX Warning: Text page 56 contains only floats. 1663 1663 LaTeX Warning: Text page 56 contains only floats.
1664 1664
[56 <./Figures/Stacking1.png> <./Figures/AutomaticS.png>] [57] 1665 1665 [56 <./Figures/Stacking1.png> <./Figures/AutomaticS.png>] [57]
<./Figures/Stacking2.png, id=1096, 743.77875pt x 414.54875pt> 1666 1666 <./Figures/Stacking2.png, id=1096, 743.77875pt x 414.54875pt>
File: ./Figures/Stacking2.png Graphic file (type png) 1667 1667 File: ./Figures/Stacking2.png Graphic file (type png)
<use ./Figures/Stacking2.png> 1668 1668 <use ./Figures/Stacking2.png>
Package pdftex.def Info: ./Figures/Stacking2.png used on input line 203. 1669 1669 Package pdftex.def Info: ./Figures/Stacking2.png used on input line 203.
(pdftex.def) Requested size: 427.43153pt x 238.23717pt. 1670 1670 (pdftex.def) Requested size: 427.43153pt x 238.23717pt.
[58] 1671 1671 [58]
<Figures/FW.png, id=1114, 456.70625pt x 342.27875pt> 1672 1672 <Figures/FW.png, id=1114, 456.70625pt x 342.27875pt>
File: Figures/FW.png Graphic file (type png) 1673 1673 File: Figures/FW.png Graphic file (type png)
<use Figures/FW.png> 1674 1674 <use Figures/FW.png>
Package pdftex.def Info: Figures/FW.png used on input line 228. 1675 1675 Package pdftex.def Info: Figures/FW.png used on input line 228.
(pdftex.def) Requested size: 427.43153pt x 320.34758pt. 1676 1676 (pdftex.def) Requested size: 427.43153pt x 320.34758pt.
[59 <./Figures/Stacking2.png>] [60 <./Figures/FW.png>] [61] 1677 1677 [59 <./Figures/Stacking2.png>] [60 <./Figures/FW.png>] [61]
<./Figures/boxplot.png, id=1148, 1994.45125pt x 959.585pt> 1678 1678 <./Figures/boxplot.png, id=1148, 1994.45125pt x 959.585pt>
File: ./Figures/boxplot.png Graphic file (type png) 1679 1679 File: ./Figures/boxplot.png Graphic file (type png)
<use ./Figures/boxplot.png> 1680 1680 <use ./Figures/boxplot.png>
Package pdftex.def Info: ./Figures/boxplot.png used on input line 333. 1681 1681 Package pdftex.def Info: ./Figures/boxplot.png used on input line 333.
(pdftex.def) Requested size: 427.43153pt x 205.64786pt. 1682 1682 (pdftex.def) Requested size: 427.43153pt x 205.64786pt.
[62 <./Figures/boxplot.png>] 1683 1683 [62 <./Figures/boxplot.png>]
Underfull \hbox (badness 10000) in paragraph at lines 352--353 1684 1684 Underfull \hbox (badness 10000) in paragraph at lines 352--353
1685 1685
[] 1686 1686 []
1687 1687
1688 1688
Underfull \hbox (badness 10000) in paragraph at lines 352--353 1689 1689 Underfull \hbox (badness 10000) in paragraph at lines 352--353
1690 1690
[] 1691 1691 []
1692 1692
<Figures/NCBR.png, id=1156, 653.44125pt x 445.665pt> 1693 1693 <Figures/NCBR.png, id=1156, 653.44125pt x 445.665pt>
File: Figures/NCBR.png Graphic file (type png) 1694 1694 File: Figures/NCBR.png Graphic file (type png)
<use Figures/NCBR.png> 1695 1695 <use Figures/NCBR.png>
Package pdftex.def Info: Figures/NCBR.png used on input line 362. 1696 1696 Package pdftex.def Info: Figures/NCBR.png used on input line 362.
(pdftex.def) Requested size: 427.43153pt x 291.5149pt. 1697 1697 (pdftex.def) Requested size: 427.43153pt x 291.5149pt.
[63] 1698 1698 [63]
Underfull \vbox (badness 4492) has occurred while \output is active [] 1699 1699 Underfull \vbox (badness 4492) has occurred while \output is active []
1700 1700
[64 <./Figures/NCBR.png>] 1701 1701 [64 <./Figures/NCBR.png>]
<Figures/FlowCBR.png, id=1169, 450.68375pt x 822.07124pt> 1702 1702 <Figures/FlowCBR.png, id=1169, 450.68375pt x 822.07124pt>
File: Figures/FlowCBR.png Graphic file (type png) 1703 1703 File: Figures/FlowCBR.png Graphic file (type png)
<use Figures/FlowCBR.png> 1704 1704 <use Figures/FlowCBR.png>
Package pdftex.def Info: Figures/FlowCBR.png used on input line 376. 1705 1705 Package pdftex.def Info: Figures/FlowCBR.png used on input line 376.
(pdftex.def) Requested size: 270.41232pt x 493.24655pt. 1706 1706 (pdftex.def) Requested size: 270.41232pt x 493.24655pt.
1707 1707
Underfull \vbox (badness 10000) has occurred while \output is active [] 1708 1708 Underfull \vbox (badness 10000) has occurred while \output is active []
1709 1709
[65 <./Figures/FlowCBR.png>] 1710 1710 [65 <./Figures/FlowCBR.png>]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1711 1711 Underfull \vbox (badness 10000) has occurred while \output is active []
1712 1712
[66] 1713 1713 [66]
<Figures/agent.png, id=1183, 352.31625pt x 402.50375pt> 1714 1714 <Figures/agent.png, id=1183, 352.31625pt x 402.50375pt>
File: Figures/agent.png Graphic file (type png) 1715 1715 File: Figures/agent.png Graphic file (type png)
<use Figures/agent.png> 1716 1716 <use Figures/agent.png>
Package pdftex.def Info: Figures/agent.png used on input line 442. 1717 1717 Package pdftex.def Info: Figures/agent.png used on input line 442.
(pdftex.def) Requested size: 246.61969pt x 281.7507pt. 1718 1718 (pdftex.def) Requested size: 246.61969pt x 281.7507pt.
<Figures/BayesianEvolution.png, id=1186, 626.34pt x 402.50375pt> 1719 1719 <Figures/BayesianEvolution.png, id=1186, 626.34pt x 402.50375pt>
File: Figures/BayesianEvolution.png Graphic file (type png) 1720 1720 File: Figures/BayesianEvolution.png Graphic file (type png)
<use Figures/BayesianEvolution.png> 1721 1721 <use Figures/BayesianEvolution.png>
Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 455. 1722 1722 Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 455.
1723 1723
(pdftex.def) Requested size: 313.16922pt x 201.25137pt. 1724 1724 (pdftex.def) Requested size: 313.16922pt x 201.25137pt.
1725 1725
[67] [68 <./Figures/agent.png>] 1726 1726 [67] [68 <./Figures/agent.png>]
Underfull \hbox (badness 10000) in paragraph at lines 528--528 1727 1727 Underfull \hbox (badness 10000) in paragraph at lines 528--528
[]|\T1/phv/m/n/8 Input. 1728 1728 []|\T1/phv/m/n/8 Input.
[] 1729 1729 []
1730 1730
1731 1731
Underfull \hbox (badness 10000) in paragraph at lines 528--529 1732 1732 Underfull \hbox (badness 10000) in paragraph at lines 528--529
[]|\T1/phv/m/n/8 Output 1733 1733 []|\T1/phv/m/n/8 Output
[] 1734 1734 []
1735 1735
<Figures/boxplot2.png, id=1210, 1615.03375pt x 835.12pt> 1736 1736 <Figures/boxplot2.png, id=1210, 1615.03375pt x 835.12pt>
File: Figures/boxplot2.png Graphic file (type png) 1737 1737 File: Figures/boxplot2.png Graphic file (type png)
<use Figures/boxplot2.png> 1738 1738 <use Figures/boxplot2.png>
Package pdftex.def Info: Figures/boxplot2.png used on input line 626. 1739 1739 Package pdftex.def Info: Figures/boxplot2.png used on input line 626.
(pdftex.def) Requested size: 427.43153pt x 221.01265pt. 1740 1740 (pdftex.def) Requested size: 427.43153pt x 221.01265pt.
[69 <./Figures/BayesianEvolution.png>] [70 <./Figures/boxplot2.png>] 1741 1741 [69 <./Figures/BayesianEvolution.png>] [70 <./Figures/boxplot2.png>]
Underfull \vbox (badness 10000) has occurred while \output is active [] 1742 1742 Underfull \vbox (badness 10000) has occurred while \output is active []
1743 1743
[71]) 1744 1744 [71])
[72] 1745 1745 [72]
\openout2 = `./chapters/TS.aux'. 1746 1746 \openout2 = `./chapters/TS.aux'.
1747 1747
(./chapters/TS.tex 1748 1748 (./chapters/TS.tex
Chapitre 7. 1749 1749 Chapitre 7.
1750 1750
Underfull \vbox (badness 2512) has occurred while \output is active [] 1751 1751 Underfull \vbox (badness 2512) has occurred while \output is active []
1752 1752

No preview for this file type

main.synctex.gz View file @ d540f0b

No preview for this file type

\babel@toc {french}{}\relax 1 1 \babel@toc {french}{}\relax
\contentsline {part}{I\hspace {1em}Contexte et Problématiques}{1}{part.1}% 2 2 \contentsline {part}{I\hspace {1em}Contexte et Problématiques}{1}{part.1}%
\contentsline {chapter}{\numberline {1}Introduction}{3}{chapter.1}% 3 3 \contentsline {chapter}{\numberline {1}Introduction}{3}{chapter.1}%
\contentsline {section}{\numberline {1.1}Contributions Principales}{4}{section.1.1}% 4 4 \contentsline {section}{\numberline {1.1}Contributions Principales}{4}{section.1.1}%
\contentsline {section}{\numberline {1.2}Plan de la thèse}{5}{section.1.2}% 5 5 \contentsline {section}{\numberline {1.2}Plan de la thèse}{5}{section.1.2}%
\contentsline {chapter}{\numberline {2}Contexte}{7}{chapter.2}% 6 6 \contentsline {chapter}{\numberline {2}Contexte}{7}{chapter.2}%
\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{7}{section.2.1}% 7 7 \contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{7}{section.2.1}%
\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{7}{subsection.2.1.1}% 8 8 \contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{7}{subsection.2.1.1}%
\contentsline {subsection}{\numberline {2.1.2}Les EIAH}{8}{subsection.2.1.2}% 9 9 \contentsline {subsection}{\numberline {2.1.2}Les EIAH}{8}{subsection.2.1.2}%
\contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{9}{subsection.2.1.3}% 10 10 \contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{9}{subsection.2.1.3}%
\contentsline {section}{\numberline {2.2}Le contexte technique}{10}{section.2.2}% 11 11 \contentsline {section}{\numberline {2.2}Le contexte technique}{10}{section.2.2}%
\contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{10}{subsection.2.2.1}% 12 12 \contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{10}{subsection.2.2.1}%
\contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{12}{subsubsection.2.2.1.1}% 13 13 \contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{12}{subsubsection.2.2.1.1}%
\contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{12}{subsubsection.2.2.1.2}% 14 14 \contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{12}{subsubsection.2.2.1.2}%
\contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{12}{subsubsection.2.2.1.3}% 15 15 \contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{12}{subsubsection.2.2.1.3}%
\contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{13}{subsubsection.2.2.1.4}% 16 16 \contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{13}{subsubsection.2.2.1.4}%
\contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{14}{subsubsection.2.2.1.5}% 17 17 \contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{14}{subsubsection.2.2.1.5}%
\contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{14}{subsection.2.2.2}% 18 18 \contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{14}{subsection.2.2.2}%
\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées}{15}{subsection.2.2.3}% 19 19 \contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées}{15}{subsection.2.2.3}%
\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{15}{subsubsection.2.2.3.1}% 20 20 \contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{15}{subsubsection.2.2.3.1}%
\contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{16}{subsubsection.2.2.3.2}% 21 21 \contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{16}{subsubsection.2.2.3.2}%
\contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{17}{subsubsection.2.2.3.3}% 22 22 \contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{17}{subsubsection.2.2.3.3}%
\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{18}{subsubsection.2.2.3.4}% 23 23 \contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{18}{subsubsection.2.2.3.4}%
\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{18}{subsubsection.2.2.3.5}% 24 24 \contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{18}{subsubsection.2.2.3.5}%
\contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{19}{subsubsection.2.2.3.6}% 25 25 \contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{19}{subsubsection.2.2.3.6}%
\contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{19}{subsubsection.2.2.3.7}% 26 26 \contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{19}{subsubsection.2.2.3.7}%
\contentsline {part}{II\hspace {1em}État de l'art}{21}{part.2}% 27 27 \contentsline {part}{II\hspace {1em}État de l'art}{21}{part.2}%
\contentsline {chapter}{\numberline {3}Environnements Informatiques d'Apprentissage Humain}{23}{chapter.3}% 28 28 \contentsline {chapter}{\numberline {3}Environnements Informatiques d'Apprentissage Humain}{23}{chapter.3}%
\contentsline {section}{\numberline {3.1}L'Intelligence Artificielle}{23}{section.3.1}% 29 29 \contentsline {section}{\numberline {3.1}L'Intelligence Artificielle}{23}{section.3.1}%
\contentsline {section}{\numberline {3.2}Systèmes de recommandation dans les EIAH}{24}{section.3.2}% 30 30 \contentsline {section}{\numberline {3.2}Systèmes de recommandation dans les EIAH}{24}{section.3.2}%
\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}% 31 31 \contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}%
\contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}% 32 32 \contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}%
\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}% 33 33 \contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}%
\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}% 34 34 \contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}%
\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}% 35 35 \contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}%
\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}% 36 36 \contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}%
\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}% 37 37 \contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}%
\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}% 38 38 \contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}%
\contentsline {part}{III\hspace {1em}Contributions}{39}{part.3}% 39 39 \contentsline {part}{III\hspace {1em}Contributions}{39}{part.3}%
\contentsline {chapter}{\numberline {5}Architecture Globale pour le Système AI-VT}{41}{chapter.5}% 40 40 \contentsline {chapter}{\numberline {5}Architecture Globale pour le Système AI-VT}{41}{chapter.5}%
\contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}% 41 41 \contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}%
\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}% 42 42 \contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}%
\contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}% 43 43 \contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}%
\contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}% 44 44 \contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}%
\contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}% 45 45 \contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}%
\contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}% 46 46 \contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}%
\contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}% 47 47 \contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}%
\contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}% 48 48 \contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}%
\contentsline {chapter}{\numberline {6}Raisonnement à partir de cas (RàPC) pour Régression}{51}{chapter.6}% 49 49 \contentsline {chapter}{\numberline {6}Raisonnement à partir de cas (RàPC) pour Régression}{51}{chapter.6}%
\contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}% 50 50 \contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}%
\contentsline {section}{\numberline {6.2}PREMIÈRE PARTIE}{52}{section.6.2}% 51 51 \contentsline {section}{\numberline {6.2}PREMIÈRE PARTIE}{52}{section.6.2}%
\contentsline {subsection}{\numberline {6.2.1}Modèle Proposé}{52}{subsection.6.2.1}% 52 52 \contentsline {subsection}{\numberline {6.2.1}Modèle Proposé}{52}{subsection.6.2.1}%
\contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{53}{subsubsection.6.2.1.1}% 53 53 \contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{53}{subsubsection.6.2.1.1}%
\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}% 54 54 \contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}%
\contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}% 55 55 \contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}%
\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}% 56 56 \contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}%
\contentsline {subsection}{\numberline {6.2.2}Résultats}{60}{subsection.6.2.2}% 57 57 \contentsline {subsection}{\numberline {6.2.2}Résultats}{60}{subsection.6.2.2}%
\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}% 58 58 \contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}%
\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}% 59 59 \contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}%
\contentsline {section}{\numberline {6.3}SECONDE PARTIE}{63}{section.6.3}% 60 60 \contentsline {section}{\numberline {6.3}SECONDE PARTIE}{63}{section.6.3}%
\contentsline {subsection}{\numberline {6.3.1}Modèle Proposé}{63}{subsection.6.3.1}% 61 61 \contentsline {subsection}{\numberline {6.3.1}Modèle Proposé}{63}{subsection.6.3.1}%
\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{66}{subsubsection.6.3.1.1}% 62 62 \contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{66}{subsubsection.6.3.1.1}%
\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}% 63 63 \contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}%
\contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}% 64 64 \contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}%
\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{68}{subsubsection.6.3.1.4}% 65 65 \contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{68}{subsubsection.6.3.1.4}%
\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}% 66 66 \contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}%
\contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}% 67 67 \contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}%
\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}% 68 68 \contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}%
\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}% 69 69 \contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}%
\contentsline {section}{\numberline {7.2}PREMIÈRE PARTIE}{74}{section.7.2}% 70 70 \contentsline {section}{\numberline {7.2}PREMIÈRE PARTIE}{74}{section.7.2}%
\contentsline {subsection}{\numberline {7.2.1}Modèle Proposé}{74}{subsection.7.2.1}% 71 71 \contentsline {subsection}{\numberline {7.2.1}Modèle Proposé}{74}{subsection.7.2.1}%
\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}% 72 72 \contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}%
\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{83}{subsection.7.2.3}% 73 73 \contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{83}{subsection.7.2.3}%
\contentsline {section}{\numberline {7.3}DEUXIÈME PARTIE}{84}{section.7.3}% 74 74 \contentsline {section}{\numberline {7.3}DEUXIÈME PARTIE}{84}{section.7.3}%
\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}% 75 75 \contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}%
\contentsline {subsection}{\numberline {7.3.2}Modèle Proposé}{87}{subsection.7.3.2}% 76 76 \contentsline {subsection}{\numberline {7.3.2}Modèle Proposé}{87}{subsection.7.3.2}%
\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}% 77 77 \contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}%
\contentsline {subsubsection}{\numberline {7.3.3.1}Régression dans la base de données des apprenants avec ESCBR-SMA}{89}{subsubsection.7.3.3.1}% 78 78 \contentsline {subsubsection}{\numberline {7.3.3.1}Régression dans la base de données des apprenants avec ESCBR-SMA}{89}{subsubsection.7.3.3.1}%
\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{90}{subsubsection.7.3.3.2}% 79 79 \contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{90}{subsubsection.7.3.3.2}%
\contentsline {subsubsection}{\numberline {7.3.3.3}Comparaison entre TS et BKT}{91}{subsubsection.7.3.3.3}% 80 80 \contentsline {subsubsection}{\numberline {7.3.3.3}Comparaison entre TS et BKT}{91}{subsubsection.7.3.3.3}%
\contentsline {subsubsection}{\numberline {7.3.3.4}Système de recommandation avec ESCBR-SMA}{92}{subsubsection.7.3.3.4}% 81 81 \contentsline {subsubsection}{\numberline {7.3.3.4}Système de recommandation avec ESCBR-SMA}{92}{subsubsection.7.3.3.4}%
\contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.5}% 82 82 \contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.5}%
\contentsline {subsection}{\numberline {7.3.4}Conclusion}{93}{subsection.7.3.4}% 83 83 \contentsline {subsection}{\numberline {7.3.4}Conclusion}{94}{subsection.7.3.4}%
\contentsline {section}{\numberline {7.4}TROISIÈME PARTIE}{94}{section.7.4}% 84 84 \contentsline {section}{\numberline {7.4}TROISIÈME PARTIE}{95}{section.7.4}%
\contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{94}{subsection.7.4.1}% 85 85 \contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{95}{subsection.7.4.1}%
\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{96}{subsection.7.4.2}% 86 86 \contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}%
\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{96}{subsubsection.7.4.2.1}% 87 87 \contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{98}{subsubsection.7.4.2.1}%
\contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{96}{subsubsection.7.4.2.2}% 88 88 \contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{98}{subsubsection.7.4.2.2}%
\contentsline {subsection}{\numberline {7.4.3}Conclusion}{97}{subsection.7.4.3}% 89 89 \contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}%
\contentsline {chapter}{\numberline {8}Publications}{103}{chapter.8}% 90 90 \contentsline {chapter}{\numberline {8}Publications}{103}{chapter.8}%
\contentsline {section}{\numberline {8.1}Publications par rapport au sujet de thèse}{103}{section.8.1}% 91 91 \contentsline {section}{\numberline {8.1}Publications par rapport au sujet de thèse}{103}{section.8.1}%
\contentsline {section}{\numberline {8.2}Autres publications}{104}{section.8.2}% 92 92 \contentsline {section}{\numberline {8.2}Autres publications}{104}{section.8.2}%
93 93