Commit c9708fefec3321991980c57ac689b176fdcd0e0b

Authored by henriet
1 parent e2677c316c
Exists in main

Ajout ESCBR.tex

Showing 9 changed files with 361 additions and 332 deletions Inline Diff

chapters/Architecture.aux View file @ c9708fe
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{10.1007/978-3-031-63646-2_13} 3 3 \citation{10.1007/978-3-031-63646-2_13}
\citation{Auer} 4 4 \citation{Auer}
\citation{jmse10040464} 5 5 \citation{jmse10040464}
\@writefile{toc}{\contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 7 7 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 8 8 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}\protected@file@percent } 9 9 \@writefile{toc}{\contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}\protected@file@percent }
\citation{Daubias2011} 10 10 \citation{Daubias2011}
\citation{10.1007/978-3-030-01081-2_9} 11 11 \citation{10.1007/978-3-030-01081-2_9}
\@writefile{toc}{\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}\protected@file@percent } 12 12 \@writefile{toc}{\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {5.1}{\ignorespaces Structure du système AI-VT\relax }}{42}{figure.caption.17}\protected@file@percent } 13 13 \@writefile{lof}{\contentsline {figure}{\numberline {5.1}{\ignorespaces Structure du système AI-VT}}{42}{figure.caption.17}\protected@file@percent }
\newlabel{fig:figSys1}{{5.1}{42}{Structure du système AI-VT\relax }{figure.caption.17}{}} 14 14 \newlabel{fig:figSys1}{{5.1}{42}{Structure du système AI-VT}{figure.caption.17}{}}
\@writefile{lot}{\contentsline {table}{\numberline {5.1}{\ignorespaces Un tableau décrivant les caractéristiques du système AI-VT\relax }}{43}{table.caption.18}\protected@file@percent } 15 15 \@writefile{lot}{\contentsline {table}{\numberline {5.1}{\ignorespaces Un tableau décrivant les caractéristiques du système AI-VT}}{43}{table.caption.18}\protected@file@percent }
\newlabel{tabDesc}{{5.1}{43}{Un tableau décrivant les caractéristiques du système AI-VT\relax }{table.caption.18}{}} 16 16 \newlabel{tabDesc}{{5.1}{43}{Un tableau décrivant les caractéristiques du système AI-VT}{table.caption.18}{}}
\@writefile{toc}{\contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}\protected@file@percent } 17 17 \@writefile{toc}{\contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {5.2}{\ignorespaces Schème de l'architecture proposée\relax }}{45}{figure.caption.19}\protected@file@percent } 18 18 \@writefile{lof}{\contentsline {figure}{\numberline {5.2}{\ignorespaces Schème de l'architecture proposée}}{45}{figure.caption.19}\protected@file@percent }
\newlabel{fig:sa1}{{5.2}{45}{Schème de l'architecture proposée\relax }{figure.caption.19}{}} 19 19 \newlabel{fig:sa1}{{5.2}{45}{Schème de l'architecture proposée}{figure.caption.19}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}\protected@file@percent } 20 20 \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}\protected@file@percent } 21 21 \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}\protected@file@percent } 22 22 \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}\protected@file@percent } 23 23 \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {5.3}{\ignorespaces Relation entre les couches définies de l'architecture.\relax }}{49}{figure.caption.20}\protected@file@percent } 24 24 \@writefile{lof}{\contentsline {figure}{\numberline {5.3}{\ignorespaces Relation entre les couches définies de l'architecture.}}{49}{figure.caption.20}\protected@file@percent }
\newlabel{fig:figLayers}{{5.3}{49}{Relation entre les couches définies de l'architecture.\relax }{figure.caption.20}{}} 25 25 \newlabel{fig:figLayers}{{5.3}{49}{Relation entre les couches définies de l'architecture}{figure.caption.20}{}}
\@writefile{toc}{\contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}\protected@file@percent } 26 26 \@writefile{toc}{\contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {5.4}{\ignorespaces Étapes du flux de l'information pour la fonctionnalité de recommandation globale.\relax }}{50}{figure.caption.21}\protected@file@percent } 27 27 \@writefile{lof}{\contentsline {figure}{\numberline {5.4}{\ignorespaces Étapes du flux de l'information pour la fonctionnalité de recommandation globale.}}{50}{figure.caption.21}\protected@file@percent }
\newlabel{fig:figFlow}{{5.4}{50}{Étapes du flux de l'information pour la fonctionnalité de recommandation globale.\relax }{figure.caption.21}{}} 28 28 \newlabel{fig:figFlow}{{5.4}{50}{Étapes du flux de l'information pour la fonctionnalité de recommandation globale}{figure.caption.21}{}}
\@setckpt{./chapters/Architecture}{ 29 29 \@setckpt{./chapters/Architecture}{
\setcounter{page}{51} 30 30 \setcounter{page}{51}
\setcounter{equation}{0} 31 31 \setcounter{equation}{0}
\setcounter{enumi}{0} 32 32 \setcounter{enumi}{0}
\setcounter{enumii}{0} 33 33 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 34 34 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 35 35 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 36 36 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 37 37 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 38 38 \setcounter{part}{3}
\setcounter{chapter}{5} 39 39 \setcounter{chapter}{5}
\setcounter{section}{4} 40 40 \setcounter{section}{4}
\setcounter{subsection}{0} 41 41 \setcounter{subsection}{0}
\setcounter{subsubsection}{0} 42 42 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 43 43 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 44 44 \setcounter{subparagraph}{0}
\setcounter{figure}{4} 45 45 \setcounter{figure}{4}
\setcounter{table}{1} 46 46 \setcounter{table}{1}
47 \setcounter{section@level}{0}
48 \setcounter{Item}{0}
49 \setcounter{Hfootnote}{0}
50 \setcounter{bookmark@seq@number}{48}
\setcounter{caption@flags}{2} 47 51 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 48 52 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 49 53 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 50 54 \setcounter{subtable}{0}
55 \setcounter{tcbbreakpart}{1}
56 \setcounter{tcblayer}{0}
57 \setcounter{tcolorbox@number}{1}
\setcounter{parentequation}{0} 51 58 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 52 59 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 53 60 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 54 61 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 55 62 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{1} 56 63 \setcounter{upm@format@section@sectionlevel}{0}
64 \setcounter{ttlp@side}{0}
\setcounter{upm@fmt@savedcounter}{0} 57 65 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 58 66 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 59 67 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 60 68 \setcounter{tcb@cnt@upm@definition}{0}
\setcounter{section@level}{1} 61
\setcounter{Item}{0} 62
\setcounter{Hfootnote}{0} 63
\setcounter{bookmark@seq@number}{47} 64
\setcounter{DefaultLines}{2} 65 69 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 66 70 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 67 71 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 68 72 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 69 73 \setcounter{float@type}{16}
\setcounter{algorithm}{0} 70 74 \setcounter{algorithm}{0}
\setcounter{ALG@line}{0} 71 75 \setcounter{ALG@line}{0}
\setcounter{ALG@rem}{0} 72 76 \setcounter{ALG@rem}{0}
\setcounter{ALG@nested}{0} 73 77 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 74 78 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 75 79 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 76 80 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 77 81 \setcounter{ALG@tmpcounter}{0}
} 78 82 }
79 83
chapters/CBR.aux View file @ c9708fe
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{schank+abelson77} 3 3 \citation{schank+abelson77}
\citation{KOLODNER1983281} 4 4 \citation{KOLODNER1983281}
\citation{Riesbeck1989} 5 5 \citation{Riesbeck1989}
\citation{JUNG20095695} 6 6 \citation{JUNG20095695}
\@writefile{toc}{\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}\protected@file@percent } 7 7 \@writefile{toc}{\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 8 8 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 9 9 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}\protected@file@percent } 10
\citation{10.1007/978-3-642-15973-2_50} 11 10 \citation{10.1007/978-3-642-15973-2_50}
\citation{PETROVIC201617} 12 11 \citation{PETROVIC201617}
\citation{10.1007/978-3-319-24586-7_20} 13 12 \citation{10.1007/978-3-319-24586-7_20}
\citation{10.1007/978-3-030-58342-2_20} 14 13 \@writefile{toc}{\contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{30}{section.4.1}\protected@file@percent }
\@writefile{toc}{\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}\protected@file@percent } 15 14 \@writefile{toc}{\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}\protected@file@percent }
15 \citation{10.1007/978-3-030-58342-2_20}
\citation{wolf2024keep} 16 16 \citation{wolf2024keep}
\citation{PAREJASLLANOVARCED2024111469} 17 17 \citation{PAREJASLLANOVARCED2024111469}
\citation{Muller} 18 18 \citation{Muller}
\citation{10.1007/978-3-319-47096-2_11} 19 19 \citation{10.1007/978-3-319-47096-2_11}
\citation{10.1007/978-3-642-15973-2_50} 20 20 \citation{10.1007/978-3-642-15973-2_50}
\citation{Robertson2014ARO} 21 21 \citation{Robertson2014ARO}
22 \@writefile{toc}{\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}\protected@file@percent }
\citation{10.1007/978-3-319-47096-2_11} 22 23 \citation{10.1007/978-3-319-47096-2_11}
\citation{10.1007/978-3-319-47096-2_11} 23 24 \citation{10.1007/978-3-319-47096-2_11}
\@writefile{toc}{\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}\protected@file@percent } 24
\citation{ROLDANREYES20151} 25 25 \citation{ROLDANREYES20151}
\citation{ROLDANREYES20151} 26 26 \citation{ROLDANREYES20151}
\citation{ROLDANREYES20151} 27 27 \citation{ROLDANREYES20151}
\citation{10.1007/978-3-319-47096-2_11} 28 28 \citation{10.1007/978-3-319-47096-2_11}
\citation{10.1007/978-3-319-61030-6_1} 29 29 \citation{10.1007/978-3-319-61030-6_1}
\@writefile{lof}{\contentsline {figure}{\numberline {4.1}{\ignorespaces Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }}{32}{figure.caption.13}\protected@file@percent } 30 30 \@writefile{lof}{\contentsline {figure}{\numberline {4.1}{\ignorespaces Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})}}{32}{figure.caption.13}\protected@file@percent }
\newlabel{fig:figMCBR2}{{4.1}{32}{Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }{figure.caption.13}{}} 31 31 \newlabel{fig:figMCBR2}{{4.1}{32}{Ajout d'un cycle complémentaire avec \protect \textit {Deep Learning} au RàPC (Traduit de \protect \cite {10.1007/978-3-319-47096-2_11})}{figure.caption.13}{}}
\citation{buildings13030651} 32 32 \citation{buildings13030651}
\citation{YU2023110163} 33 33 \citation{YU2023110163}
\@writefile{lof}{\contentsline {figure}{\numberline {4.2}{\ignorespaces Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }}{33}{figure.caption.14}\protected@file@percent } 34 34 \@writefile{lof}{\contentsline {figure}{\numberline {4.2}{\ignorespaces Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})}}{33}{figure.caption.14}\protected@file@percent }
\newlabel{fig:figMCBR1}{{4.2}{33}{Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }{figure.caption.14}{}} 35 35 \newlabel{fig:figMCBR1}{{4.2}{33}{Cycle du RàPC modifié. (Traduit de \protect \cite {ROLDANREYES20151})}{figure.caption.14}{}}
\@writefile{toc}{\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}\protected@file@percent } 36 36 \@writefile{toc}{\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}\protected@file@percent }
\citation{10.1007/978-3-031-63646-2_4} 37 37 \citation{10.1007/978-3-031-63646-2_4}
\citation{10.1007/978-3-030-01081-2_25} 38 38 \citation{10.1007/978-3-030-01081-2_25}
\citation{10.1007/978-3-030-58342-2_8} 39 39 \citation{10.1007/978-3-030-58342-2_8}
\citation{10.1007/978-3-030-58342-2_5} 40 40 \citation{10.1007/978-3-030-58342-2_5}
\citation{YU2024123745} 41 41 \citation{YU2024123745}
\citation{Sadeghi} 42 42 \citation{Sadeghi}
\@writefile{toc}{\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}\protected@file@percent } 43 43 \@writefile{toc}{\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}\protected@file@percent }
\citation{8495930} 44 44 \citation{8495930}
\citation{Obeid} 45 45 \citation{Obeid}
\citation{skittou2024recommender} 46 46 \citation{skittou2024recommender}
\citation{Obeid} 47 47 \citation{Obeid}
\citation{Obeid} 48 48 \citation{Obeid}
\citation{HU2025127130} 49 49 \citation{HU2025127130}
\citation{ALABDULRAHMAN2021114061} 50
\@writefile{toc}{\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}\protected@file@percent } 51 50 \@writefile{toc}{\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}\protected@file@percent }
\@writefile{toc}{\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}\protected@file@percent } 52 51 \@writefile{toc}{\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}\protected@file@percent }
52 \citation{ALABDULRAHMAN2021114061}
\citation{JUNG20095695} 53 53 \citation{JUNG20095695}
\citation{10.1007/978-3-642-15973-2_50} 54 54 \citation{10.1007/978-3-642-15973-2_50}
\citation{PETROVIC201617} 55 55 \citation{PETROVIC201617}
\citation{wolf2024keep} 56 56 \citation{wolf2024keep}
\citation{PAREJASLLANOVARCED2024111469} 57 57 \citation{PAREJASLLANOVARCED2024111469}
\citation{ROLDANREYES20151} 58 58 \citation{ROLDANREYES20151}
\citation{10.1007/978-3-319-47096-2_11} 59 59 \citation{10.1007/978-3-319-47096-2_11}
\citation{10.1007/978-3-319-61030-6_1} 60 60 \citation{10.1007/978-3-319-61030-6_1}
\citation{buildings13030651} 61 61 \citation{buildings13030651}
\citation{YU2023110163} 62 62 \citation{YU2023110163}
\citation{Muller} 63 63 \citation{Muller}
\citation{10.1007/978-3-319-24586-7_20} 64 64 \citation{10.1007/978-3-319-24586-7_20}
\citation{10.1007/978-3-030-58342-2_20} 65 65 \citation{10.1007/978-3-030-58342-2_20}
\citation{10.1007/978-3-031-63646-2_4} 66 66 \citation{10.1007/978-3-031-63646-2_4}
\citation{10.1007/978-3-030-01081-2_25} 67 67 \citation{10.1007/978-3-030-01081-2_25}
\citation{10.1007/978-3-030-58342-2_8} 68 68 \citation{10.1007/978-3-030-58342-2_8}
\citation{10.1007/978-3-030-58342-2_5} 69 69 \citation{10.1007/978-3-030-58342-2_5}
\citation{YU2024123745} 70 70 \citation{YU2024123745}
\citation{Sadeghi} 71 71 \citation{Sadeghi}
\citation{8495930} 72 72 \citation{8495930}
\citation{Obeid} 73 73 \citation{Obeid}
\citation{skittou2024recommender} 74 74 \citation{skittou2024recommender}
\@writefile{lof}{\contentsline {figure}{\numberline {4.3}{\ignorespaces Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }}{36}{figure.caption.15}\protected@file@percent } 75 75 \@writefile{lof}{\contentsline {figure}{\numberline {4.3}{\ignorespaces Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})}}{36}{figure.caption.15}\protected@file@percent }
\newlabel{fig:figTax}{{4.3}{36}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }{figure.caption.15}{}} 76 76 \newlabel{fig:figTax}{{4.3}{36}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \protect \cite {Obeid})}{figure.caption.15}{}}
\@writefile{lot}{\contentsline {table}{\numberline {4.1}{\ignorespaces Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }}{37}{table.caption.16}\protected@file@percent } 77 77 \@writefile{lot}{\contentsline {table}{\numberline {4.1}{\ignorespaces Tableau de synthèse des articles analysés dans l’état de l’art du RàPC}}{37}{table.caption.16}\protected@file@percent }
\newlabel{tabArts2}{{4.1}{37}{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }{table.caption.16}{}} 78 78 \newlabel{tabArts2}{{4.1}{37}{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC}{table.caption.16}{}}
\@setckpt{./chapters/CBR}{ 79 79 \@setckpt{./chapters/CBR}{
\setcounter{page}{38} 80 80 \setcounter{page}{38}
\setcounter{equation}{0} 81 81 \setcounter{equation}{0}
\setcounter{enumi}{0} 82 82 \setcounter{enumi}{0}
\setcounter{enumii}{0} 83 83 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 84 84 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 85 85 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 86 86 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 87 87 \setcounter{mpfootnote}{0}
\setcounter{part}{2} 88 88 \setcounter{part}{2}
\setcounter{chapter}{4} 89 89 \setcounter{chapter}{4}
\setcounter{section}{7} 90 90 \setcounter{section}{7}
\setcounter{subsection}{0} 91 91 \setcounter{subsection}{0}
\setcounter{subsubsection}{0} 92 92 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 93 93 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 94 94 \setcounter{subparagraph}{0}
\setcounter{figure}{3} 95 95 \setcounter{figure}{3}
\setcounter{table}{1} 96 96 \setcounter{table}{1}
97 \setcounter{section@level}{0}
98 \setcounter{Item}{0}
99 \setcounter{Hfootnote}{0}
100 \setcounter{bookmark@seq@number}{38}
\setcounter{caption@flags}{2} 97 101 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 98 102 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 99 103 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 100 104 \setcounter{subtable}{0}
105 \setcounter{tcbbreakpart}{1}
106 \setcounter{tcblayer}{0}
107 \setcounter{tcolorbox@number}{1}
\setcounter{parentequation}{0} 101 108 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 102 109 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 103 110 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 104 111 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 105 112 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{1} 106 113 \setcounter{upm@format@section@sectionlevel}{0}
114 \setcounter{ttlp@side}{0}
\setcounter{upm@fmt@savedcounter}{0} 107 115 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 108 116 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 109 117 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 110 118 \setcounter{tcb@cnt@upm@definition}{0}
\setcounter{section@level}{1} 111
\setcounter{Item}{0} 112
\setcounter{Hfootnote}{0} 113
\setcounter{bookmark@seq@number}{37} 114
\setcounter{DefaultLines}{2} 115 119 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 116 120 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 117 121 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 118 122 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 119 123 \setcounter{float@type}{16}
\setcounter{algorithm}{0} 120 124 \setcounter{algorithm}{0}
\setcounter{ALG@line}{0} 121 125 \setcounter{ALG@line}{0}
\setcounter{ALG@rem}{0} 122 126 \setcounter{ALG@rem}{0}
\setcounter{ALG@nested}{0} 123 127 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 124 128 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 125 129 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 126 130 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 127 131 \setcounter{ALG@tmpcounter}{0}
} 128 132 }
129 133
chapters/Conclusions.aux View file @ c9708fe
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\@writefile{toc}{\contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{101}{chapter.8}\protected@file@percent } 3 3 \@writefile{toc}{\contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{103}{chapter.8}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 4 4 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 5 5 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {8.1}Conclusion générale}{101}{section.8.1}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {section}{\numberline {8.1}Conclusion générale}{103}{section.8.1}\protected@file@percent }
\@writefile{toc}{\contentsline {section}{\numberline {8.2}Perspectives}{101}{section.8.2}\protected@file@percent } 7 7 \@writefile{toc}{\contentsline {section}{\numberline {8.2}Perspectives}{104}{section.8.2}\protected@file@percent }
\@setckpt{./chapters/Conclusions}{ 8 8 \@setckpt{./chapters/Conclusions}{
\setcounter{page}{103} 9 9 \setcounter{page}{105}
\setcounter{equation}{0} 10 10 \setcounter{equation}{0}
\setcounter{enumi}{0} 11 11 \setcounter{enumi}{0}
\setcounter{enumii}{0} 12 12 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 13 13 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 14 14 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 15 15 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 16 16 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 17 17 \setcounter{part}{3}
\setcounter{chapter}{8} 18 18 \setcounter{chapter}{8}
\setcounter{section}{2} 19 19 \setcounter{section}{2}
\setcounter{subsection}{0} 20 20 \setcounter{subsection}{0}
\setcounter{subsubsection}{0} 21 21 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 22 22 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 23 23 \setcounter{subparagraph}{0}
\setcounter{figure}{0} 24 24 \setcounter{figure}{0}
\setcounter{table}{0} 25 25 \setcounter{table}{0}
26 \setcounter{section@level}{0}
27 \setcounter{Item}{0}
28 \setcounter{Hfootnote}{0}
29 \setcounter{bookmark@seq@number}{92}
\setcounter{caption@flags}{2} 26 30 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 27 31 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 28 32 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 29 33 \setcounter{subtable}{0}
34 \setcounter{tcbbreakpart}{1}
35 \setcounter{tcblayer}{0}
36 \setcounter{tcolorbox@number}{1}
\setcounter{parentequation}{0} 30 37 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 31 38 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 32 39 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 33 40 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 34 41 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{1} 35 42 \setcounter{upm@format@section@sectionlevel}{0}
43 \setcounter{ttlp@side}{0}
\setcounter{upm@fmt@savedcounter}{0} 36 44 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 37 45 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 38 46 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 39 47 \setcounter{tcb@cnt@upm@definition}{0}
\setcounter{section@level}{1} 40
\setcounter{Item}{0} 41
\setcounter{Hfootnote}{0} 42
\setcounter{bookmark@seq@number}{91} 43
\setcounter{DefaultLines}{2} 44 48 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 45 49 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 46 50 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 47 51 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 48 52 \setcounter{float@type}{16}
\setcounter{algorithm}{1} 49 53 \setcounter{algorithm}{1}
\setcounter{ALG@line}{8} 50 54 \setcounter{ALG@line}{8}
\setcounter{ALG@rem}{8} 51 55 \setcounter{ALG@rem}{8}
\setcounter{ALG@nested}{0} 52 56 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 53 57 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 54 58 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 55 59 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 56 60 \setcounter{ALG@tmpcounter}{0}
} 57 61 }
58 62
chapters/EIAH.aux View file @ c9708fe
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{ZHANG2021100025} 3 3 \citation{ZHANG2021100025}
\citation{CHIU2023100118} 4 4 \citation{CHIU2023100118}
\@writefile{toc}{\contentsline {chapter}{\numberline {3}Environnements Informatiques d'Apprentissage Humain}{23}{chapter.3}\protected@file@percent } 5 5 \@writefile{toc}{\contentsline {chapter}{\numberline {3}Environnements Informatiques d'Apprentissage Humain}{23}{chapter.3}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 6 6 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 7 7 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {3.1}L'Intelligence Artificielle}{23}{section.3.1}\protected@file@percent } 8 8 \@writefile{toc}{\contentsline {section}{\numberline {3.1}L'Intelligence Artificielle}{23}{section.3.1}\protected@file@percent }
\citation{Robertson2014ARO} 9 9 \citation{Robertson2014ARO}
\citation{MUANGPRATHUB2020e05227} 10 10 \citation{MUANGPRATHUB2020e05227}
\citation{HUANG2023104684} 11 11 \citation{HUANG2023104684}
\citation{HUANG2023104684} 12 12 \citation{HUANG2023104684}
\citation{HUANG2023104684} 13 13 \citation{HUANG2023104684}
\citation{pmlr-v108-seznec20a} 14 14 \citation{pmlr-v108-seznec20a}
\@writefile{toc}{\contentsline {section}{\numberline {3.2}Systèmes de recommandation dans les EIAH}{24}{section.3.2}\protected@file@percent } 15 15 \@writefile{toc}{\contentsline {section}{\numberline {3.2}Systèmes de recommandation dans les EIAH}{24}{section.3.2}\protected@file@percent }
\citation{INGKAVARA2022100086} 16 16 \citation{INGKAVARA2022100086}
\citation{LALITHA2020583} 17 17 \citation{LALITHA2020583}
\citation{ZHAO2023118535} 18 18 \citation{ZHAO2023118535}
19 \@writefile{lof}{\contentsline {figure}{\numberline {3.1}{\ignorespaces Traduction de l'architecture du système de recommandation proposé dans \cite {HUANG2023104684}}}{25}{figure.caption.10}\protected@file@percent }
20 \newlabel{figArch}{{3.1}{25}{Traduction de l'architecture du système de recommandation proposé dans \cite {HUANG2023104684}}{figure.caption.10}{}}
\citation{SU2022109547} 19 21 \citation{SU2022109547}
\citation{MUANGPRATHUB2020e05227} 20 22 \citation{MUANGPRATHUB2020e05227}
\@writefile{lof}{\contentsline {figure}{\numberline {3.1}{\ignorespaces Traduction de l'architecture du système de recommandation proposé dans \cite {HUANG2023104684}\relax }}{25}{figure.caption.10}\protected@file@percent } 21
\newlabel{figArch}{{3.1}{25}{Traduction de l'architecture du système de recommandation proposé dans \cite {HUANG2023104684}\relax }{figure.caption.10}{}} 22
\citation{Zhou2021} 23 23 \citation{Zhou2021}
\citation{EZALDEEN2022100700} 24 24 \citation{EZALDEEN2022100700}
\citation{EZALDEEN2022100700} 25 25 \citation{EZALDEEN2022100700}
\citation{EZALDEEN2022100700} 26 26 \citation{EZALDEEN2022100700}
\citation{ZHANG2021100025} 27 27 \citation{ZHANG2021100025}
\citation{CHIU2023100118} 28 28 \citation{CHIU2023100118}
\citation{Robertson2014ARO} 29 29 \citation{Robertson2014ARO}
\citation{HUANG2023104684} 30 30 \citation{HUANG2023104684}
\citation{pmlr-v108-seznec20a} 31 31 \citation{pmlr-v108-seznec20a}
\citation{INGKAVARA2022100086} 32 32 \citation{INGKAVARA2022100086}
\citation{LALITHA2020583} 33 33 \citation{LALITHA2020583}
\citation{SU2022109547} 34 34 \citation{SU2022109547}
\citation{MUANGPRATHUB2020e05227} 35 35 \citation{MUANGPRATHUB2020e05227}
\citation{Zhou2021} 36 36 \citation{Zhou2021}
\citation{EZALDEEN2022100700} 37 37 \citation{EZALDEEN2022100700}
\@writefile{lof}{\contentsline {figure}{\numberline {3.2}{\ignorespaces Traduction des niveaux du système de recommandation dans \cite {EZALDEEN2022100700}\relax }}{27}{figure.caption.11}\protected@file@percent } 38 38 \@writefile{lof}{\contentsline {figure}{\numberline {3.2}{\ignorespaces Traduction des niveaux du système de recommandation dans \cite {EZALDEEN2022100700}}}{27}{figure.caption.11}\protected@file@percent }
\newlabel{fig:figLevels}{{3.2}{27}{Traduction des niveaux du système de recommandation dans \cite {EZALDEEN2022100700}\relax }{figure.caption.11}{}} 39 39 \newlabel{fig:figLevels}{{3.2}{27}{Traduction des niveaux du système de recommandation dans \protect \cite {EZALDEEN2022100700}}{figure.caption.11}{}}
\@writefile{lot}{\contentsline {table}{\numberline {3.1}{\ignorespaces Tableau de synthèse des articles analysés dans l'état de l'art des EIAH\relax }}{28}{table.caption.12}\protected@file@percent } 40 40 \@writefile{lot}{\contentsline {table}{\numberline {3.1}{\ignorespaces Tableau de synthèse des articles analysés dans l'état de l'art des EIAH}}{28}{table.caption.12}\protected@file@percent }
\newlabel{tabArts}{{3.1}{28}{Tableau de synthèse des articles analysés dans l'état de l'art des EIAH\relax }{table.caption.12}{}} 41 41 \newlabel{tabArts}{{3.1}{28}{Tableau de synthèse des articles analysés dans l'état de l'art des EIAH}{table.caption.12}{}}
\@setckpt{./chapters/EIAH}{ 42 42 \@setckpt{./chapters/EIAH}{
\setcounter{page}{29} 43 43 \setcounter{page}{29}
\setcounter{equation}{0} 44 44 \setcounter{equation}{0}
\setcounter{enumi}{0} 45 45 \setcounter{enumi}{0}
\setcounter{enumii}{0} 46 46 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 47 47 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 48 48 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 49 49 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 50 50 \setcounter{mpfootnote}{0}
\setcounter{part}{2} 51 51 \setcounter{part}{2}
\setcounter{chapter}{3} 52 52 \setcounter{chapter}{3}
\setcounter{section}{2} 53 53 \setcounter{section}{2}
\setcounter{subsection}{0} 54 54 \setcounter{subsection}{0}
\setcounter{subsubsection}{0} 55 55 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 56 56 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 57 57 \setcounter{subparagraph}{0}
\setcounter{figure}{2} 58 58 \setcounter{figure}{2}
\setcounter{table}{1} 59 59 \setcounter{table}{1}
60 \setcounter{section@level}{0}
61 \setcounter{Item}{0}
62 \setcounter{Hfootnote}{0}
63 \setcounter{bookmark@seq@number}{30}
\setcounter{caption@flags}{2} 60 64 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 61 65 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 62 66 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 63 67 \setcounter{subtable}{0}
68 \setcounter{tcbbreakpart}{1}
69 \setcounter{tcblayer}{0}
70 \setcounter{tcolorbox@number}{1}
\setcounter{parentequation}{0} 64 71 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 65 72 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 66 73 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 67 74 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 68 75 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{1} 69 76 \setcounter{upm@format@section@sectionlevel}{0}
77 \setcounter{ttlp@side}{0}
\setcounter{upm@fmt@savedcounter}{0} 70 78 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 71 79 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 72 80 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 73 81 \setcounter{tcb@cnt@upm@definition}{0}
\setcounter{section@level}{1} 74
\setcounter{Item}{0} 75
\setcounter{Hfootnote}{0} 76
\setcounter{bookmark@seq@number}{29} 77
\setcounter{DefaultLines}{2} 78 82 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 79 83 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 80 84 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 81 85 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 82 86 \setcounter{float@type}{16}
\setcounter{algorithm}{0} 83 87 \setcounter{algorithm}{0}
\setcounter{ALG@line}{0} 84 88 \setcounter{ALG@line}{0}
\setcounter{ALG@rem}{0} 85 89 \setcounter{ALG@rem}{0}
\setcounter{ALG@nested}{0} 86 90 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 87 91 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 88 92 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 89 93 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 90 94 \setcounter{ALG@tmpcounter}{0}
} 91 95 }
92 96
chapters/ESCBR.aux View file @ c9708fe
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{10.1007/978-3-031-63646-2_11} 3 3 \citation{10.1007/978-3-031-63646-2_11}
\citation{10.1007/978-3-031-63646-2_11} 4 4 \citation{10.1007/978-3-031-63646-2_11}
\citation{UCI} 5 5 \citation{UCI}
\@writefile{toc}{\contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 7 7 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 8 8 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}\protected@file@percent } 9 9 \@writefile{toc}{\contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}\protected@file@percent }
\citation{BAKUROV2021100913} 10 10 \citation{BAKUROV2021100913}
\citation{Liang} 11 11 \citation{Liang}
\citation{cmc.2023.033417} 12 12 \citation{cmc.2023.033417}
\citation{10.3389/fgene.2021.600040} 13 13 \citation{10.3389/fgene.2021.600040}
\citation{KAMALI2023110242} 14 14 \citation{KAMALI2023110242}
\citation{DIDDEN2023338} 15 15 \citation{DIDDEN2023338}
\citation{HIPOLITO2023103510} 16 16 \citation{HIPOLITO2023103510}
\citation{ZHANG2023110564} 17 17 \citation{ZHANG2023110564}
\@writefile{toc}{\contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}\protected@file@percent } 18 18 \@writefile{toc}{\contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.1}Modèle Proposé}{53}{subsection.6.2.1}\protected@file@percent } 19 19 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.1}Modèle Proposé}{53}{subsection.6.2.1}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.1}{\ignorespaces Les deux cycles proposés pour le RàPC\relax }}{53}{figure.caption.22}\protected@file@percent } 20 20 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{53}{subsubsection.6.2.1.1}\protected@file@percent }
\newlabel{figNCBR1}{{6.1}{53}{Les deux cycles proposés pour le RàPC\relax }{figure.caption.22}{}} 21 21 \@writefile{lof}{\contentsline {figure}{\numberline {6.1}{\ignorespaces Les deux cycles proposés pour le RàPC}}{54}{figure.caption.22}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.2}{\ignorespaces Flux du \textit {Stacking} RàPC\relax }}{54}{figure.caption.23}\protected@file@percent } 22 22 \newlabel{figNCBR1}{{6.1}{54}{Les deux cycles proposés pour le RàPC}{figure.caption.22}{}}
\newlabel{figFlowCBR0}{{6.2}{54}{Flux du \textit {Stacking} RàPC\relax }{figure.caption.23}{}} 23 23 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{54}{subsubsection.6.2.1.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}\protected@file@percent } 24 24 \@writefile{lof}{\contentsline {figure}{\numberline {6.2}{\ignorespaces Flux du \textit {Stacking} RàPC}}{55}{figure.caption.23}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {6.1}{\ignorespaces Variables et paramètres du modèle proposé (Type: p - paramètre, v - variable, f - fonction)\relax }}{55}{table.caption.24}\protected@file@percent } 25 25 \newlabel{figFlowCBR0}{{6.2}{55}{Flux du \textit {Stacking} RàPC}{figure.caption.23}{}}
\newlabel{tabVarPar}{{6.1}{55}{Variables et paramètres du modèle proposé (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.24}{}} 26 26 \newlabel{gen00}{{6.1}{55}{Réutiliser}{equation.6.1}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}\protected@file@percent } 27 27 \@writefile{lot}{\contentsline {table}{\numberline {6.1}{\ignorespaces Variables et paramètres du modèle proposé (Type: p - paramètre, v - variable, f - fonction)}}{56}{table.caption.24}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.3}{\ignorespaces \textit {Stacking} pour chercher les plus proches voisins\relax }}{56}{figure.caption.25}\protected@file@percent } 28 28 \newlabel{tabVarPar}{{6.1}{56}{Variables et paramètres du modèle proposé (Type: p - paramètre, v - variable, f - fonction)}{table.caption.24}{}}
\newlabel{figSta1}{{6.3}{56}{\textit {Stacking} pour chercher les plus proches voisins\relax }{figure.caption.25}{}} 29 29 \newlabel{gen01}{{6.2}{56}{Réutiliser}{equation.6.2}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.4}{\ignorespaces Représentation des solutions connues et générées\relax }}{56}{figure.caption.26}\protected@file@percent } 30 30 \newlabel{gen2}{{6.3}{56}{Réutiliser}{equation.6.3}{}}
\newlabel{figSolRep}{{6.4}{56}{Représentation des solutions connues et générées\relax }{figure.caption.26}{}} 31 31 \newlabel{eqgen3}{{6.4}{56}{Réutiliser}{equation.6.4}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.5}{\ignorespaces Génération et vérification automatique des solutions\relax }}{57}{figure.caption.27}\protected@file@percent } 32 32 \@writefile{lof}{\contentsline {figure}{\numberline {6.3}{\ignorespaces \textit {Stacking} pour chercher les plus proches voisins}}{57}{figure.caption.25}\protected@file@percent }
\newlabel{figAuto}{{6.5}{57}{Génération et vérification automatique des solutions\relax }{figure.caption.27}{}} 33 33 \newlabel{figSta1}{{6.3}{57}{\textit {Stacking} pour chercher les plus proches voisins}{figure.caption.25}{}}
\newlabel{gen00}{{6.1}{57}{Réutiliser}{equation.6.2.1}{}} 34 34 \@writefile{lof}{\contentsline {figure}{\numberline {6.4}{\ignorespaces Représentation des solutions connues et générées}}{57}{figure.caption.26}\protected@file@percent }
\newlabel{gen01}{{6.2}{57}{Réutiliser}{equation.6.2.2}{}} 35 35 \newlabel{figSolRep}{{6.4}{57}{Représentation des solutions connues et générées}{figure.caption.26}{}}
\newlabel{gen2}{{6.3}{57}{Réutiliser}{equation.6.2.3}{}} 36 36 \newlabel{eqgen4}{{6.5}{57}{Réutiliser}{equation.6.5}{}}
\newlabel{eqgen3}{{6.4}{58}{Réutiliser}{equation.6.2.4}{}} 37 37 \newlabel{eqgen5}{{6.6}{57}{Réutiliser}{equation.6.6}{}}
\newlabel{eqgen4}{{6.5}{58}{Réutiliser}{equation.6.2.5}{}} 38 38 \newlabel{eqgen6}{{6.7}{57}{Réutiliser}{equation.6.7}{}}
\newlabel{eqgen5}{{6.6}{58}{Réutiliser}{equation.6.2.6}{}} 39 39 \@writefile{lof}{\contentsline {figure}{\numberline {6.5}{\ignorespaces Génération et vérification automatique des solutions}}{58}{figure.caption.27}\protected@file@percent }
\newlabel{eqgen6}{{6.7}{58}{Réutiliser}{equation.6.2.7}{}} 40 40 \newlabel{figAuto}{{6.5}{58}{Génération et vérification automatique des solutions}{figure.caption.27}{}}
\newlabel{eqgen7}{{6.8}{58}{Réutiliser}{equation.6.2.8}{}} 41 41 \newlabel{eqgen7}{{6.8}{58}{Réutiliser}{equation.6.8}{}}
\citation{doi:10.1137/23M1592420} 42 42 \citation{doi:10.1137/23M1592420}
\@writefile{lof}{\contentsline {figure}{\numberline {6.6}{\ignorespaces \textit {Stacking} pour la génération de solutions\relax }}{59}{figure.caption.28}\protected@file@percent } 43 43 \@writefile{lof}{\contentsline {figure}{\numberline {6.6}{\ignorespaces \textit {Stacking} pour la génération de solutions}}{59}{figure.caption.28}\protected@file@percent }
\newlabel{figSta2}{{6.6}{59}{\textit {Stacking} pour la génération de solutions\relax }{figure.caption.28}{}} 44 44 \newlabel{figSta2}{{6.6}{59}{\textit {Stacking} pour la génération de solutions}{figure.caption.28}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}\protected@file@percent } 45 45 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}\protected@file@percent }
\newlabel{eqOpt0}{{6.11}{60}{Révision}{equation.6.2.11}{}} 46 46 \newlabel{eqOpt0}{{6.11}{60}{Révision}{equation.6.11}{}}
\newlabel{eqOpt}{{6.12}{60}{Révision}{equation.6.2.12}{}} 47 47 \newlabel{eqOpt}{{6.12}{60}{Révision}{equation.6.12}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.7}{\ignorespaces Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }}{60}{figure.caption.29}\protected@file@percent } 48 48 \@writefile{lof}{\contentsline {figure}{\numberline {6.7}{\ignorespaces Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)}}{60}{figure.caption.29}\protected@file@percent }
\newlabel{fig:FW}{{6.7}{60}{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }{figure.caption.29}{}} 49 49 \newlabel{fig:FW}{{6.7}{60}{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)}{figure.caption.29}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}\protected@file@percent } 50 50 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}\protected@file@percent } 51 51 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de données évaluées.\relax }}{61}{table.caption.30}\protected@file@percent } 52 52 \@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de données évaluées.}}{61}{table.caption.30}\protected@file@percent }
\newlabel{tabBases2}{{6.2}{61}{Description des jeux de données évaluées.\relax }{table.caption.30}{}} 53 53 \newlabel{tabBases2}{{6.2}{61}{Description des jeux de données évaluées}{table.caption.30}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.3}{\ignorespaces Liste des algorithmes évalués\relax }}{61}{table.caption.31}\protected@file@percent } 54 54 \@writefile{lot}{\contentsline {table}{\numberline {6.3}{\ignorespaces Liste des algorithmes évalués}}{61}{table.caption.31}\protected@file@percent }
\newlabel{tabAlgs2}{{6.3}{61}{Liste des algorithmes évalués\relax }{table.caption.31}{}} 55 55 \newlabel{tabAlgs2}{{6.3}{61}{Liste des algorithmes évalués}{table.caption.31}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{61}{table.caption.32}\protected@file@percent } 56 56 \@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés}}{61}{table.caption.32}\protected@file@percent }
\newlabel{tabRes1_2}{{6.4}{61}{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.32}{}} 57 57 \newlabel{tabRes1_2}{{6.4}{61}{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés}{table.caption.32}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.5}{\ignorespaces MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{62}{table.caption.33}\protected@file@percent } 58 58 \@writefile{lot}{\contentsline {table}{\numberline {6.5}{\ignorespaces MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés}}{62}{table.caption.33}\protected@file@percent }
\newlabel{tabRes2_2}{{6.5}{62}{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.33}{}} 59 59 \newlabel{tabRes2_2}{{6.5}{62}{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés}{table.caption.33}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}\protected@file@percent } 60 60 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.8}{\ignorespaces Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }}{63}{figure.caption.34}\protected@file@percent } 61 61 \@writefile{lof}{\contentsline {figure}{\numberline {6.8}{\ignorespaces Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives}}{63}{figure.caption.34}\protected@file@percent }
\newlabel{figBox2}{{6.8}{63}{Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }{figure.caption.34}{}} 62 62 \newlabel{figBox2}{{6.8}{63}{Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives}{figure.caption.34}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}\protected@file@percent } 63 63 \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}\protected@file@percent }
\@writefile{toc}{\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}\protected@file@percent } 64 64 \@writefile{toc}{\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {6.3.1}Modèle Proposé}{64}{subsection.6.3.1}\protected@file@percent } 65 65 \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.1}Modèle Proposé}{64}{subsection.6.3.1}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.9}{\ignorespaces Deux cycles du système ESCBR-SMA proposé\relax }}{64}{figure.caption.35}\protected@file@percent } 66 66 \@writefile{lof}{\contentsline {figure}{\numberline {6.9}{\ignorespaces Deux cycles du système ESCBR-SMA proposé}}{64}{figure.caption.35}\protected@file@percent }
\newlabel{figNCBR}{{6.9}{64}{Deux cycles du système ESCBR-SMA proposé\relax }{figure.caption.35}{}} 67 67 \newlabel{figNCBR}{{6.9}{64}{Deux cycles du système ESCBR-SMA proposé}{figure.caption.35}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.6}{\ignorespaces Variables et paramètres du modèle proposé (Type: p - paramètre, v - variable, f - fonction)\relax }}{65}{table.caption.37}\protected@file@percent } 68 68 \@writefile{lot}{\contentsline {table}{\numberline {6.6}{\ignorespaces Variables et paramètres supplémentaires du modèle ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)}}{65}{table.caption.37}\protected@file@percent }
\newlabel{tabVarPar2}{{6.6}{65}{Variables et paramètres du modèle proposé (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.37}{}} 69 69 \newlabel{tabVarPar2}{{6.6}{65}{Variables et paramètres supplémentaires du modèle ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)}{table.caption.37}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{65}{subsubsection.6.3.1.1}\protected@file@percent } 70 70 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{65}{subsubsection.6.3.1.1}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.10}{\ignorespaces Flux du \textit {Stacking} du RàPC (* est une tâche effectuée par chaque agent)\relax }}{66}{figure.caption.36}\protected@file@percent } 71 71 \@writefile{lof}{\contentsline {figure}{\numberline {6.10}{\ignorespaces Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)}}{66}{figure.caption.36}\protected@file@percent }
\newlabel{figFlowCBR}{{6.10}{66}{Flux du \textit {Stacking} du RàPC (* est une tâche effectuée par chaque agent)\relax }{figure.caption.36}{}} 72 72 \newlabel{figFlowCBR}{{6.10}{66}{Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)}{figure.caption.36}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}\protected@file@percent } 73 73 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{66}{subsubsection.6.3.1.2}\protected@file@percent }
\newlabel{eqOpt1}{{6.13}{67}{Structure des agents}{equation.6.3.13}{}} 74 74 \newlabel{eqOpt1}{{6.13}{67}{Structure des agents}{equation.6.13}{}}
\newlabel{eqOpt2}{{6.14}{67}{Structure des agents}{equation.6.3.14}{}} 75 75 \newlabel{eqOpt2}{{6.14}{67}{Structure des agents}{equation.6.14}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}\protected@file@percent } 76 76 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {6.11}{\ignorespaces Structure interne des agents\relax }}{68}{figure.caption.38}\protected@file@percent } 77 77 \newlabel{eqBay}{{6.15}{67}{Apprentissage des agents}{equation.6.15}{}}
\newlabel{figAgent}{{6.11}{68}{Structure interne des agents\relax }{figure.caption.38}{}} 78 78 \@writefile{lof}{\contentsline {figure}{\numberline {6.11}{\ignorespaces Structure interne des agents}}{68}{figure.caption.38}\protected@file@percent }
\newlabel{eqBay}{{6.15}{68}{Apprentissage des agents}{equation.6.3.15}{}} 79 79 \newlabel{figAgent}{{6.11}{68}{Structure interne des agents}{figure.caption.38}{}}
\newlabel{eqRta}{{6.16}{68}{Apprentissage des agents}{equation.6.3.16}{}} 80 80 \newlabel{eqRta}{{6.16}{68}{Apprentissage des agents}{equation.6.16}{}}
\newlabel{eqRsa}{{6.17}{68}{Apprentissage des agents}{equation.6.3.17}{}} 81 81 \newlabel{eqRsa}{{6.17}{68}{Apprentissage des agents}{equation.6.17}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse\relax }}{69}{figure.caption.39}\protected@file@percent } 82 82 \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{68}{subsubsection.6.3.1.4}\protected@file@percent }
\newlabel{fig:bayev}{{6.12}{69}{Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse\relax }{figure.caption.39}{}} 83 83 \@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse}}{69}{figure.caption.39}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}\protected@file@percent } 84 84 \newlabel{fig:bayev}{{6.12}{69}{Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse}{figure.caption.39}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}\protected@file@percent } 85 85 \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {6.7}{\ignorespaces Description des jeux de données évalués. (* après codification comme \textit {String})\relax }}{70}{table.caption.40}\protected@file@percent } 86 86 \@writefile{lot}{\contentsline {table}{\numberline {6.7}{\ignorespaces Description des jeux de données évalués.}}{69}{table.caption.40}\protected@file@percent }
\newlabel{tabBases}{{6.7}{70}{Description des jeux de données évalués. (* après codification comme \textit {String})\relax }{table.caption.40}{}} 87 87 \newlabel{tabBases}{{6.7}{69}{Description des jeux de données évalués}{table.caption.40}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.8}{\ignorespaces Paramètres de tous les algorithmes comparés\relax }}{70}{table.caption.41}\protected@file@percent } 88 88 \@writefile{lot}{\contentsline {table}{\numberline {6.8}{\ignorespaces Paramètres de tous les algorithmes comparés}}{70}{table.caption.41}\protected@file@percent }
\newlabel{AlgsPar}{{6.8}{70}{Paramètres de tous les algorithmes comparés\relax }{table.caption.41}{}} 89 89 \newlabel{AlgsPar}{{6.8}{70}{Paramètres de tous les algorithmes comparés}{table.caption.41}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Résultat selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }}{71}{table.caption.42}\protected@file@percent } 90 90 \@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Résultat selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.}}{70}{table.caption.42}\protected@file@percent }
\newlabel{tabRes1}{{6.9}{71}{Résultat selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }{table.caption.42}{}} 91 91 \newlabel{tabRes1}{{6.9}{70}{Résultat selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés}{table.caption.42}{}}
\@writefile{lot}{\contentsline {table}{\numberline {6.10}{\ignorespaces Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression\relax }}{71}{table.caption.43}\protected@file@percent } 92 92 \@writefile{lot}{\contentsline {table}{\numberline {6.10}{\ignorespaces Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression}}{71}{table.caption.43}\protected@file@percent }
\newlabel{tabRes2}{{6.10}{71}{Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression\relax }{table.caption.43}{}} 93 93 \newlabel{tabRes2}{{6.10}{71}{Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression}{table.caption.43}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {6.13}{\ignorespaces Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés\relax }}{71}{figure.caption.44}\protected@file@percent } 94 94 \@writefile{lof}{\contentsline {figure}{\numberline {6.13}{\ignorespaces Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés}}{71}{figure.caption.44}\protected@file@percent }
\newlabel{figBox}{{6.13}{71}{Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés\relax }{figure.caption.44}{}} 95 95 \newlabel{figBox}{{6.13}{71}{Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés}{figure.caption.44}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}\protected@file@percent } 96 96 \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.3}Conclusion}{71}{subsection.6.3.3}\protected@file@percent }
\@setckpt{./chapters/ESCBR}{ 97 97 \@setckpt{./chapters/ESCBR}{
\setcounter{page}{73} 98 98 \setcounter{page}{73}
\setcounter{equation}{17} 99 99 \setcounter{equation}{17}
\setcounter{enumi}{0} 100 100 \setcounter{enumi}{0}
\setcounter{enumii}{0} 101 101 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 102 102 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 103 103 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 104 104 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 105 105 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 106 106 \setcounter{part}{3}
\setcounter{chapter}{6} 107 107 \setcounter{chapter}{6}
\setcounter{section}{3} 108 108 \setcounter{section}{3}
\setcounter{subsection}{3} 109 109 \setcounter{subsection}{3}
\setcounter{subsubsection}{0} 110 110 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 111 111 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 112 112 \setcounter{subparagraph}{0}
\setcounter{figure}{13} 113 113 \setcounter{figure}{13}
\setcounter{table}{10} 114 114 \setcounter{table}{10}
115 \setcounter{section@level}{0}
116 \setcounter{Item}{0}
117 \setcounter{Hfootnote}{0}
118 \setcounter{bookmark@seq@number}{67}
\setcounter{caption@flags}{2} 115 119 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 116 120 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 117 121 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 118 122 \setcounter{subtable}{0}
123 \setcounter{tcbbreakpart}{1}
124 \setcounter{tcblayer}{0}
125 \setcounter{tcolorbox@number}{1}
\setcounter{parentequation}{0} 119 126 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 120 127 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 121 128 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 122 129 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 123 130 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{2} 124 131 \setcounter{upm@format@section@sectionlevel}{0}
132 \setcounter{ttlp@side}{0}
\setcounter{upm@fmt@savedcounter}{0} 125 133 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 126 134 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 127 135 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 128 136 \setcounter{tcb@cnt@upm@definition}{0}
\setcounter{section@level}{2} 129
\setcounter{Item}{0} 130
\setcounter{Hfootnote}{0} 131
\setcounter{bookmark@seq@number}{66} 132
\setcounter{DefaultLines}{2} 133 137 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 134 138 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 135 139 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 136 140 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 137 141 \setcounter{float@type}{16}
\setcounter{algorithm}{0} 138 142 \setcounter{algorithm}{0}
\setcounter{ALG@line}{0} 139 143 \setcounter{ALG@line}{0}
\setcounter{ALG@rem}{0} 140 144 \setcounter{ALG@rem}{0}
\setcounter{ALG@nested}{0} 141 145 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 142 146 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 143 147 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 144 148 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 145 149 \setcounter{ALG@tmpcounter}{0}
} 146 150 }
147 151
chapters/ESCBR.tex View file @ c9708fe
\chapter{Le raisonnement à partir de cas (RàPC) pour la régression} 1 1 \chapter{Le raisonnement à partir de cas (RàPC) pour la régression}
\chaptermark{RàPC POUR RÉGRESSION} 2 2 \chaptermark{RàPC POUR RÉGRESSION}
3 3
\section{Introduction} 4 4 \section{Introduction}
5 5
Ce chapitre est divisé en deux parties. La première partie présente un modèle fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression. 6 6 Ce chapitre est divisé en deux parties. La première partie présente un modèle fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression.
Le modèle présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement Bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{10.1007/978-3-031-63646-2_11}.\\ 7 7 Le modèle présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement Bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{10.1007/978-3-031-63646-2_11}.\\
8 8
Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche. 9 9 Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche.
10 10
Le système de raisonnement à partir de cas ne nécessite pas d'entrainement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. 11 11 Le système de raisonnement à partir de cas ne nécessite pas d'entrainement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3.
%\colorbox{yellow}{Il faut expliquer en quelques mots ce que fait cette fonction objectif}\\ 12 12 %\colorbox{yellow}{Il faut expliquer en quelques mots ce que fait cette fonction objectif}\\
Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement saitsfaisants. 13 13 Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement saitsfaisants.
14 14
Les méthodes d'ensemble permettent de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs modèles exécutés indépendamment. Certaines de ces méthodes utilisent des modèles différents et des ensembles de données différents tandis que d'autres utilisent les mêmes modèles avec des paramètres différents. La combinaison des résultats provenant de multiples modèles peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette méthode d'ensemble en la combinant à des outils d'apprentissage automatique. 15 15 Les méthodes d'ensemble permettent de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs modèles exécutés indépendamment. Certaines de ces méthodes utilisent des modèles différents et des ensembles de données différents tandis que d'autres utilisent les mêmes modèles avec des paramètres différents. La combinaison des résultats provenant de multiples modèles peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette méthode d'ensemble en la combinant à des outils d'apprentissage automatique.
16 16
Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des modèles linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est un type de méta-modèle d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses techniques d'apprentissage automatique pour surmonter les limites des modèles individuels. Plusieurs études démontrent que l'association de ces techniques permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement de modèles ou d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. 17 17 Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des modèles linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est un type de méta-modèle d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses techniques d'apprentissage automatique pour surmonter les limites des modèles individuels. Plusieurs études démontrent que l'association de ces techniques permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement de modèles ou d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}.
18 18
La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. 19 19 La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}.
20 20
Le raisonnement Bayésien clos ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. 21 21 Le raisonnement Bayésien clos ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement Bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}.
22 22
\section{Apprentissage par empilement et raisonnement à partir de cas} 23 23 \section{Apprentissage par empilement et raisonnement à partir de cas}
24 24
Cette section présente la première version de l'algorithme que nous avons conçu pour résoudre des problèmes de régression. Celui-ci est fondé sur le raisonnement à partir de cas et l'empilement. 25 25 Cette section présente la première version de l'algorithme que nous avons conçu pour résoudre des problèmes de régression. Celui-ci est fondé sur le raisonnement à partir de cas et l'empilement.
26 26
\subsection{Modèle Proposé} 27 27 \subsection{Modèle Proposé}
28 28
L'algorithme proposé, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondé sur le paradigme générique du RàPC combiné à plusieurs algorithmes de recherche de voisins et de génération de solutions. Ces algorithmes ont été intégrés selon une variation du modèle d'empilement en deux étapes itératives. Cette intégration donne à l'algorithme la capacité de s'adapter à différents types de problèmes, d'éviter les biais et le surentraînement. Les résultats de l'exécution des niveaux d'empilement stockent dans la mémoire des conteneurs de connaissances du système de RàPC des informations qui aident non seulement à l'apprentissage de l'algorithme au fil des itérations, mais facilitent également la génération de solutions à divers problèmes sur différents ensembles de données sans nécessité d'entraînement préalable. La conception itérative en deux cycles améliore la capacité du système de RàPC à travailler et à s'adapter à des problèmes dynamiques en cours d'exécution, comme le montre la figure \ref{figNCBR1}. 29 29 L'algorithme proposé, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondé sur le paradigme générique du RàPC combiné à plusieurs algorithmes de recherche de voisins et de génération de solutions. Ces algorithmes ont été intégrés selon une variation du modèle d'empilement en deux étapes itératives. Cette intégration donne à l'algorithme la capacité de s'adapter à différents types de problèmes, d'éviter les biais et le surentraînement. Les résultats de l'exécution des niveaux d'empilement stockent dans la mémoire des conteneurs de connaissances du système de RàPC des informations qui aident non seulement à l'apprentissage de l'algorithme au fil des itérations, mais facilitent également la génération de solutions à divers problèmes sur différents ensembles de données sans nécessité d'entraînement préalable. La conception itérative en deux cycles améliore la capacité du système de RàPC à travailler et à s'adapter à des problèmes dynamiques en cours d'exécution, comme le montre la figure \ref{figNCBR1}.
30 30
\begin{figure}[!ht] 31 31 \begin{figure}[!ht]
\centering 32 32 \centering
\includegraphics[width=\textwidth]{./Figures/NCBR0.png} 33 33 \includegraphics[width=\textwidth]{./Figures/NCBR0.png}
\caption{Les deux cycles proposés pour le RàPC} 34 34 \caption{Les deux cycles proposés pour le RàPC}
\label{figNCBR1} 35 35 \label{figNCBR1}
\end{figure} 36 36 \end{figure}
%\colorbox{yellow}{Attention, cette figure apparaît deux fois dans ce chapitre.}\\ 37 37 %\colorbox{yellow}{Attention, cette figure apparaît deux fois dans ce chapitre.}\\
%\colorbox{yellow}{J'ai l'impression que ce n'est pas la seule.} 38 38 %\colorbox{yellow}{J'ai l'impression que ce n'est pas la seule.}
39 39
L'étape de récupération utilise les algorithmes de recherche et la base de données de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problème cible. Puis l'étape de réutilisation utilise les algorithmes de génération de solutions (conteneur $C2$). L'étape de révision évalue ensuite les solutions générées et permet d'en générer de nouvelles itérativement en fonction des paramètres stockés dans le conteneur $C4$. Vient ensuite l'étape de révision prenant en considération la solution sélectionnée. Faisant suite à cette révision, l'étape de renouvellement met à jour les paramètres et les données du conteneur. Enfin, dans l'étape de capitalisation, la base de cas est mise à jour avec l'intégration du nouveau cas. Les flux d'information de l'algorithme proposé sont présentés sur la figure~\ref{figFlowCBR0}, tandis que le tableau~\ref{tabVarPar} présente l'ensemble des variables et paramètres de l'algorithme proposé. 40 40 L'étape de récupération utilise les algorithmes de recherche et la base de données de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problème cible. Puis l'étape de réutilisation utilise les algorithmes de génération de solutions (conteneur $C2$). L'étape de révision évalue ensuite les solutions générées et permet d'en générer de nouvelles itérativement en fonction des paramètres stockés dans le conteneur $C4$. Vient ensuite l'étape de révision prenant en considération la solution sélectionnée. Faisant suite à cette révision, l'étape de renouvellement met à jour les paramètres et les données du conteneur. Enfin, dans l'étape de capitalisation, la base de cas est mise à jour avec l'intégration du nouveau cas. Les flux d'information de l'algorithme proposé sont présentés sur la figure~\ref{figFlowCBR0}, tandis que le tableau~\ref{tabVarPar} présente l'ensemble des variables et paramètres de l'algorithme proposé.
41 41
\begin{figure}[!ht] 42 42 \begin{figure}[!ht]
\centering 43 43 \centering
\includegraphics[scale=0.6]{./Figures/FlowCBR0.png} 44 44 \includegraphics[scale=0.6]{./Figures/FlowCBR0.png}
\caption{Flux du \textit{Stacking} RàPC} 45 45 \caption{Flux du \textit{Stacking} RàPC}
\label{figFlowCBR0} 46 46 \label{figFlowCBR0}
\end{figure} 47 47 \end{figure}
48 48
\begin{table}[!ht] 49 49 \begin{table}[!ht]
\centering 50 50 \centering
\begin{tabular}{cccc} 51 51 \begin{tabular}{cccc}
ID&Type&Description&Domain\\ 52 52 ID&Type&Description&Domain\\
\hline 53 53 \hline
$it$&p&Nombre d'itérations&$\mathbb{N}, it>0$\\ 54 54 $it$&p&Nombre d'itérations&$\mathbb{N}, it>0$\\
$np$&p&Nombre de processus&$\mathbb{N}, np>2$\\ 55 55 $np$&p&Nombre de processus&$\mathbb{N}, np>2$\\
$nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\ 56 56 $nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\
$ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\ 57 57 $ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\
$n$&v&Dimension de l'espace du problème&$\mathbb{N}, n>0$\\ 58 58 $n$&v&Dimension de l'espace du problème&$\mathbb{N}, n>0$\\
$m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\ 59 59 $m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\
$z$&v&Taille de la base de données&$\mathbb{N}, z>0$\\ 60 60 $z$&v&Taille de la base de données&$\mathbb{N}, z>0$\\
$p$&v&Description du problème&$\mathbb{R} ^ n$\\ 61 61 $p$&v&Description du problème&$\mathbb{R} ^ n$\\
$s$&v&Description de la solution&$\mathbb{R} ^ m$\\ 62 62 $s$&v&Description de la solution&$\mathbb{R} ^ m$\\
$r_a$&v&Nombre de modèles pour l'étape rétrouver&$\mathbb{N}, r_a>2$\\ 63 63 $r_a$&v&Nombre de modèles pour l'étape rétrouver&$\mathbb{N}, r_a>2$\\
$r_b$&v&Nombre de modèles pour l'étape de réutilisation&$\mathbb{N}, r_b>2$\\ 64 64 $r_b$&v&Nombre de modèles pour l'étape de réutilisation&$\mathbb{N}, r_b>2$\\
$at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\ 65 65 $at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\
$nl_i$&v&Nombre de voisins locaux pour le modèle $i$&$\mathbb{N}, nl_i \le nl$\\ 66 66 $nl_i$&v&Nombre de voisins locaux pour le modèle $i$&$\mathbb{N}, nl_i \le nl$\\
$g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\ 67 67 $g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\
$v$&v&Évaluation de la meilleure solution globale&$\mathbb{R}$\\ 68 68 $v$&v&Évaluation de la meilleure solution globale&$\mathbb{R}$\\
$d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\ 69 69 $d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\
$MP(x_1^z,x_2,a)$&f&Fonction du modèle pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\ 70 70 $MP(x_1^z,x_2,a)$&f&Fonction du modèle pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\
$MS(x_1^m)$&f&Fonction du modèle pour réutiliser avec $x_1$ &$\mathbb{R}^m$\\ 71 71 $MS(x_1^m)$&f&Fonction du modèle pour réutiliser avec $x_1$ &$\mathbb{R}^m$\\
$f_s(p^n,s^m)$&f&Évaluation des solutions&$\mathbb{R}$\\ 72 72 $f_s(p^n,s^m)$&f&Évaluation des solutions&$\mathbb{R}$\\
\end{tabular} 73 73 \end{tabular}
\caption{Variables et paramètres du modèle proposé (Type: p - paramètre, v - variable, f - fonction)} 74 74 \caption{Variables et paramètres du modèle proposé (Type: p - paramètre, v - variable, f - fonction)}
\label{tabVarPar} 75 75 \label{tabVarPar}
\end{table} 76 76 \end{table}
77 77
\subsubsection{Rechercher} 78 78 \subsubsection{Rechercher}
La première étape de l'algorithme consiste à trouver les cas les plus similaires à un nouveau cas (appelé \textit{cas cible}). Pour ce faire, le modèle d'empilement de différents processus présenté sur la figure \ref{figSta1} est utilisé. Au niveau-0, chaque processus sélectionne et exécute un algorithme de recherche de voisins différents choisi parmi $r_a$ modèles dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi aléatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les résultats sont unifiés en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont été mis en œuvre pour l'étape de récupération : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation. 79 79 La première étape de l'algorithme consiste à trouver les cas les plus similaires à un nouveau cas (appelé \textit{cas cible}). Pour ce faire, le modèle d'empilement de différents processus présenté sur la figure \ref{figSta1} est utilisé. Au niveau-0, chaque processus sélectionne et exécute un algorithme de recherche de voisins différents choisi parmi $r_a$ modèles dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi aléatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les résultats sont unifiés en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont été mis en œuvre pour l'étape de récupération : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation.
80 80
\begin{figure} 81 81 \begin{figure}
\centering 82 82 \centering
\includegraphics[width=\textwidth]{./Figures/Stacking1.png} 83 83 \includegraphics[width=\textwidth]{./Figures/Stacking1.png}
\caption{\textit{Stacking} pour chercher les plus proches voisins} 84 84 \caption{\textit{Stacking} pour chercher les plus proches voisins}
\label{figSta1} 85 85 \label{figSta1}
\end{figure} 86 86 \end{figure}
87 87
Formellement, le premier modèle d'empilement proposé fonctionne avec deux paramètres : %\textcolor{red}{quels sont les 2 paramètres?} 88 88 Formellement, le premier modèle d'empilement proposé fonctionne avec deux paramètres : %\textcolor{red}{quels sont les 2 paramètres?}
une base de données de $z$ cas où un cas est composé de la description du problème et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de générer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exécuté, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est généré. Au niveau-1, un ensemble global est créé à l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le résultat du premier modèle d'empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches. 89 89 une base de données de $z$ cas où un cas est composé de la description du problème et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de générer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exécuté, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est généré. Au niveau-1, un ensemble global est créé à l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le résultat du premier modèle d'empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches.
90 90
\subsubsection{Réutiliser} 91 91 \subsubsection{Réutiliser}
92 92
Une fois la liste globale des cas similaires établie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisées pour générer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations représentés sur la figure \ref{figAuto}. La génération est effectuée avec un deuxième modèle d'empilement de différents processus. Ce modèle d'empilement est représenté sur la figure \ref{figSta2}. Au niveau-0, chaque processus sélectionne et exécute un algorithme de génération différent à partir des modèles $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions générées sont stockées dans une mémoire globale. Toutes les solutions connues et générées sont représentées avec la même structure comme le montre la figure \ref{figSolRep}. 93 93 Une fois la liste globale des cas similaires établie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisées pour générer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations représentés sur la figure \ref{figAuto}. La génération est effectuée avec un deuxième modèle d'empilement de différents processus. Ce modèle d'empilement est représenté sur la figure \ref{figSta2}. Au niveau-0, chaque processus sélectionne et exécute un algorithme de génération différent à partir des modèles $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions générées sont stockées dans une mémoire globale. Toutes les solutions connues et générées sont représentées avec la même structure comme le montre la figure \ref{figSolRep}.
94 94
\begin{figure}[!ht] 95 95 \begin{figure}[!ht]
\centering 96 96 \centering
\includegraphics[scale=1]{./Figures/SolRep.png} 97 97 \includegraphics[scale=1]{./Figures/SolRep.png}
\caption{Représentation des solutions connues et générées} 98 98 \caption{Représentation des solutions connues et générées}
\label{figSolRep} 99 99 \label{figSolRep}
\end{figure} 100 100 \end{figure}
101 101
Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération. 102 102 Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération.
103 103
\begin{figure}[!ht] 104 104 \begin{figure}[!ht]
\centering 105 105 \centering
\includegraphics[width=\textwidth]{./Figures/AutomaticS.png} 106 106 \includegraphics[width=\textwidth]{./Figures/AutomaticS.png}
\caption{Génération et vérification automatique des solutions} 107 107 \caption{Génération et vérification automatique des solutions}
\label{figAuto} 108 108 \label{figAuto}
\end{figure} 109 109 \end{figure}
110 110
La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}. 111 111 La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}.
Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. 112 112 Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible.
113 113
\begin{equation} 114 114 \begin{equation}
\alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) 115 115 \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right)
\label{gen00} 116 116 \label{gen00}
\end{equation} 117 117 \end{equation}
118 118
\begin{equation} 119 119 \begin{equation}
s^m_{j,w}=\frac{1}{nl} \sum_{i=0}^{nl} \alpha_j s_{i,j} 120 120 s^m_{j,w}=\frac{1}{nl} \sum_{i=0}^{nl} \alpha_j s_{i,j}
\label{gen01} 121 121 \label{gen01}
\end{equation} 122 122 \end{equation}
123 123
La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}. 124 124 La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}.
125 125
\begin{equation} 126 126 \begin{equation}
s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl} s_{i,j} 127 127 s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl} s_{i,j}
\label{gen2} 128 128 \label{gen2}
\end{equation} 129 129 \end{equation}
130 130
La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$. 131 131 La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$.
132 132
\begin{equation} 133 133 \begin{equation}
s_{j,w}^m= 134 134 s_{j,w}^m=
\begin{cases} 135 135 \begin{cases}
x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\ 136 136 x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\
\frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\ 137 137 \frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\
\end{cases} 138 138 \end{cases}
\label{eqgen3} 139 139 \label{eqgen3}
\end{equation} 140 140 \end{equation}
141 141
La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité. 142 142 La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité.
143 143
\begin{equation} 144 144 \begin{equation}
s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right) 145 145 s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right)
\label{eqgen4} 146 146 \label{eqgen4}
\end{equation} 147 147 \end{equation}
148 148
"Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}. 149 149 "Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}.
150 150
\begin{equation} 151 151 \begin{equation}
s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) 152 152 s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right)
\label{eqgen5} 153 153 \label{eqgen5}
\end{equation} 154 154 \end{equation}
155 155
Le vote permet de copier l'information la plus fréquente de toutes \ref{eqgen6}. 156 156 Le vote permet de copier l'information la plus fréquente de toutes \ref{eqgen6}.
157 157
\begin{equation} 158 158 \begin{equation}
s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl 159 159 s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl
\label{eqgen6} 160 160 \label{eqgen6}
\end{equation} 161 161 \end{equation}
162 162
L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}. 163 163 L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}.
164 164
\begin{equation} 165 165 \begin{equation}
s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl 166 166 s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl
\label{eqgen7} 167 167 \label{eqgen7}
\end{equation} 168 168 \end{equation}
169 169
L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition. 170 170 L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition.
171 171
La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. 172 172 La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée.
173 173
L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. 174 174 L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$.
175 175
La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $\Delta$ est ajouté à sa valeur. La valeur de $\Delta$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$. 176 176 La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $\Delta$ est ajouté à sa valeur. La valeur de $\Delta$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$.
177 177
\begin{equation} 178 178 \begin{equation}
k \sim \left(\frac{1}{nl}\right) 179 179 k \sim \left(\frac{1}{nl}\right)
\end{equation} 180 180 \end{equation}
181 181
\begin{equation} 182 182 \begin{equation}
s_{w,j}^m=\begin{cases} 183 183 s_{w,j}^m=\begin{cases}
s_{j,k}^m+\mathcal{N}(0,1)& si \; (\mathcal{U}_{int}(0,10))\%2=0\\ 184 184 s_{j,k}^m+\mathcal{N}(0,1)& si \; (\mathcal{U}_{int}(0,10))\%2=0\\
s_{j,k}^m-\mathcal{N}(0,1)&sinon 185 185 s_{j,k}^m-\mathcal{N}(0,1)&sinon
\end{cases} 186 186 \end{cases}
\end{equation} 187 187 \end{equation}
188 188
\begin{figure} 189 189 \begin{figure}
\centering 190 190 \centering
\includegraphics[width=\textwidth]{./Figures/Stacking2.png} 191 191 \includegraphics[width=\textwidth]{./Figures/Stacking2.png}
\caption{\textit{Stacking} pour la génération de solutions} 192 192 \caption{\textit{Stacking} pour la génération de solutions}
\label{figSta2} 193 193 \label{figSta2}
\end{figure} 194 194 \end{figure}
195 195
La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième modèle d'empilement. Chaque modèle décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution. 196 196 La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième modèle d'empilement. Chaque modèle décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution.
197 197
\subsubsection{Révision} 198 198 \subsubsection{Révision}
199 199
Dans cette phase, le problème de l'évaluation automatique d'une solution candidate est transformé en un problème d'optimisation, où la fonction objectif est \ref{eqOpt}. Ce problème revient à calculer la moyenne géométrique ou encore à résoudre le problème de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, résoudre ce problème revient à calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problème en deux dimensions. Sur cette figure, le point rouge représente une solution possible minimisant la somme des distances entre ce point et tous les autres points définis dans l'espace. 200 200 Dans cette phase, le problème de l'évaluation automatique d'une solution candidate est transformé en un problème d'optimisation, où la fonction objectif est \ref{eqOpt}. Ce problème revient à calculer la moyenne géométrique ou encore à résoudre le problème de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, résoudre ce problème revient à calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problème en deux dimensions. Sur cette figure, le point rouge représente une solution possible minimisant la somme des distances entre ce point et tous les autres points définis dans l'espace.
201 201
La fonction objectif \ref{eqOpt} établit un rapport entre la distance de la solution générée $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur aléatoire de \textit{drift} d'une part, et la distance entre le problème cible $p^n_w$ et les $x$ problèmes connus $p^n_x$ d'autre part. Ici, la difficulté à trouver le point optimal réside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dépend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problème et solution) pour valider et générer l'ensemble de solutions proposées.\\ 202 202 La fonction objectif \ref{eqOpt} établit un rapport entre la distance de la solution générée $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur aléatoire de \textit{drift} d'une part, et la distance entre le problème cible $p^n_w$ et les $x$ problèmes connus $p^n_x$ d'autre part. Ici, la difficulté à trouver le point optimal réside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dépend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problème et solution) pour valider et générer l'ensemble de solutions proposées.\\
%\colorbox{yellow}{J'ai beaucoup modifié le paragraphe ci-dessus. Il faudrait vérifier.} 203 203 %\colorbox{yellow}{J'ai beaucoup modifié le paragraphe ci-dessus. Il faudrait vérifier.}
204 204
\begin{equation} 205 205 \begin{equation}
\lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+rn(0,d(p_w^n, p_i^n))))}{d(p_w^n,p_x^n)^2} \right) 206 206 \lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+rn(0,d(p_w^n, p_i^n))))}{d(p_w^n,p_x^n)^2} \right)
\label{eqOpt0} 207 207 \label{eqOpt0}
\end{equation} 208 208 \end{equation}
209 209
\begin{equation} 210 210 \begin{equation}
min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right) 211 211 min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right)
\label{eqOpt} 212 212 \label{eqOpt}
\end{equation} 213 213 \end{equation}
214 214
\begin{figure}[!ht] 215 215 \begin{figure}[!ht]
\centering 216 216 \centering
\includegraphics[width=\textwidth]{Figures/FW.png} 217 217 \includegraphics[width=\textwidth]{Figures/FW.png}
\caption{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda_1,..,\lambda_7$) et point rouge solution au problème)} 218 218 \caption{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda_1,..,\lambda_7$) et point rouge solution au problème)}
\label{fig:FW} 219 219 \label{fig:FW}
\end{figure} 220 220 \end{figure}
221 221
Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée. 222 222 Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée.
223 223
\subsubsection{Mémorisation} 224 224 \subsubsection{Mémorisation}
225 225
L'étape de mémorisation consiste simplement à prendre la meilleure solution proposée et à déterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrée dans la base de connaissances. 226 226 L'étape de mémorisation consiste simplement à prendre la meilleure solution proposée et à déterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrée dans la base de connaissances.
227 227
\subsection{Résultats} 228 228 \subsection{Résultats}
229 229
Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. 230 230 Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$.
%\colorbox{yellow}{À quoi correspondent ces valeurs ? Unités ?} 231 231 %\colorbox{yellow}{À quoi correspondent ces valeurs ? Unités ?}
232 232
\begin{table}[!ht] 233 233 \begin{table}[!ht]
\tiny 234 234 \tiny
\centering 235 235 \centering
\begin{tabular}{llccccc} 236 236 \begin{tabular}{llccccc}
ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\ 237 237 ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\
\hline 238 238 \hline
DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ 239 239 DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\
DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ 240 240 DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\
DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 241 241 DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ 242 242 DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\
DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ 243 243 DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\
DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 244 244 DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 245 245 DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 246 246 DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\ 247 247 DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\
DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\ 248 248 DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\
\end{tabular} 249 249 \end{tabular}
\caption{Description des jeux de données évaluées.} 250 250 \caption{Description des jeux de données évaluées.}
\label{tabBases2} 251 251 \label{tabBases2}
\end{table} 252 252 \end{table}
253 253
L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs. 254 254 L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs.
255 255
\begin{table}[!ht] 256 256 \begin{table}[!ht]
\centering 257 257 \centering
\footnotesize 258 258 \footnotesize
\begin{tabular}{ll|ll} 259 259 \begin{tabular}{ll|ll}
ID&Algorithm&ID&Algorithm\\ 260 260 ID&Algorithm&ID&Algorithm\\
\hline 261 261 \hline
A1&Linear Regression&A6&Polinomial Regression\\ 262 262 A1&Linear Regression&A6&Polinomial Regression\\
A2&K-Nearest Neighbor&A7&Ridge Regression\\ 263 263 A2&K-Nearest Neighbor&A7&Ridge Regression\\
A3&Decision Tree&A8&Lasso Regression\\ 264 264 A3&Decision Tree&A8&Lasso Regression\\
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ 265 265 A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\
A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\ 266 266 A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\
\end{tabular} 267 267 \end{tabular}
\caption{Liste des algorithmes évalués} 268 268 \caption{Liste des algorithmes évalués}
\label{tabAlgs2} 269 269 \label{tabAlgs2}
\end{table} 270 270 \end{table}
271 271
Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données. 272 272 Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données.
273 273
\begin{table}[!ht] 274 274 \begin{table}[!ht]
\footnotesize 275 275 \footnotesize
\centering 276 276 \centering
\begin{tabular}{c|ccccccccccc} 277 277 \begin{tabular}{c|ccccccccccc}
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ 278 278 Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
\hline 279 279 \hline
DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\ 280 280 DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\
DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\ 281 281 DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\
DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\ 282 282 DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\
DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\ 283 283 DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\
DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\ 284 284 DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\
DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\ 285 285 DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\
DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\ 286 286 DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\
DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\ 287 287 DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\
DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\ 288 288 DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\
DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\ 289 289 DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\
\hline 290 290 \hline
Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\ 291 291 Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\
\end{tabular} 292 292 \end{tabular}
\caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} 293 293 \caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés}
\label{tabRes1_2} 294 294 \label{tabRes1_2}
\end{table} 295 295 \end{table}
296 296
\begin{table}[!ht] 297 297 \begin{table}[!ht]
\footnotesize 298 298 \footnotesize
\centering 299 299 \centering
\begin{tabular}{c|ccccccccccc} 300 300 \begin{tabular}{c|ccccccccccc}
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ 301 301 Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\
\hline 302 302 \hline
DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\ 303 303 DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\
DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\ 304 304 DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\
DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\ 305 305 DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\
DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\ 306 306 DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\
DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\ 307 307 DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\
DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\ 308 308 DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\
DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\ 309 309 DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\
DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\ 310 310 DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\
DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\ 311 311 DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\
DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\ 312 312 DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\
\hline 313 313 \hline
Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\ 314 314 Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\
\end{tabular} 315 315 \end{tabular}
\caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} 316 316 \caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés}
\label{tabRes2_2} 317 317 \label{tabRes2_2}
\end{table} 318 318 \end{table}
319 319
La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés. 320 320 La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés.
321 321
\begin{figure} 322 322 \begin{figure}
\includegraphics[width=\textwidth]{./Figures/boxplot.png} 323 323 \includegraphics[width=\textwidth]{./Figures/boxplot.png}
\caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives} 324 324 \caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives}
\label{figBox2} 325 325 \label{figBox2}
\end{figure} 326 326 \end{figure}
327 327
\subsection{Discussion} 328 328 \subsection{Discussion}
329 329
De par ses performances, ESCBR se révèle compétitif par rapport à certains des neuf autres algorithmes testés pour la prédiction dans les problèmes de régression. En particulier, dans ce travail, nous avons effectué les tests sur dix jeux de données aux caractéristiques variées, telles que le nombre d'instances, le nombre de caractéristiques, le domaine des variables d'entrée, les dimensions de la variable de sortie et le domaine d'application. Cela démontre la polyvalence de l'algorithme proposé et son applicabilité à différentes configurations. Étant donné la nature exploratoire et stochastique d'ESCBR, il présente une grande diversité de solutions générant plusieurs valeurs aberrantes. Malgré cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois élevées, mais celles de la médiane restent faibles, la médiane atténuant les disparités. 330 330 De par ses performances, ESCBR se révèle compétitif par rapport à certains des neuf autres algorithmes testés pour la prédiction dans les problèmes de régression. En particulier, dans ce travail, nous avons effectué les tests sur dix jeux de données aux caractéristiques variées, telles que le nombre d'instances, le nombre de caractéristiques, le domaine des variables d'entrée, les dimensions de la variable de sortie et le domaine d'application. Cela démontre la polyvalence de l'algorithme proposé et son applicabilité à différentes configurations. Étant donné la nature exploratoire et stochastique d'ESCBR, il présente une grande diversité de solutions générant plusieurs valeurs aberrantes. Malgré cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois élevées, mais celles de la médiane restent faibles, la médiane atténuant les disparités.
331 331
On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire). 332 332 On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire).
333 333
Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place. 334 334 Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place.
335 335
Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique. 336 336 Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique.
337 337
De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certaines problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables. 338 338 De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certaines problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables.
339 339
\subsection{Conclusion} 340 340 \subsection{Conclusion}
341 341
Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et le modèle d'empilement que nous avons baptisé ESCBR. Ce modèle ne nécessite pas d'entrainement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\\\ 342 342 Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et le modèle d'empilement que nous avons baptisé ESCBR. Ce modèle ne nécessite pas d'entrainement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\\\
343 343
\section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR} 344 344 \section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}
345 345
La méthode ESCBR que nous avons proposée dans la section précédente est fondée sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposées par des processus intelligents et concurrents pour en générer une, nous nous sommes tout naturellement tourné vers la possibilité d'inclure des agents dans le processus de décision. L'une des ambitions des systèmes multi-agents consiste en effet à faire émerger une intelligence collective capable de fournir une solution. Cette section présente donc l'évolution d'ESCBR en ESCBR-SMA. 346 346 La méthode ESCBR que nous avons proposée dans la section précédente est fondée sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposées par des processus intelligents et concurrents pour en générer une, nous nous sommes tout naturellement tournés vers la possibilité d'inclure des agents dans le processus de décision. L'une des ambitions des systèmes multi-agents consiste en effet à faire émerger une intelligence collective capable de fournir une solution. Cette section présente donc l'évolution d'ESCBR en ESCBR-SMA.
347 347
\subsection{Modèle Proposé} 348 348 \subsection{Modèle Proposé}
349 349
L'algorithme ESCBR-SMA est fondé sur le paradigme du RàPC et incorpore divers algorithmes de recherche de voisins et de génération de solutions. Ceux-ci sont intégrés à l'aide d'une variante du modèle d'empilement en deux étapes itératives, exécutées par des agents qui exploitent indépendamment les algorithmes définis dans les conteneurs de connaissances de la révision et de la réutilisation du cycle classique du RàPC. Les agents possèdent une mémoire locale qui leur permet d'ajuster et de développer leur recherche de voisins, en générant des solutions à chaque itération. Chaque agent a un comportement individuel autorisant l'échange d'informations avec les autres agents. La figure \ref{figNCBR} décrit le processus de décision et les comportements des agents au sein du système élargi. 350 350 L'algorithme ESCBR-SMA est fondé sur le paradigme du RàPC et incorpore divers algorithmes de recherche de voisins et de génération de solutions. Ceux-ci sont intégrés à l'aide d'une variante du modèle d'empilement en deux étapes itératives, exécutées par des agents qui exploitent indépendamment les algorithmes définis dans les conteneurs de connaissances de la révision et de la réutilisation du cycle classique du RàPC. Les agents possèdent une mémoire locale qui leur permet d'ajuster et de développer leur recherche de voisins, en générant des solutions à chaque itération. Chaque agent a un comportement individuel autorisant l'échange d'informations avec les autres agents. La figure \ref{figNCBR} décrit le processus de décision et les comportements des agents au sein du système élargi.
351 351
\begin{figure}[!ht] 352 352 \begin{figure}[!ht]
\centering 353 353 \centering
\includegraphics[width=\textwidth]{Figures/NCBR.png} 354 354 \includegraphics[width=\textwidth]{Figures/NCBR.png}
\caption{Deux cycles du système ESCBR-SMA proposé} 355 355 \caption{Deux cycles du système ESCBR-SMA proposé}
\label{figNCBR} 356 356 \label{figNCBR}
\end{figure} 357 357 \end{figure}
358 358
Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problème au cours de la première étape puis, au cours de la seconde, génère une solution en se référant à la liste des solutions obtenues au cours de la première étape. À chaque itération, les agents peuvent choisir parmi trois comportements programmés : la recherche de problèmes voisins, la génération de solutions ou l'échange d'informations avec un autre agent. L'exécution de ces trois comportements programmés est asynchrone. En revanche, la création et la sélection de la liste des voisins se font de manière synchronisée. 359 359 Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problème au cours de la première étape puis, au cours de la seconde, génère une solution en se référant à la liste des solutions obtenues au cours de la première étape. À chaque itération, les agents peuvent choisir parmi trois comportements programmés : la recherche de problèmes voisins, la génération de solutions ou l'échange d'informations avec un autre agent. L'exécution de ces trois comportements programmés est asynchrone. En revanche, la création et la sélection de la liste des voisins se font de manière synchronisée.
360 360
Les étapes d'extraction, de réutilisation, de révision et de conservation restent conformes au modèle RàPC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles étapes : 361 361 Les étapes d'extraction, de réutilisation, de révision et de conservation restent conformes au modèle RàPC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles étapes :
\begin{itemize} 362 362 \begin{itemize}
\item durant la phase de reconfiguration, les agents mettent à jour les valeurs de leurs paramètres locaux afin d'améliorer la qualité de la solution proposée lors de l'itération suivante, 363 363 \item durant la phase de reconfiguration, les agents mettent à jour les valeurs de leurs paramètres locaux afin d'améliorer la qualité de la solution proposée lors de l'itération suivante,
\item durant la phase d'échange, les agents échangent des informations pour améliorer leurs processus internes de recherche et de génération, 364 364 \item durant la phase d'échange, les agents échangent des informations pour améliorer leurs processus internes de recherche et de génération,
\item enfin, l'étape de révision met à jour les valeurs des paramètres globaux de l'algorithme. 365 365 \item enfin, l'étape de révision met à jour les valeurs des paramètres globaux de l'algorithme.
\end{itemize} 366 366 \end{itemize}
367 367
Le flux complet de l'algorithme proposé est décrit sur la figure \ref{figFlowCBR}. 368 368 Le flux complet de l'algorithme proposé est décrit sur la figure \ref{figFlowCBR}.
369 369
En premier lieu, ESCBR-SMA crée $n$ agents. Lors de l'initialisation, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, et initialisent également les vecteurs bayésiens correspondants. Tous les agents travaillent avec le même ensemble de données. 370 370 En premier lieu, ESCBR-SMA crée $n$ agents. Lors de l'initialisation, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, et initialisent également les vecteurs bayésiens correspondants. Tous les agents travaillent avec le même ensemble de données.
371 371
Les agents exécutent en parallèle l'algorithme de récupération sélectionné, à partir des problèmes similaires trouvés ; chaque agent extrait les solutions et exécute l'algorithme spécifique de génération d'une nouvelle solution. 372 372 Les agents exécutent en parallèle l'algorithme de récupération sélectionné, à partir des problèmes similaires trouvés ; chaque agent extrait les solutions et exécute l'algorithme spécifique de génération d'une nouvelle solution.
Toutes les solutions proposées par les agents sont évaluées à l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvée à ce stade. 373 373 Toutes les solutions proposées par les agents sont évaluées à l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvée à ce stade.
374 374
Au cours de l'étape suivante, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, puis ils mettent à jour les vecteurs bayésiens en fonction des résultats obtenus avec la fonction objectif. 375 375 Au cours de l'étape suivante, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, puis ils mettent à jour les vecteurs bayésiens en fonction des résultats obtenus avec la fonction objectif.
376 376
Lors de l'itération suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de récupération et de réutilisation, ne changer que l'algorithme de réutilisation ou échanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit aléatoirement une action pour tenter d'améliorer la solution candidate. 377 377 Lors de l'itération suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de récupération et de réutilisation, ne changer que l'algorithme de réutilisation ou échanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit aléatoirement une action pour tenter d'améliorer la solution candidate.
378 378
L'ensemble des variables et paramètres d'ESCBR-SMA additionnels au tableau \ref{tabVarPar} sont consignés dans le tableau \ref{tabVarPar2}. Le système multi-agents est composé d'un nombre variable d'agents, tous homogènes mais dotés de processus cognitifs internes indépendants et stochastiques. 379 379 ESCBR-SMA utilise l'ensemble des variables et paramètres du tableau \ref{tabVarPar} ainsi que ceux consignés dans le tableau \ref{tabVarPar2}. Le système multi-agents est composé d'un nombre variable d'agents, tous homogènes mais dotés de processus cognitifs internes indépendants et stochastiques.
380 380
\begin{figure}[!ht] 381 381 \begin{figure}[!ht]
\centering 382 382 \centering
\includegraphics[scale=0.6]{Figures/FlowCBR.png} 383 383 \includegraphics[scale=0.6]{Figures/FlowCBR.png}
\caption{Flux du \textit{Stacking} du RàPC (* est une tâche effectuée par chaque agent)} 384 384 \caption{Flux du \textit{Stacking} du RàPC (* : tâche effectuée par chaque agent)}
\label{figFlowCBR} 385 385 \label{figFlowCBR}
\end{figure} 386 386 \end{figure}
387 387
\begin{table}[!ht] 388 388 \begin{table}[!ht]
\footnotesize 389 389 \footnotesize
\centering 390 390 \centering
\begin{tabular}{cccc} 391 391 \begin{tabular}{cccc}
ID&Type&Description&Domain\\ 392 392 ID&Type&Description&Domain\\
\hline 393 393 \hline
$p_w$&v&Description du nouveau problème&$\mathbb{R} ^ n$\\ 394 394 $p_w$&v&Description du nouveau problème&$\mathbb{R} ^ n$\\
$s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\ 395 395 $s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\
$n_{rt}$&v&Nombre d'algorithmes por l'étape de rétrouver&$\mathbb{Z}$\\ 396 396 $n_{rt}$&v&Nombre d'algorithmes pour l'étape de rétrouver&$\mathbb{Z}$\\
$n_{rs}$&v&Nombre d'algorithmes de réutilisation&$\mathbb{Z}$\\ 397 397 $n_{rs}$&v&Nombre d'algorithmes de réutilisation&$\mathbb{Z}$\\
$rn(x,y)$&f& 398 398 $rn(x,y)$&f&
399 399
\begin{tabular}{@{}c@{}}Valeur aléatoire avec distribution normale\\ $x$ moyenne, $y$ écart-type 400 400 \begin{tabular}{@{}c@{}}Valeur aléatoire avec distribution normale\\ $x$ moyenne, $y$ écart-type
\end{tabular} 401 401 \end{tabular}
402 402
&$\mathbb{R}_+$\\ 403 403 &$\mathbb{R}_+$\\
$rnp(x,y)$&f& 404 404 $rnp(x,y)$&f&
405 405
\begin{tabular}{@{}c@{}}Valeur aléatoire discrète, $x$ nombre d'options \\ $y$ vecteur discret de probabilités 406 406 \begin{tabular}{@{}c@{}}Valeur aléatoire discrète, $x$ nombre d'options \\ $y$ vecteur discret de probabilités
\end{tabular} 407 407 \end{tabular}
&$\mathbb{Z}$\\ 408 408 &$\mathbb{Z}$\\
\end{tabular} 409 409 \end{tabular}
\caption{Variables et paramètres du modèle proposé (Type: p - paramètre, v - variable, f - fonction)} 410 410 \caption{Variables et paramètres supplémentaires du modèle ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)}
\label{tabVarPar2} 411 411 \label{tabVarPar2}
\end{table} 412 412 \end{table}
413 413
\subsubsection{Algorithmes} 414 414 \subsubsection{Algorithmes}
415 415
Cette section présente de manière plus détaillée les comportements des agents d'ESCBR-SMA. 416 416 Cette section présente de manière plus détaillée les comportements des agents d'ESCBR-SMA.
417 417
Lors de la première étape de l'empilement, chaque agent peut sélectionner l'un des algorithmes à mettre en œuvre pour rechercher des problèmes similaires au nouveau problème posé. Les algorithmes possibles sont les suivants : KNN (K-Nearest Neighbor), KMeans, GMM (Gaussian Mixture Model), FuzzyC et KNN pondéré. 418 418 Lors de la première étape de l'empilement, chaque agent peut sélectionner l'un des algorithmes suivants pour rechercher des problèmes similaires au problème cible : KNN (\textit{K-Nearest Neighbor}), \textit{KMeans}, GMM (\textit{Gaussian Mixture Model}), \textit{FuzzyC} et KNN pondéré.
419 419
Lors de la deuxième étape de l'empilement, les agents peuvent choisir un algorithme parmi les suivants : pondération avec probabilité, pondération sans probabilité, valeurs médianes, Copier/Changer, vote, interpolation, PCA (analyse en composantes principales) et non aléatoire. Les algorithmes ont été explicités dans la section 6.2.1.2. 420 420 Lors de la deuxième étape de l'empilement, les agents peuvent choisir un algorithme parmi les suivants : pondération avec probabilité, pondération sans probabilité, valeurs médianes, Copier/Changer, vote, interpolation, PCA (analyse en composantes principales) et \colorbox{yellow}{non aléatoire}. Ces algorithmes ont été explicités dans la section 6.2.1.2.
421 421
\subsubsection{Structure des agents} 422 422 \subsubsection{Structure des agents}
423 423
Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'obtenir un comportement indépendant et différent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nécessaires à l'exécution de l'ensemble du processus. 424 424 Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'adopter un comportement indépendant et différent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nécessaires à l'exécution de l'ensemble du processus.
425 425
Chaque agent peut exécuter trois actions différentes : 426 426 Chaque agent peut exécuter trois actions différentes :
\begin{itemize} 427 427 \begin{itemize}
\item « Récupérer et réutiliser », 428 428 \item « Récupérer et réutiliser »,
\item « Réutiliser » et 429 429 \item « Réutiliser » et
\item « Échanger ». 430 430 \item « Échanger ».
\end{itemize} 431 431 \end{itemize}
432 432
Chaque agent accède aux valeurs de huit variables qui lui sont propres : 433 433 Chaque agent accède aux valeurs de huit variables qui lui sont propres :
\begin{itemize} 434 434 \begin{itemize}
\item le nombre de voisins définissant le nombre de problèmes similaires au nouveau problème posé que l'agent doit rechercher dans la base de connaissancesÒ, 435 435 \item le nombre de voisins définissant le nombre de problèmes similaires au nouveau problème posé que l'agent doit rechercher dans la base de connaissances,
\item la liste des voisins les plus proches établit la liste des agents avec lesquels des informations peuvent être échangées, 436 436 \item la liste des voisins les plus proches consigne les agents avec lesquels des informations peuvent être échangées,
\item l'identifiant de l'algorithme de récupération que l'agent exécutera pour trouver les problèmes similaires au nouveau problème, 437 437 \item l'identifiant de l'algorithme de récupération que l'agent exécutera pour trouver les problèmes similaires au problème cible,
\item l'identifiant de l'algorithme de réutilisation que l'agent exécutera pour générer une solution candidate au cas cible, 438 438 \item l'identifiant de l'algorithme de réutilisation que l'agent exécutera pour générer une solution candidate au cas cible,
\item la description de la solution générée, 439 439 \item la description de la solution générée,
\item l'évaluation de la solution renseignant sur la qualité de la solution générée et calculée selon une fonction d'optimisation (eq \ref{eqOpt1} et eq \ref{eqOpt2}), 440 440 \item l'évaluation de la solution renseignant sur la qualité de la solution générée et calculée selon une fonction d'optimisation (équations \ref{eqOpt1} et \ref{eqOpt2}),
\item le vecteur bayésien nécessaire aux algorithmes de récupération contenant les valeurs de probabilité, et 441 441 \item le vecteur bayésien nécessaire aux algorithmes de récupération contenant les valeurs de probabilité, et
\item le vecteur bayésien nécessaire aux algorithmes de réutilisation contenant les valeurs de probabilité. 442 442 \item le vecteur bayésien nécessaire aux algorithmes de réutilisation contenant les valeurs de probabilité.
\end{itemize} 443 443 \end{itemize}
444 444
\begin{equation} 445 445 \begin{equation}
min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right) 446 446 min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right)
\label{eqOpt1} 447 447 \label{eqOpt1}
\end{equation} 448 448 \end{equation}
449 449
\begin{equation} 450 450 \begin{equation}
s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n)) 451 451 s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n))
\label{eqOpt2} 452 452 \label{eqOpt2}
\end{equation} 453 453 \end{equation}
454 454
\begin{figure}[!ht] 455 455 \begin{figure}[!ht]
\centering 456 456 \centering
\includegraphics[scale=0.7]{Figures/agent.png} 457 457 \includegraphics[scale=0.7]{Figures/agent.png}
\caption{Structure interne des agents} 458 458 \caption{Structure interne des agents}
\label{figAgent} 459 459 \label{figAgent}
\end{figure} 460 460 \end{figure}
461 461
\subsubsection{Apprentissage des agents} 462 462 \subsubsection{Apprentissage des agents}
463 463
Tous les agents considèrent un vecteur bayésien de probabilité pour la phase de récupération (conteneur $C3$) et un vecteur bayésien de probabilité pour la phase de réutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurés avec une probabilité uniforme pour tous les algorithmes de récupération et de réutilisation (probabilité \textit{a priori}). À chaque itération, les vecteurs sont mis à jour selon l'équation Bayésienne (équation \ref{eqBay}) en utilisant les meilleurs résultats du même agent comme paramètre de vraisemblance. L'agent apprend ainsi de son expérience et sélectionne les algorithmes les plus aptes à fournir les meilleures réponses au regard de l'objectif défini. 464 464 Tous les agents considèrent un vecteur bayésien de probabilité pour la phase de récupération (conteneur $C3$ de la figure \ref{figNCBR}) et un vecteur bayésien de probabilité pour la phase de réutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurés avec une probabilité uniforme pour tous les algorithmes de récupération et de réutilisation (probabilité \textit{a priori}). À chaque itération, les vecteurs sont mis à jour selon l'équation bayésienne \ref{eqBay} en utilisant les meilleurs résultats du même agent comme paramètre de vraisemblance. L'agent apprend ainsi de son expérience et sélectionne les algorithmes les plus aptes à fournir les meilleures réponses au regard de l'objectif défini.
465 465
Par conséquent, d'un point plus global au niveau du SMA, l'apprentissage est fondé sur un raisonnement bayésien où les vecteurs de récupération et de réutilisation évoluent. Un exemple d'évolution est présenté sur la figure \ref{fig:bayev}. Au cours d'une itération, si un algorithme a contribué à la construction de la meilleure solution, il reçoit un point pour chaque agent qui l'a utilisé. Ces informations sont stockées dans un vecteur normalisé qui est ensuite utilisé comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilités dans l'équation bayésienne \ref{eqBay} (dans cette équation, $P(B)$ est le terme de normalisation global). 466 466 Par conséquent, d'un point de vue plus global au niveau du SMA, l'apprentissage est fondé sur un raisonnement bayésien où les vecteurs de récupération et de réutilisation évoluent. Un exemple d'évolution est présenté sur la figure \ref{fig:bayev}. Au cours d'une itération, si un algorithme a contribué à la construction de la meilleure solution, il reçoit un point pour chaque agent qui l'a utilisé. Ces informations sont stockées dans un vecteur normalisé qui est ensuite utilisé comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilités dans l'équation bayésienne \ref{eqBay} (dans cette équation, $P(B)$ est le terme de normalisation global).
467 467
\begin{figure} 468 468 \begin{figure}
\centering 469 469 \centering
\includegraphics[scale=0.5]{Figures/BayesianEvolution.png} 470 470 \includegraphics[scale=0.5]{Figures/BayesianEvolution.png}
\caption{Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse} 471 471 \caption{Exemple d'évolution Bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour Retrieve et Reuse, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour Retrieve et Reuse}
\label{fig:bayev} 472 472 \label{fig:bayev}
\end{figure} 473 473 \end{figure}
474 474
\begin{equation} 475 475 \begin{equation}
P(A|B)=\frac{P(B|A)P(A)}{P(B)} 476 476 P(A|B)=\frac{P(B|A)P(A)}{P(B)}
\label{eqBay} 477 477 \label{eqBay}
\end{equation} 478 478 \end{equation}
479 479
La sélection d'un algorithme de recherche $a_{rt}$ se fait au moyen d'une valeur aléatoire 480 480 La fonction $rnp$ de l'équation \ref{eqRta} choisit l'algorithme de recherche $a_{rt}$ de l'étape $rt$.
\\ \colorbox{yellow}{La valeur est aléatoire ? Ou le choix de la valeur est aléatoire ?} \\ 481 481 Cette fonction prend en paramètres l'ensemble des algorithmes possibles $n_{rt}$ et une probabilité associée $P(A|B)_{rt}$. $P(A|B)_{rt}$ représente la probabilité que l'algorithme de recherche associé fournisse la solution optimale à l'étape $rt$.
tirée du vecteur de distribution de recherche discrète obtenu par raisonnement bayésien et calculé selon l'équation \ref{eqRta}. 482
483 482
\begin{equation} 484 483 \begin{equation}
a_{rt}=rnp(n_{rt},P(A|B)_{rt}) 485 484 a_{rt}=rnp(n_{rt},P(A|B)_{rt})
\label{eqRta} 486 485 \label{eqRta}
\end{equation} 487 486 \end{equation}
488 487
La sélection d'un algorithme de réutilisation $a_{rs}$ se fait au moyen d'une valeur aléatoire 489 488 La fonction $rnp$ est de nouveau utilisée pour choisir l'algorithme de réutilisation $a_{rs}$ (équation \ref{eqRsa}).
\\ \colorbox{yellow}{La valeur est aléatoire ? Ou le choix de la valeur est aléatoire ?} \\ 490
tirée du vecteur de distribution de réutilisation discrète obtenu par raisonnement bayésien et calculé selon l'équation \ref{eqRsa}. 491
492 489
\begin{equation} 493 490 \begin{equation}
a_{rs}=rnp(n_{rs},P(A|B)_{rs}) 494 491 a_{rs}=rnp(n_{rs},P(A|B)_{rs})
\label{eqRsa} 495 492 \label{eqRsa}
\end{equation} 496 493 \end{equation}
497 494
Le processus d'apprentissage est réalisé individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents échangent les informations qu'ils ont calculées, les optimisations locales qu'ils ont réalisées, ainsi que les algorithmes et les paramètres qu'ils ont utilisés. 498 495 Le processus d'apprentissage est réalisé individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents échangent les informations qu'ils ont calculées, les optimisations locales qu'ils ont réalisées, ainsi que les algorithmes et les paramètres qu'ils ont utilisés.
499 496
\subsubsection{Échanges entre les agents} 500 497 \subsubsection{Échanges entre les agents}
501 498
Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itération en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permettent de propager les paramètres menant aux meilleurs résultats et d'effectuer des actions rétrospectivement. Les informations modifables sont choisies aléatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de récupération, de l'algorithme de réutilisation ou même des vecteurs bayésiens. 502 499 Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itération en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramètres menant aux meilleurs résultats et d'effectuer des actions rétrospectivement. Les informations modifables sont choisies aléatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de récupération, de l'algorithme de réutilisation ou même des vecteurs bayésiens.
503 500
\subsection{Résultats} 504 501 \subsection{Résultats}
505 502
Des expérimentations sur onze jeux de données relatifs à des problèmes de régression et présentant des caractéristiques différentes ont été réalisées. Les jeux de données et leurs caractéristiques sont consignés dans le tableau \ref{tabBases}. Les valeurs des paramètres de l'algorithme sont les suivantes $it=100$, $np=50$, $nl=10$ et $ng=10$. 506 503 Des expérimentations sur onze jeux de données relatifs à des problèmes de régression et présentant des caractéristiques différentes ont été réalisées. Les jeux de données et leurs caractéristiques sont consignés dans le tableau \ref{tabBases}. Les valeurs des paramètres d'ESCBR-SMA sont les suivantes : $it=100$ itérations, $np=50$ agents, $nl=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-0} et $ng=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-1}.
\\ \colorbox{yellow}{Quel algorithme ?} 507 504
\\ \colorbox{yellow}{À quoi correspondent ces paramètres ? Quelles sont les unités ?}\\ 508
Le tableau \ref{AlgsPar} présente les valeurs des paramètres de tous les autres algorithmes. 509 505 Le tableau \ref{AlgsPar} présente les valeurs des paramètres de tous les autres algorithmes.
510 506
\begin{table}[!ht] 511 507 \begin{table}[!ht]
\scriptsize 512 508 \scriptsize
\centering 513 509 \centering
\begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}} 514 510 \begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}}
ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\ 515 511 ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\
\hline 516 512 \hline
DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ 517 513 DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\
DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ 518 514 DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\
DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 519 515 DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ 520 516 DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\
DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ 521 517 DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\
DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 522 518 DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 523 519 DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ 524 520 DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\
DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ 525 521 DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\
DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ 526 522 DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\
DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\ 527 523 DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\
\end{tabular} 528 524 \end{tabular}
\caption{Description des jeux de données évalués. (* après codification comme 529 525 \caption{Description des jeux de données évalués.}
\textit{String})} 530
\label{tabBases} 531 526 \label{tabBases}
\end{table} 532 527 \end{table}
533 528
\begin{table}[!ht] 534 529 \begin{table}[!ht]
\centering 535 530 \centering
\begin{tabular}{ccc|ccc} 536 531 \begin{tabular}{ccc|ccc}
ID&Parameter&Value&ID&Parameter&Value\\ 537 532 ID&Parameter&Value&ID&Parameter&Value\\
\hline 538 533 \hline
A1&Intercept&True&A6&Degree&4\\ 539 534 A1&Intercept&True&A6&Degree&4\\
&Positive&True&&Bias&True\\ 540 535 &Positive&True&&Bias&True\\
\hline 541 536 \hline
A2&Neighbors&5&A7&Fit Intercept&True\\ 542 537 A2&Neighbors&5&A7&Fit Intercept&True\\
&Weights&Uniform&&alpha&0.2\\ 543 538 &Weights&Uniform&&alpha&0.2\\
&Metric&Minkowsky&&tol&1e-4\\ 544 539 &Metric&Minkowsky&&tol&1e-4\\
&Power Minkowsky&2\\ 545 540 &Power Minkowsky&2\\
\hline 546 541 \hline
A3&Error&Squared Error&A8&Fit Intercept&True\\ 547 542 A3&Error&Squared Error&A8&Fit Intercept&True\\
&Min samples split&2&&alpha&[0.00001, 0.4]\\ 548 543 &Min samples split&2&&alpha&[0.00001, 0.4]\\
&&&&Max iter&1000\\ 549 544 &&&&Max iter&1000\\
&&&&tol&1e-4\\ 550 545 &&&&tol&1e-4\\
\hline 551 546 \hline
A4&Estimators&10&A9&Error&Squarred Error\\ 552 547 A4&Estimators&10&A9&Error&Squarred Error\\
&Error&Squared Error&&Learning Rate&0.1\\ 553 548 &Error&Squared Error&&Learning Rate&0.1\\
&Min samples split&2&&Estimators&100\\ 554 549 &Min samples split&2&&Estimators&100\\
&Bootstrap&True&&Min Split&2\\ 555 550 &Bootstrap&True&&Min Split&2\\
\hline 556 551 \hline
A5&Hidden Layers&100\\ 557 552 A5&Hidden Layers&100\\
&Activation&Relu\\ 558 553 &Activation&Relu\\
chapters/Publications.aux View file @ c9708fe
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\@writefile{toc}{\contentsline {chapter}{\numberline {9}Publications}{103}{chapter.9}\protected@file@percent } 3 3 \@writefile{toc}{\contentsline {chapter}{\numberline {9}Publications}{105}{chapter.9}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 4 4 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 5 5 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {9.1}Publications par rapport au sujet de thèse}{103}{section.9.1}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {section}{\numberline {9.1}Publications par rapport au sujet de thèse}{105}{section.9.1}\protected@file@percent }
\@writefile{toc}{\contentsline {section}{\numberline {9.2}Autres publications}{104}{section.9.2}\protected@file@percent } 7 7 \@writefile{toc}{\contentsline {section}{\numberline {9.2}Autres publications}{106}{section.9.2}\protected@file@percent }
\@setckpt{./chapters/Publications}{ 8 8 \@setckpt{./chapters/Publications}{
\setcounter{page}{105} 9 9 \setcounter{page}{107}
\setcounter{equation}{0} 10 10 \setcounter{equation}{0}
\setcounter{enumi}{0} 11 11 \setcounter{enumi}{0}
\setcounter{enumii}{0} 12 12 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 13 13 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 14 14 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 15 15 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 16 16 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 17 17 \setcounter{part}{3}
\setcounter{chapter}{9} 18 18 \setcounter{chapter}{9}
\setcounter{section}{2} 19 19 \setcounter{section}{2}
\setcounter{subsection}{0} 20 20 \setcounter{subsection}{0}
\setcounter{subsubsection}{0} 21 21 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 22 22 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 23 23 \setcounter{subparagraph}{0}
\setcounter{figure}{0} 24 24 \setcounter{figure}{0}
\setcounter{table}{0} 25 25 \setcounter{table}{0}
26 \setcounter{section@level}{0}
27 \setcounter{Item}{0}
28 \setcounter{Hfootnote}{0}
29 \setcounter{bookmark@seq@number}{95}
\setcounter{caption@flags}{2} 26 30 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 27 31 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 28 32 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 29 33 \setcounter{subtable}{0}
34 \setcounter{tcbbreakpart}{1}
35 \setcounter{tcblayer}{0}
36 \setcounter{tcolorbox@number}{1}
\setcounter{parentequation}{0} 30 37 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 31 38 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 32 39 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 33 40 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 34 41 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{1} 35 42 \setcounter{upm@format@section@sectionlevel}{0}
43 \setcounter{ttlp@side}{0}
\setcounter{upm@fmt@savedcounter}{0} 36 44 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 37 45 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 38 46 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 39 47 \setcounter{tcb@cnt@upm@definition}{0}
\setcounter{section@level}{1} 40
\setcounter{Item}{0} 41
\setcounter{Hfootnote}{0} 42
\setcounter{bookmark@seq@number}{94} 43
\setcounter{DefaultLines}{2} 44 48 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 45 49 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 46 50 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 47 51 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 48 52 \setcounter{float@type}{16}
\setcounter{algorithm}{1} 49 53 \setcounter{algorithm}{1}
\setcounter{ALG@line}{8} 50 54 \setcounter{ALG@line}{8}
\setcounter{ALG@rem}{8} 51 55 \setcounter{ALG@rem}{8}
\setcounter{ALG@nested}{0} 52 56 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 53 57 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 54 58 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 55 59 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 56 60 \setcounter{ALG@tmpcounter}{0}
} 57 61 }
58 62
chapters/TS.aux View file @ c9708fe
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{Soto2} 3 3 \citation{Soto2}
\citation{MUANGPRATHUB2020e05227} 4 4 \citation{MUANGPRATHUB2020e05227}
\citation{9870279} 5 5 \citation{9870279}
\@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 7 7 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 8 8 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent } 9 9 \@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent }
\citation{Liu2023} 10 10 \citation{Liu2023}
\@writefile{toc}{\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}\protected@file@percent } 11 11 \@writefile{toc}{\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Modèle Proposé}{74}{subsection.7.2.1}\protected@file@percent } 12 12 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Modèle Proposé}{75}{subsection.7.2.1}\protected@file@percent }
\newlabel{eqBeta}{{7.1}{75}{Modèle Proposé}{equation.7.2.1}{}} 13 13 \newlabel{eqBeta}{{7.1}{75}{Modèle Proposé}{equation.7.1}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.1}{\ignorespaces Variables et paramètres du modèle proposé\relax }}{75}{table.caption.45}\protected@file@percent } 14 14 \@writefile{lot}{\contentsline {table}{\numberline {7.1}{\ignorespaces Variables et paramètres du modèle proposé}}{75}{table.caption.45}\protected@file@percent }
\newlabel{tabPar}{{7.1}{75}{Variables et paramètres du modèle proposé\relax }{table.caption.45}{}} 15 15 \newlabel{tabPar}{{7.1}{75}{Variables et paramètres du modèle proposé}{table.caption.45}{}}
\citation{Arthurs} 16 16 \citation{Arthurs}
\newlabel{eqsMg}{{7.2}{76}{Modèle Proposé}{equation.7.2.2}{}} 17 17 \newlabel{eqsMg}{{7.2}{76}{Modèle Proposé}{equation.7.2}{}}
\newlabel{eqgtc}{{7.3}{76}{Modèle Proposé}{equation.7.2.3}{}} 18 18 \newlabel{eqgtc}{{7.3}{76}{Modèle Proposé}{equation.7.3}{}}
\newlabel{eqltc}{{7.4}{76}{Modèle Proposé}{equation.7.2.4}{}} 19 19 \newlabel{eqltc}{{7.4}{76}{Modèle Proposé}{equation.7.4}{}}
\newlabel{eqBRnd}{{7.5}{76}{Modèle Proposé}{equation.7.2.5}{}} 20 20 \newlabel{eqBRnd}{{7.5}{76}{Modèle Proposé}{equation.7.5}{}}
\newlabel{eqsncl}{{7.6}{76}{Modèle Proposé}{equation.7.2.6}{}} 21 21 \newlabel{eqsncl}{{7.6}{76}{Modèle Proposé}{equation.7.6}{}}
\newlabel{eqsGT}{{7.7}{76}{Modèle Proposé}{equation.7.2.7}{}} 22 22 \newlabel{eqsGT}{{7.7}{76}{Modèle Proposé}{equation.7.7}{}}
\@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Stochastic Recommendation Model\relax }}{76}{algorithm.1}\protected@file@percent } 23 23 \@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Stochastic Recommendation Model}}{76}{algorithm.1}\protected@file@percent }
\newlabel{alg2}{{1}{76}{Stochastic Recommendation Model\relax }{algorithm.1}{}} 24 24 \newlabel{alg2}{{1}{76}{Stochastic Recommendation Model}{algorithm.1}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent } 25 25 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Boîte à moustaches pour la base de données générée\relax }}{77}{figure.caption.46}\protected@file@percent } 26 26 \@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Boîte à moustaches pour la base de données générée}}{77}{figure.caption.46}\protected@file@percent }
\newlabel{figData}{{7.1}{77}{Boîte à moustaches pour la base de données générée\relax }{figure.caption.46}{}} 27 27 \newlabel{figData}{{7.1}{77}{Boîte à moustaches pour la base de données générée}{figure.caption.46}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des variables utilisées dans la base de données evaluée\relax }}{77}{table.caption.47}\protected@file@percent } 28 28 \@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des variables utilisées dans la base de données evaluée}}{77}{table.caption.47}\protected@file@percent }
\newlabel{tabDataSet}{{7.2}{77}{Description des variables utilisées dans la base de données evaluée\relax }{table.caption.47}{}} 29 29 \newlabel{tabDataSet}{{7.2}{77}{Description des variables utilisées dans la base de données evaluée}{table.caption.47}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios evalués\relax }}{77}{table.caption.48}\protected@file@percent } 30 30 \@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios evalués}}{77}{table.caption.48}\protected@file@percent }
\newlabel{tabgm1}{{7.3}{77}{Valeurs des paramètres pour les scénarios evalués\relax }{table.caption.48}{}} 31 31 \newlabel{tabgm1}{{7.3}{77}{Valeurs des paramètres pour les scénarios evalués}{table.caption.48}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.2}{\ignorespaces Résultats pour le premier test\relax }}{78}{figure.caption.49}\protected@file@percent } 32 32 \@writefile{lof}{\contentsline {figure}{\numberline {7.2}{\ignorespaces Résultats pour le premier test}}{78}{figure.caption.49}\protected@file@percent }
\newlabel{figCmp2}{{7.2}{78}{Résultats pour le premier test\relax }{figure.caption.49}{}} 33 33 \newlabel{figCmp2}{{7.2}{78}{Résultats pour le premier test}{figure.caption.49}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.3}{\ignorespaces Résultats pour le deuxième Test\relax }}{79}{figure.caption.50}\protected@file@percent } 34 34 \@writefile{lof}{\contentsline {figure}{\numberline {7.3}{\ignorespaces Résultats pour le deuxième Test}}{79}{figure.caption.50}\protected@file@percent }
\newlabel{figCmp3}{{7.3}{79}{Résultats pour le deuxième Test\relax }{figure.caption.50}{}} 35 35 \newlabel{figCmp3}{{7.3}{79}{Résultats pour le deuxième Test}{figure.caption.50}{}}
\newlabel{eqMetric1}{{7.8}{79}{Résultats}{equation.7.2.8}{}} 36 36 \newlabel{eqMetric1}{{7.8}{79}{Résultats}{equation.7.8}{}}
\newlabel{eqMetric2}{{7.9}{79}{Résultats}{equation.7.2.9}{}} 37 37 \newlabel{eqMetric2}{{7.9}{79}{Résultats}{equation.7.9}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.4}{\ignorespaces Résultats pour le troisième Test\relax }}{80}{figure.caption.51}\protected@file@percent } 38 38 \@writefile{lof}{\contentsline {figure}{\numberline {7.4}{\ignorespaces Résultats pour le troisième Test}}{80}{figure.caption.51}\protected@file@percent }
\newlabel{figCmp4}{{7.4}{80}{Résultats pour le troisième Test\relax }{figure.caption.51}{}} 39 39 \newlabel{figCmp4}{{7.4}{80}{Résultats pour le troisième Test}{figure.caption.51}{}}
\newlabel{eqXc}{{7.10}{80}{Résultats}{equation.7.2.10}{}} 40 40 \newlabel{eqXc}{{7.10}{80}{Résultats}{equation.7.10}{}}
\newlabel{eqYc}{{7.11}{80}{Résultats}{equation.7.2.11}{}} 41 41 \newlabel{eqYc}{{7.11}{80}{Résultats}{equation.7.11}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{80}{table.caption.53}\protected@file@percent } 42 42 \newlabel{eqMetricS1}{{7.12}{80}{Résultats}{equation.7.12}{}}
\newlabel{tabRM}{{7.4}{80}{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.53}{}} 43 43 \@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Métrique pour le parcours standard}}{81}{figure.caption.52}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Métrique pour le parcours standard\relax }}{81}{figure.caption.52}\protected@file@percent } 44 44 \newlabel{figMetric}{{7.5}{81}{Métrique pour le parcours standard}{figure.caption.52}{}}
\newlabel{figMetric}{{7.5}{81}{Métrique pour le parcours standard\relax }{figure.caption.52}{}} 45 45 \@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}}{81}{table.caption.53}\protected@file@percent }
\newlabel{eqMetricS1}{{7.12}{81}{Résultats}{equation.7.2.12}{}} 46 46 \newlabel{tabRM}{{7.4}{81}{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}{table.caption.53}{}}
\newlabel{eqMetricS2}{{7.13}{81}{Résultats}{equation.7.2.13}{}} 47 47 \newlabel{eqMetricS2}{{7.13}{81}{Résultats}{equation.7.13}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }}{82}{figure.caption.54}\protected@file@percent } 48 48 \@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)}}{82}{figure.caption.54}\protected@file@percent }
\newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)\relax }{figure.caption.54}{}} 49 49 \newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation métrique à chaque niveau de complexité (Soft learning)}{figure.caption.54}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.55}\protected@file@percent } 50 50 \@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}}{82}{table.caption.55}\protected@file@percent }
\newlabel{tabRM2}{{7.5}{82}{Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.55}{}} 51 51 \newlabel{tabRM2}{{7.5}{82}{Résultats de la métrique $rs_c(x)$ (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}{table.caption.55}{}}
\newlabel{eqCS}{{7.14}{82}{Résultats}{equation.7.2.14}{}} 52 52 \newlabel{eqCS}{{7.14}{82}{Résultats}{equation.7.14}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }}{82}{table.caption.56}\protected@file@percent } 53 53 \@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}}{83}{table.caption.56}\protected@file@percent }
\newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)\relax }{table.caption.56}{}} 54 54 \newlabel{tabCS}{{7.6}{83}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans modèle de recommandation, DM - Modèle deterministique, SM - Modèle stochastique)}{table.caption.56}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{83}{subsection.7.2.3}\protected@file@percent } 55 55 \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusions}{83}{subsection.7.2.3}\protected@file@percent }
\citation{jmse11050890} 56 56 \citation{jmse11050890}
\citation{ZHANG2018189} 57 57 \citation{ZHANG2018189}
58 \@writefile{toc}{\contentsline {section}{\numberline {7.3}ESCBR-SMA et Échantillonnage de Thompson}{84}{section.7.3}\protected@file@percent }
59 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}\protected@file@percent }
\citation{NEURIPS2023_9d8cf124} 58 60 \citation{NEURIPS2023_9d8cf124}
\citation{pmlr-v238-ou24a} 59 61 \citation{pmlr-v238-ou24a}
\citation{math12111758} 60 62 \citation{math12111758}
\citation{NGUYEN2024111566} 61 63 \citation{NGUYEN2024111566}
\@writefile{toc}{\contentsline {section}{\numberline {7.3}ESCBR-SMA et Échantillonnage de Thompson}{84}{section.7.3}\protected@file@percent } 62 64 \newlabel{eqbkt1}{{7.15}{85}{Concepts Associés}{equation.7.15}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}\protected@file@percent } 63 65 \newlabel{eqbkt2}{{7.16}{85}{Concepts Associés}{equation.7.16}{}}
\newlabel{eqbkt1}{{7.15}{84}{Concepts Associés}{equation.7.3.15}{}} 64 66 \newlabel{eqbkt3}{{7.17}{85}{Concepts Associés}{equation.7.17}{}}
\newlabel{eqbkt2}{{7.16}{84}{Concepts Associés}{equation.7.3.16}{}} 65 67 \newlabel{fbeta}{{7.18}{85}{Concepts Associés}{equation.7.18}{}}
\newlabel{eqbkt3}{{7.17}{84}{Concepts Associés}{equation.7.3.17}{}} 66 68 \newlabel{eqGamma1}{{7.19}{85}{Concepts Associés}{equation.7.19}{}}
\newlabel{fbeta}{{7.18}{85}{Concepts Associés}{equation.7.3.18}{}} 67 69 \newlabel{f2beta}{{7.20}{85}{Concepts Associés}{equation.7.20}{}}
\newlabel{eqGamma1}{{7.19}{85}{Concepts Associés}{equation.7.3.19}{}} 68 70 \newlabel{f3Beta}{{7.21}{85}{Concepts Associés}{equation.7.21}{}}
\newlabel{f2beta}{{7.20}{85}{Concepts Associés}{equation.7.3.20}{}} 69 71 \newlabel{eqJac}{{7.22}{85}{Concepts Associés}{equation.7.22}{}}
\newlabel{f3Beta}{{7.21}{85}{Concepts Associés}{equation.7.3.21}{}} 70 72 \newlabel{f4Beta}{{7.23}{85}{Concepts Associés}{equation.7.23}{}}
\newlabel{eqJac}{{7.22}{85}{Concepts Associés}{equation.7.3.22}{}} 71
\newlabel{f4Beta}{{7.23}{85}{Concepts Associés}{equation.7.3.23}{}} 72
\newlabel{f5Beta}{{7.24}{85}{Concepts Associés}{equation.7.3.24}{}} 73
\newlabel{f6Beta}{{7.25}{85}{Concepts Associés}{equation.7.3.25}{}} 74
\citation{Li_2024} 75 73 \citation{Li_2024}
\citation{Kim2024} 76 74 \citation{Kim2024}
75 \newlabel{f5Beta}{{7.24}{86}{Concepts Associés}{equation.7.24}{}}
76 \newlabel{f6Beta}{{7.25}{86}{Concepts Associés}{equation.7.25}{}}
77 \newlabel{f7Beta}{{7.26}{86}{Concepts Associés}{equation.7.26}{}}
78 \newlabel{dkl}{{7.27}{86}{Concepts Associés}{equation.7.27}{}}
79 \newlabel{djs}{{7.28}{86}{Concepts Associés}{equation.7.28}{}}
80 \newlabel{djs2}{{7.29}{86}{Concepts Associés}{equation.7.29}{}}
\citation{10.1007/978-3-031-63646-2_11} 77 81 \citation{10.1007/978-3-031-63646-2_11}
\newlabel{f7Beta}{{7.26}{86}{Concepts Associés}{equation.7.3.26}{}} 78
\newlabel{dkl}{{7.27}{86}{Concepts Associés}{equation.7.3.27}{}} 79
\newlabel{djs}{{7.28}{86}{Concepts Associés}{equation.7.3.28}{}} 80
\newlabel{djs2}{{7.29}{86}{Concepts Associés}{equation.7.3.29}{}} 81
\citation{10.1145/3578337.3605122} 82 82 \citation{10.1145/3578337.3605122}
\citation{lei2024analysis} 83 83 \citation{lei2024analysis}
\@writefile{lof}{\contentsline {figure}{\numberline {7.7}{\ignorespaces Schéma de l'architecture du modèle proposé\relax }}{87}{figure.caption.57}\protected@file@percent } 84
\newlabel{fig:Amodel}{{7.7}{87}{Schéma de l'architecture du modèle proposé\relax }{figure.caption.57}{}} 85
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.2}Modèle Proposé}{87}{subsection.7.3.2}\protected@file@percent } 86 84 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.2}Modèle Proposé}{87}{subsection.7.3.2}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {7.7}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées\relax }}{88}{table.caption.58}\protected@file@percent } 87 85 \@writefile{lof}{\contentsline {figure}{\numberline {7.7}{\ignorespaces Schéma de l'architecture du modèle proposé}}{88}{figure.caption.57}\protected@file@percent }
\newlabel{tabvp}{{7.7}{88}{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées\relax }{table.caption.58}{}} 88 86 \newlabel{fig:Amodel}{{7.7}{88}{Schéma de l'architecture du modèle proposé}{figure.caption.57}{}}
\newlabel{IntEq1_}{{7.30}{88}{Modèle Proposé}{equation.7.3.30}{}} 89 87 \@writefile{lot}{\contentsline {table}{\numberline {7.7}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées}}{88}{table.caption.58}\protected@file@percent }
\newlabel{IntEq2_}{{7.31}{88}{Modèle Proposé}{equation.7.3.31}{}} 90 88 \newlabel{tabvp}{{7.7}{88}{Paramètres (p), variables (v) et fonctions (f) du modèle proposé et les métriques utilisées}{table.caption.58}{}}
\newlabel{eqMixModels_}{{7.32}{88}{Modèle Proposé}{equation.7.3.32}{}} 91 89 \newlabel{IntEq1_}{{7.30}{88}{Modèle Proposé}{equation.7.30}{}}
90 \newlabel{IntEq2_}{{7.31}{88}{Modèle Proposé}{equation.7.31}{}}
\citation{badier:hal-04092828} 92 91 \citation{badier:hal-04092828}
\citation{doi:10.1137/23M1592420} 93 92 \citation{doi:10.1137/23M1592420}
93 \newlabel{eqMixModels_}{{7.32}{89}{Modèle Proposé}{equation.7.32}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{89}{subsection.7.3.3}\protected@file@percent } 94 94 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{89}{subsection.7.3.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.1}Régression dans la base de données des apprenants avec ESCBR-SMA}{89}{subsubsection.7.3.3.1}\protected@file@percent } 95 95 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.1}Régression dans la base de données des apprenants avec ESCBR-SMA}{89}{subsubsection.7.3.3.1}\protected@file@percent }
\@writefile{lot}{\contentsline {table}{\numberline {7.8}{\ignorespaces Description des scénarios\relax }}{90}{table.caption.59}\protected@file@percent } 96 96 \@writefile{lot}{\contentsline {table}{\numberline {7.8}{\ignorespaces Description des scénarios}}{90}{table.caption.59}\protected@file@percent }
\newlabel{tab:scenarios}{{7.8}{90}{Description des scénarios\relax }{table.caption.59}{}} 97 97 \newlabel{tab:scenarios}{{7.8}{90}{Description des scénarios}{table.caption.59}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.9}{\ignorespaces Liste des algorithmes évalués \relax }}{90}{table.caption.60}\protected@file@percent } 98 98 \@writefile{lot}{\contentsline {table}{\numberline {7.9}{\ignorespaces Liste des algorithmes évalués }}{90}{table.caption.60}\protected@file@percent }
\newlabel{tabAlgs}{{7.9}{90}{Liste des algorithmes évalués \relax }{table.caption.60}{}} 99 99 \newlabel{tabAlgs}{{7.9}{90}{Liste des algorithmes évalués}{table.caption.60}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.10}{\ignorespaces Résultats de la régression pour la base de données des apprenants avec 100 exécutions\relax }}{90}{table.caption.61}\protected@file@percent } 100 100 \@writefile{lot}{\contentsline {table}{\numberline {7.10}{\ignorespaces Résultats de la régression pour la base de données des apprenants avec 100 exécutions}}{90}{table.caption.61}\protected@file@percent }
\newlabel{tab:results}{{7.10}{90}{Résultats de la régression pour la base de données des apprenants avec 100 exécutions\relax }{table.caption.61}{}} 101 101 \newlabel{tab:results}{{7.10}{90}{Résultats de la régression pour la base de données des apprenants avec 100 exécutions}{table.caption.61}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{90}{subsubsection.7.3.3.2}\protected@file@percent } 102 102 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{91}{subsubsection.7.3.3.2}\protected@file@percent }
\newlabel{eqprog1}{{7.33}{91}{Progression des connaissances}{equation.7.3.33}{}} 103 103 \newlabel{eqprog1}{{7.33}{91}{Progression des connaissances}{equation.7.33}{}}
\newlabel{eqprog2}{{7.34}{91}{Progression des connaissances}{equation.7.3.34}{}} 104 104 \newlabel{eqprog2}{{7.34}{91}{Progression des connaissances}{equation.7.34}{}}
\newlabel{eqVarP}{{7.35}{91}{Progression des connaissances}{equation.7.3.35}{}} 105 105 \newlabel{eqVarP}{{7.35}{91}{Progression des connaissances}{equation.7.35}{}}
\newlabel{eqTEK}{{7.36}{91}{Progression des connaissances}{equation.7.3.36}{}} 106 106 \newlabel{eqTEK}{{7.36}{91}{Progression des connaissances}{equation.7.36}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Comparaison entre TS et BKT}{91}{subsubsection.7.3.3.3}\protected@file@percent } 107 107 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Comparaison entre TS et BKT}{91}{subsubsection.7.3.3.3}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }}{92}{figure.caption.62}\protected@file@percent } 108 108 \@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon}}{92}{figure.caption.62}\protected@file@percent }
\newlabel{fig:evolution}{{7.8}{92}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }{figure.caption.62}{}} 109 109 \newlabel{fig:evolution}{{7.8}{92}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon}{figure.caption.62}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Système de recommandation avec ESCBR-SMA}{92}{subsubsection.7.3.3.4}\protected@file@percent } 110 110 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Système de recommandation avec ESCBR-SMA}{92}{subsubsection.7.3.3.4}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }}{93}{figure.caption.63}\protected@file@percent } 111 111 \@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Comparaison de l'évolution des notes entre les algorithmes BKT et TS}}{93}{figure.caption.63}\protected@file@percent }
\newlabel{fig:EvGrades}{{7.9}{93}{Comparaison de l'évolution des notes entre les algorithmes BKT et TS\relax }{figure.caption.63}{}} 112 112 \newlabel{fig:EvGrades}{{7.9}{93}{Comparaison de l'évolution des notes entre les algorithmes BKT et TS}{figure.caption.63}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent } 113 113 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent }
\newlabel{eqjs4}{{7.37}{93}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.37}{}} 114 114 \@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS}}{94}{figure.caption.64}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }}{94}{figure.caption.64}\protected@file@percent } 115 115 \newlabel{fig:EvCL}{{7.10}{94}{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS}{figure.caption.64}{}}
\newlabel{fig:EvCL}{{7.10}{94}{Comparaison de l'évolution des niveaux entre les algorithmes BKT et TS\relax }{figure.caption.64}{}} 116 116 \newlabel{eqjs4}{{7.37}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.37}{}}
\newlabel{eqjs5}{{7.38}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.38}{}} 117 117 \newlabel{eqjs5}{{7.38}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.38}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{94}{subsection.7.3.4}\protected@file@percent } 118 118 \@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Normalisation de la différence de progression entre l'échantillonnage de Thompson et l'échantillonnage de Thompson avec ESCBR pour 1000 apprenants}}{95}{figure.caption.65}\protected@file@percent }
\citation{10.1145/3578337.3605122} 119 119 \newlabel{fig_cmp2}{{7.11}{95}{Normalisation de la différence de progression entre l'échantillonnage de Thompson et l'échantillonnage de Thompson avec ESCBR pour 1000 apprenants}{figure.caption.65}{}}
\@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Normalisation de la différence de progression entre l'échantillonnage de Thompson et l'échantillonnage de Thompson avec ESCBR pour 1000 apprenants\relax }}{95}{figure.caption.65}\protected@file@percent } 120 120 \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}\protected@file@percent }
\newlabel{fig_cmp2}{{7.11}{95}{Normalisation de la différence de progression entre l'échantillonnage de Thompson et l'échantillonnage de Thompson avec ESCBR pour 1000 apprenants\relax }{figure.caption.65}{}} 121
\@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, Échantillonnage de Thompson et Processus de Hawkes}{95}{section.7.4}\protected@file@percent } 122 121 \@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, Échantillonnage de Thompson et Processus de Hawkes}{95}{section.7.4}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{95}{subsection.7.4.1}\protected@file@percent } 123 122 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Modèle Proposé}{95}{subsection.7.4.1}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Architecture de modèle proposé avec Hawkes\relax }}{96}{figure.caption.66}\protected@file@percent } 124 123 \citation{10.1145/3578337.3605122}
\newlabel{fig:Amodel}{{7.12}{96}{Architecture de modèle proposé avec Hawkes\relax }{figure.caption.66}{}} 125 124 \@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Architecture de modèle proposé avec Hawkes}}{96}{figure.caption.66}\protected@file@percent }
\newlabel{hp1}{{7.39}{96}{Modèle Proposé}{equation.7.4.39}{}} 126 125 \newlabel{fig:Amodel}{{7.12}{96}{Architecture de modèle proposé avec Hawkes}{figure.caption.66}{}}
\citation{Kuzilek2017} 127 126 \citation{Kuzilek2017}
\newlabel{hp21}{{7.40}{97}{Modèle Proposé}{equation.7.4.40}{}} 128 127 \newlabel{hp1}{{7.39}{97}{Modèle Proposé}{equation.7.39}{}}
\newlabel{hp22}{{7.41}{97}{Modèle Proposé}{equation.7.4.41}{}} 129 128 \newlabel{hp21}{{7.40}{97}{Modèle Proposé}{equation.7.40}{}}
\newlabel{hp31}{{7.42}{97}{Modèle Proposé}{equation.7.4.42}{}} 130 129 \newlabel{hp22}{{7.41}{97}{Modèle Proposé}{equation.7.41}{}}
\newlabel{hpfa}{{7.43}{97}{Modèle Proposé}{equation.7.4.43}{}} 131 130 \newlabel{hp31}{{7.42}{97}{Modèle Proposé}{equation.7.42}{}}
\newlabel{hpfb}{{7.44}{97}{Modèle Proposé}{equation.7.4.44}{}} 132 131 \newlabel{hpfa}{{7.43}{97}{Modèle Proposé}{equation.7.43}{}}
\newlabel{eqBetaH}{{7.45}{97}{Modèle Proposé}{equation.7.4.45}{}} 133 132 \newlabel{hpfb}{{7.44}{97}{Modèle Proposé}{equation.7.44}{}}
133 \newlabel{eqBetaH}{{7.45}{97}{Modèle Proposé}{equation.7.45}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{97}{subsection.7.4.2}\protected@file@percent } 134 134 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{97}{subsection.7.4.2}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{97}{subsubsection.7.4.2.1}\protected@file@percent } 135 135 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec une base de données d'étudiants réels (TS avec Hawkes)}{97}{subsubsection.7.4.2.1}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Nombre de recommandations par niveau de complexité (à gauche processus d'apprentissage statique, à droite processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{98}{figure.caption.67}\protected@file@percent } 136 136 \@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Nombre de recommandations par niveau de complexité (à gauche processus d'apprentissage statique, à droite processus d'apprentissage dynamique avec processus de Hawkes)}}{98}{figure.caption.67}\protected@file@percent }
\newlabel{fig:stabilityBP}{{7.13}{98}{Nombre de recommandations par niveau de complexité (à gauche processus d'apprentissage statique, à droite processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.67}{}} 137 137 \newlabel{fig:stabilityBP}{{7.13}{98}{Nombre de recommandations par niveau de complexité (à gauche processus d'apprentissage statique, à droite processus d'apprentissage dynamique avec processus de Hawkes)}{figure.caption.67}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{99}{subsubsection.7.4.2.2}\protected@file@percent } 138 138 \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.2}Base de données simulée (ESCBR, TS avec Hawkes)}{99}{subsubsection.7.4.2.2}\protected@file@percent }
\newlabel{metric1}{{7.46}{99}{Base de données simulée (ESCBR, TS avec Hawkes)}{equation.7.4.46}{}} 139 139 \newlabel{metric1}{{7.46}{99}{Base de données simulée (ESCBR, TS avec Hawkes)}{equation.7.46}{}}
\@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Comparison entre ESCBR-TS et ESCBR-TS-Hawkes\relax }}{99}{table.caption.68}\protected@file@percent } 140 140 \@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Comparison entre ESCBR-TS et ESCBR-TS-Hawkes}}{99}{table.caption.68}\protected@file@percent }
\newlabel{tab:my_label}{{7.11}{99}{Comparison entre ESCBR-TS et ESCBR-TS-Hawkes\relax }{table.caption.68}{}} 141 141 \newlabel{tab:my_label}{{7.11}{99}{Comparison entre ESCBR-TS et ESCBR-TS-Hawkes}{table.caption.68}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{99}{subsection.7.4.3}\protected@file@percent } 142 142 \@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Évolution de la variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)}}{100}{figure.caption.69}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Évolution de la variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{100}{figure.caption.69}\protected@file@percent } 143 143 \newlabel{fig:vars}{{7.14}{100}{Évolution de la variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)}{figure.caption.69}{}}
\newlabel{fig:vars}{{7.14}{100}{Évolution de la variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.69}{}} 144 144 \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}\protected@file@percent }
\@setckpt{./chapters/TS}{ 145 145 \@setckpt{./chapters/TS}{
\setcounter{page}{101} 146 146 \setcounter{page}{102}
\setcounter{equation}{46} 147 147 \setcounter{equation}{46}
\setcounter{enumi}{0} 148 148 \setcounter{enumi}{0}
\setcounter{enumii}{0} 149 149 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 150 150 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 151 151 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 152 152 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 153 153 \setcounter{mpfootnote}{0}
\setcounter{part}{3} 154 154 \setcounter{part}{3}
\setcounter{chapter}{7} 155 155 \setcounter{chapter}{7}
\setcounter{section}{4} 156 156 \setcounter{section}{4}
\setcounter{subsection}{3} 157 157 \setcounter{subsection}{3}
\setcounter{subsubsection}{0} 158 158 \setcounter{subsubsection}{0}
\setcounter{paragraph}{0} 159 159 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 160 160 \setcounter{subparagraph}{0}
\setcounter{figure}{14} 161 161 \setcounter{figure}{14}
\setcounter{table}{11} 162 162 \setcounter{table}{11}
163 \setcounter{section@level}{0}
164 \setcounter{Item}{0}
165 \setcounter{Hfootnote}{0}
166 \setcounter{bookmark@seq@number}{89}
\setcounter{caption@flags}{2} 163 167 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 164 168 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 165 169 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 166 170 \setcounter{subtable}{0}
171 \setcounter{tcbbreakpart}{1}
172 \setcounter{tcblayer}{0}
173 \setcounter{tcolorbox@number}{1}
\setcounter{parentequation}{0} 167 174 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 168 175 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 169 176 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 170 177 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 171 178 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{2} 172 179 \setcounter{upm@format@section@sectionlevel}{0}
180 \setcounter{ttlp@side}{0}
\setcounter{upm@fmt@savedcounter}{0} 173 181 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 174 182 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 175 183 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 176 184 \setcounter{tcb@cnt@upm@definition}{0}
\setcounter{section@level}{2} 177
\setcounter{Item}{0} 178
\setcounter{Hfootnote}{0} 179
\setcounter{bookmark@seq@number}{88} 180
\setcounter{DefaultLines}{2} 181 185 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 182 186 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 183 187 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 184 188 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 185 189 \setcounter{float@type}{16}
\setcounter{algorithm}{1} 186 190 \setcounter{algorithm}{1}
\setcounter{ALG@line}{8} 187 191 \setcounter{ALG@line}{8}
\setcounter{ALG@rem}{8} 188 192 \setcounter{ALG@rem}{8}
\setcounter{ALG@nested}{0} 189 193 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 190 194 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 191 195 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 192 196 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 193 197 \setcounter{ALG@tmpcounter}{0}
} 194 198 }
195 199
chapters/contexte2.aux View file @ c9708fe
\relax 1 1 \relax
\providecommand\hyper@newdestlabel[2]{} 2 2 \providecommand\hyper@newdestlabel[2]{}
\citation{LALITHA2020583} 3 3 \citation{LALITHA2020583}
\citation{LALITHA2020583} 4 4 \citation{LALITHA2020583}
\citation{LALITHA2020583} 5 5 \citation{LALITHA2020583}
\@writefile{toc}{\contentsline {chapter}{\numberline {2}Contexte}{7}{chapter.2}\protected@file@percent } 6 6 \@writefile{toc}{\contentsline {chapter}{\numberline {2}Contexte}{7}{chapter.2}\protected@file@percent }
\@writefile{lof}{\addvspace {10\p@ }} 7 7 \@writefile{lof}{\addvspace {10\p@ }}
\@writefile{lot}{\addvspace {10\p@ }} 8 8 \@writefile{lot}{\addvspace {10\p@ }}
\@writefile{toc}{\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{7}{section.2.1}\protected@file@percent } 9 9 \@writefile{toc}{\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{7}{section.2.1}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{7}{subsection.2.1.1}\protected@file@percent } 10 10 \@writefile{toc}{\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{7}{subsection.2.1.1}\protected@file@percent }
\citation{Nkambou} 11 11 \citation{Nkambou}
\citation{Nkambou} 12 12 \citation{Nkambou}
\@writefile{lof}{\contentsline {figure}{\numberline {2.1}{\ignorespaces Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})\relax }}{8}{figure.caption.4}\protected@file@percent } 13 13 \@writefile{lof}{\contentsline {figure}{\numberline {2.1}{\ignorespaces Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})}}{8}{figure.caption.4}\protected@file@percent }
\providecommand*\caption@xref[2]{\@setref\relax\@undefined{#1}} 14 14 \providecommand*\caption@xref[2]{\@setref\relax\@undefined{#1}}
\newlabel{fig:figStra}{{2.1}{8}{Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})\relax }{figure.caption.4}{}} 15 15 \newlabel{fig:figStra}{{2.1}{8}{Stratégies d'apprentissage (Traduit de \protect \cite {LALITHA2020583})}{figure.caption.4}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.2}Les EIAH}{8}{subsection.2.1.2}\protected@file@percent } 16 16 \@writefile{toc}{\contentsline {subsection}{\numberline {2.1.2}Les EIAH}{8}{subsection.2.1.2}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {2.2}{\ignorespaces L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})\relax }}{9}{figure.caption.5}\protected@file@percent } 17 17 \@writefile{lof}{\contentsline {figure}{\numberline {2.2}{\ignorespaces L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})}}{9}{figure.caption.5}\protected@file@percent }
\newlabel{fig:figEIAH}{{2.2}{9}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})\relax }{figure.caption.5}{}} 18 18 \newlabel{fig:figEIAH}{{2.2}{9}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \protect \cite {Nkambou})}{figure.caption.5}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{9}{subsection.2.1.3}\protected@file@percent } 19 19 \@writefile{toc}{\contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{10}{subsection.2.1.3}\protected@file@percent }
\citation{ROLDANREYES20151} 20 20 \citation{ROLDANREYES20151}
\citation{10.1007/978-3-030-58342-2_20} 21 21 \citation{10.1007/978-3-030-58342-2_20}
\@writefile{toc}{\contentsline {section}{\numberline {2.2}Le contexte technique}{10}{section.2.2}\protected@file@percent } 22
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{10}{subsection.2.2.1}\protected@file@percent } 23
\citation{min8100434} 24 22 \citation{min8100434}
\citation{min8100434} 25 23 \citation{min8100434}
\citation{doi:10.3233/AIC-1994-7104} 26 24 \citation{doi:10.3233/AIC-1994-7104}
\citation{min8100434} 27 25 \citation{min8100434}
\citation{Richter2013} 28 26 \citation{Richter2013}
\@writefile{lof}{\contentsline {figure}{\numberline {2.3}{\ignorespaces Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})\relax }}{11}{figure.caption.6}\protected@file@percent } 29 27 \@writefile{toc}{\contentsline {section}{\numberline {2.2}Le contexte technique}{11}{section.2.2}\protected@file@percent }
\newlabel{fig:figCycle}{{2.3}{11}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})\relax }{figure.caption.6}{}} 30 28 \@writefile{toc}{\contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{11}{subsection.2.2.1}\protected@file@percent }
29 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{11}{subsubsection.2.2.1.1}\protected@file@percent }
30 \newlabel{eqSim}{{2.1}{11}{Retrouver (Rechercher)}{equation.2.1}{}}
31 \@writefile{lof}{\contentsline {figure}{\numberline {2.3}{\ignorespaces Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})}}{12}{figure.caption.6}\protected@file@percent }
32 \newlabel{fig:figCycle}{{2.3}{12}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \protect \cite {min8100434})}{figure.caption.6}{}}
33 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{12}{subsubsection.2.2.1.2}\protected@file@percent }
\citation{Richter2013} 31 34 \citation{Richter2013}
\citation{Richter2013} 32 35 \citation{Richter2013}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{12}{subsubsection.2.2.1.1}\protected@file@percent } 33 36 \@writefile{lof}{\contentsline {figure}{\numberline {2.4}{\ignorespaces Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})}}{13}{figure.caption.7}\protected@file@percent }
\newlabel{eqSim}{{2.1}{12}{Retrouver (Rechercher)}{equation.2.2.1}{}} 34 37 \newlabel{fig:figReut}{{2.4}{13}{Principe de réutilisation dans le RàPC (Traduit de \protect \cite {Richter2013})}{figure.caption.7}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{12}{subsubsection.2.2.1.2}\protected@file@percent } 35 38 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{13}{subsubsection.2.2.1.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{12}{subsubsection.2.2.1.3}\protected@file@percent } 36
\@writefile{lof}{\contentsline {figure}{\numberline {2.4}{\ignorespaces Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})\relax }}{13}{figure.caption.7}\protected@file@percent } 37
\newlabel{fig:figReut}{{2.4}{13}{Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})\relax }{figure.caption.7}{}} 38
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{13}{subsubsection.2.2.1.4}\protected@file@percent } 39
\citation{RICHTER20093} 40 39 \citation{RICHTER20093}
\citation{hajduk2019cognitive} 41 40 \citation{hajduk2019cognitive}
41 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{14}{subsubsection.2.2.1.4}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{14}{subsubsection.2.2.1.5}\protected@file@percent } 42 42 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{14}{subsubsection.2.2.1.5}\protected@file@percent }
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{14}{subsection.2.2.2}\protected@file@percent } 43 43 \@writefile{toc}{\contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{14}{subsection.2.2.2}\protected@file@percent }
\citation{Hoang} 44 44 \citation{Hoang}
\@writefile{lof}{\contentsline {figure}{\numberline {2.5}{\ignorespaces Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }}{15}{figure.caption.8}\protected@file@percent } 45 45 \@writefile{lof}{\contentsline {figure}{\numberline {2.5}{\ignorespaces Cycle du RàPC, les étapes, les conteneurs et leurs flux de données}}{15}{figure.caption.8}\protected@file@percent }
\newlabel{fig:figCycleCBR}{{2.5}{15}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }{figure.caption.8}{}} 46 46 \newlabel{fig:figCycleCBR}{{2.5}{15}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données}{figure.caption.8}{}}
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées}{15}{subsection.2.2.3}\protected@file@percent } 47 47 \@writefile{toc}{\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entrainement proposées}{15}{subsection.2.2.3}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{15}{subsubsection.2.2.3.1}\protected@file@percent } 48 48 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{15}{subsubsection.2.2.3.1}\protected@file@percent }
\citation{Hoang} 49 49 \citation{Hoang}
\citation{10.1145/3459665} 50 50 \citation{10.1145/3459665}
\newlabel{eqBayes}{{2.2}{16}{Pensée Bayesienne}{equation.2.2.2}{}} 51 51 \newlabel{eqBayes}{{2.2}{16}{Pensée Bayesienne}{equation.2.2}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{16}{subsubsection.2.2.3.2}\protected@file@percent } 52 52 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{16}{subsubsection.2.2.3.2}\protected@file@percent }
\newlabel{eqDist}{{2.3}{16}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.3}{}} 53 53 \newlabel{eqDist}{{2.3}{16}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.3}{}}
\newlabel{eqMet1}{{2.4}{16}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.4}{}} 54 54 \newlabel{eqMet1}{{2.4}{16}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.4}{}}
\citation{9072123} 55 55 \citation{9072123}
\citation{WANG2021331} 56 56 \citation{WANG2021331}
\newlabel{eqMet2}{{2.5}{17}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.5}{}} 57 57 \newlabel{eqMet2}{{2.5}{17}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.5}{}}
\newlabel{eqV1}{{2.6}{17}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.6}{}} 58 58 \newlabel{eqV1}{{2.6}{17}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.6}{}}
\newlabel{eqV2}{{2.7}{17}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.7}{}} 59 59 \newlabel{eqV2}{{2.7}{17}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.7}{}}
\newlabel{eqV3}{{2.8}{17}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.8}{}} 60 60 \newlabel{eqV3}{{2.8}{17}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.8}{}}
\newlabel{eqCond}{{2.9}{17}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.9}{}} 61 61 \newlabel{eqCond}{{2.9}{17}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.9}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{17}{subsubsection.2.2.3.3}\protected@file@percent } 62 62 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{17}{subsubsection.2.2.3.3}\protected@file@percent }
\newlabel{eqKM}{{2.10}{17}{K-Moyennes}{equation.2.2.10}{}} 63 63 \newlabel{eqKM}{{2.10}{17}{K-Moyennes}{equation.2.10}{}}
\newlabel{eqCentres}{{2.11}{17}{K-Moyennes}{equation.2.2.11}{}} 64 64 \newlabel{eqCentres}{{2.11}{17}{K-Moyennes}{equation.2.11}{}}
\newlabel{eqApp}{{2.12}{17}{K-Moyennes}{equation.2.2.12}{}} 65 65 \newlabel{eqApp}{{2.12}{17}{K-Moyennes}{equation.2.12}{}}
\citation{9627973} 66 66 \citation{9627973}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{18}{subsubsection.2.2.3.4}\protected@file@percent } 67 67 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{18}{subsubsection.2.2.3.4}\protected@file@percent }
\newlabel{eqGMM}{{2.13}{18}{Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.13}{}} 68 68 \newlabel{eqGMM}{{2.13}{18}{Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.13}{}}
\newlabel{eqdProb}{{2.14}{18}{Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.14}{}} 69 69 \newlabel{eqdProb}{{2.14}{18}{Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.14}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{18}{subsubsection.2.2.3.5}\protected@file@percent } 70 70 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{18}{subsubsection.2.2.3.5}\protected@file@percent }
\newlabel{eqFuzzy}{{2.15}{18}{Fuzzy-C}{equation.2.2.15}{}} 71 71 \newlabel{eqFuzzy}{{2.15}{18}{Fuzzy-C}{equation.2.15}{}}
\newlabel{eqFCond}{{2.16}{18}{Fuzzy-C}{equation.2.2.16}{}} 72 72 \newlabel{eqFCond}{{2.16}{18}{Fuzzy-C}{equation.2.16}{}}
\citation{9434422} 73 73 \citation{9434422}
\citation{9870279} 74 74 \citation{9870279}
\newlabel{eqFV}{{2.17}{19}{Fuzzy-C}{equation.2.2.17}{}} 75 75 \newlabel{eqFV}{{2.17}{19}{Fuzzy-C}{equation.2.17}{}}
\newlabel{eqFU}{{2.18}{19}{Fuzzy-C}{equation.2.2.18}{}} 76 76 \newlabel{eqFU}{{2.18}{19}{Fuzzy-C}{equation.2.18}{}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{19}{subsubsection.2.2.3.6}\protected@file@percent } 77 77 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{19}{subsubsection.2.2.3.6}\protected@file@percent }
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{19}{subsubsection.2.2.3.7}\protected@file@percent } 78 78 \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{19}{subsubsection.2.2.3.7}\protected@file@percent }
\@writefile{lof}{\contentsline {figure}{\numberline {2.6}{\ignorespaces Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$\relax }}{20}{figure.caption.9}\protected@file@percent } 79 79 \newlabel{eqBeta}{{2.19}{19}{Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{equation.2.19}{}}
\newlabel{fig:figBeta}{{2.6}{20}{Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$\relax }{figure.caption.9}{}} 80 80 \@writefile{lof}{\contentsline {figure}{\numberline {2.6}{\ignorespaces Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$}}{20}{figure.caption.9}\protected@file@percent }
\newlabel{eqBeta}{{2.19}{20}{Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{equation.2.2.19}{}} 81 81 \newlabel{fig:figBeta}{{2.6}{20}{Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$}{figure.caption.9}{}}
\@setckpt{./chapters/contexte2}{ 82 82 \@setckpt{./chapters/contexte2}{
\setcounter{page}{21} 83 83 \setcounter{page}{21}
\setcounter{equation}{19} 84 84 \setcounter{equation}{19}
\setcounter{enumi}{0} 85 85 \setcounter{enumi}{0}
\setcounter{enumii}{0} 86 86 \setcounter{enumii}{0}
\setcounter{enumiii}{0} 87 87 \setcounter{enumiii}{0}
\setcounter{enumiv}{0} 88 88 \setcounter{enumiv}{0}
\setcounter{footnote}{0} 89 89 \setcounter{footnote}{0}
\setcounter{mpfootnote}{0} 90 90 \setcounter{mpfootnote}{0}
\setcounter{part}{1} 91 91 \setcounter{part}{1}
\setcounter{chapter}{2} 92 92 \setcounter{chapter}{2}
\setcounter{section}{2} 93 93 \setcounter{section}{2}
\setcounter{subsection}{3} 94 94 \setcounter{subsection}{3}
\setcounter{subsubsection}{7} 95 95 \setcounter{subsubsection}{7}
\setcounter{paragraph}{0} 96 96 \setcounter{paragraph}{0}
\setcounter{subparagraph}{0} 97 97 \setcounter{subparagraph}{0}
\setcounter{figure}{6} 98 98 \setcounter{figure}{6}
\setcounter{table}{0} 99 99 \setcounter{table}{0}
100 \setcounter{section@level}{0}
101 \setcounter{Item}{0}
102 \setcounter{Hfootnote}{0}
103 \setcounter{bookmark@seq@number}{26}
\setcounter{caption@flags}{2} 100 104 \setcounter{caption@flags}{2}
\setcounter{continuedfloat}{0} 101 105 \setcounter{continuedfloat}{0}
\setcounter{subfigure}{0} 102 106 \setcounter{subfigure}{0}
\setcounter{subtable}{0} 103 107 \setcounter{subtable}{0}
108 \setcounter{tcbbreakpart}{1}
109 \setcounter{tcblayer}{0}
110 \setcounter{tcolorbox@number}{1}
\setcounter{parentequation}{0} 104 111 \setcounter{parentequation}{0}
\setcounter{thmt@dummyctr}{0} 105 112 \setcounter{thmt@dummyctr}{0}
\setcounter{vrcnt}{0} 106 113 \setcounter{vrcnt}{0}
\setcounter{upm@subfigure@count}{0} 107 114 \setcounter{upm@subfigure@count}{0}
\setcounter{upm@fmt@mtabular@columnnumber}{0} 108 115 \setcounter{upm@fmt@mtabular@columnnumber}{0}
\setcounter{upm@format@section@sectionlevel}{3} 109 116 \setcounter{upm@format@section@sectionlevel}{0}
117 \setcounter{ttlp@side}{0}
\setcounter{upm@fmt@savedcounter}{0} 110 118 \setcounter{upm@fmt@savedcounter}{0}
\setcounter{@@upm@fmt@inlineenumeration}{0} 111 119 \setcounter{@@upm@fmt@inlineenumeration}{0}
\setcounter{@upm@fmt@enumdescription@cnt@}{0} 112 120 \setcounter{@upm@fmt@enumdescription@cnt@}{0}
\setcounter{upmdefinition}{0} 113 121 \setcounter{tcb@cnt@upm@definition}{0}
\setcounter{section@level}{3} 114
\setcounter{Item}{0} 115
\setcounter{Hfootnote}{0} 116
\setcounter{bookmark@seq@number}{25} 117
\setcounter{DefaultLines}{2} 118 122 \setcounter{DefaultLines}{2}
\setcounter{DefaultDepth}{0} 119 123 \setcounter{DefaultDepth}{0}
\setcounter{L@lines}{3} 120 124 \setcounter{L@lines}{3}
\setcounter{L@depth}{0} 121 125 \setcounter{L@depth}{0}
\setcounter{float@type}{8} 122 126 \setcounter{float@type}{16}
\setcounter{algorithm}{0} 123 127 \setcounter{algorithm}{0}
\setcounter{ALG@line}{0} 124 128 \setcounter{ALG@line}{0}
\setcounter{ALG@rem}{0} 125 129 \setcounter{ALG@rem}{0}
\setcounter{ALG@nested}{0} 126 130 \setcounter{ALG@nested}{0}
\setcounter{ALG@Lnr}{2} 127 131 \setcounter{ALG@Lnr}{2}
\setcounter{ALG@blocknr}{10} 128 132 \setcounter{ALG@blocknr}{10}
\setcounter{ALG@storecount}{0} 129 133 \setcounter{ALG@storecount}{0}
\setcounter{ALG@tmpcounter}{0} 130 134 \setcounter{ALG@tmpcounter}{0}
} 131 135 }
132 136