Commit 17c2a0acfd729318650d6c3e9e365da597b73471
1 parent
2f058a7f8f
Exists in
main
version all ok...
Showing 9 changed files with 27 additions and 25 deletions Side-by-side Diff
.DS_Store
View file @
17c2a0a
chapters/Conclusions.tex
View file @
17c2a0a
... | ... | @@ -18,9 +18,11 @@ |
18 | 18 | |
19 | 19 | Une architecture modulaire capable d'associer plusieurs modules avec des fonctionnalités différentes permet d'ajouter de nouvelles fonctionnalités et de modifier les modules de manière indépendante sans affecter profondément le système. Les modules peuvent être réutilisés et leur indépendance réduit le risque de perturbation de l'ensemble du système tout en augmentant sa résilience. |
20 | 20 | |
21 | -Un algorithme de régression générique, nommé ESCBR et fondé sur le RàPC et l'empilement, a été proposé comme filtre collaboratif dynamique pour la prédiction des notes des apprenants. Cette généricité donne à l'algorithme la flexibilité de s'adapter à différents structures et contextes des données. Ce module est un système multi-agent suivant un raisonnement bayésien incluant des rétroactions, des échanges d'informations, l'émergence d'une intelligence collective et l'utilisation de raisonnements cognitifs. | |
21 | +Un algorithme de régression générique, nommé ESCBR et fondé sur le RàPC et l'empilement, a été proposé comme filtre collaboratif dynamique pour la prédiction des notes des apprenants. Cette généricité donne à l'algorithme la flexibilité de s'adapter à différents structures et contextes des données. Cette contribution illustre la manière dont peut être automatisée la phase de révision du cycle classique suivi par le système de RàPC initial d'AI-VT. | |
22 | 22 | |
23 | -Un module de recommandation stochastique, nommé ESCBR-SMA, fondé sur un algorithme d'échantillonnage a également été conçu et implémenté dans AI-VT. Celui-ci prend en compte les notes obtenues par l'apprenant pendant la séance, et ainsi de manière réactive, propose des évolutions vers le niveau de complexité optimal au regard des connaissances démontrées par l'apprenant. Les résultats montrent que globalement les recommandations sont pertinentes et variées. Cette contribution illustre la manière dont peut être automatisée la phase de révision du cycle classique suivi par le système de RàPC initial d'AI-VT. | |
23 | +Le module nommé ESCBR-SMA fondé sur le module précédent est un système multi-agent suivant un raisonnement bayésien incluant des rétroactions, des échanges d'informations, l'émergence d'une intelligence collective et l'utilisation de raisonnements cognitifs. | |
24 | + | |
25 | +Un module de recommandation stochastique, nommé TS, fondé sur un algorithme d'échantillonnage a également été conçu et implémenté dans AI-VT. Celui-ci prend en compte les notes obtenues par l'apprenant pendant la séance, et ainsi de manière réactive, propose des évolutions vers le niveau de complexité optimal au regard des connaissances démontrées par l'apprenant. Les résultats montrent que globalement les recommandations sont pertinentes et variées. | |
24 | 26 | |
25 | 27 | Une association d'ESCBR-SMA à l'échantillonnage stochastique de Thompson est proposé pour qu'AI-VT puisse tenir compte de considérations globales (filtre collaboratif) et locales (information individuelle propre à chaque apprenant) au moment de proposer une recommandation. Ce module est capable de produire des recommandations optimales même avec peu d'information et ainsi démarrer à froid (\textit{cold start}) tout en s'adaptant au fur et à mesure en réduisant la variance des recommandations. |
26 | 28 |
chapters/Publications.tex
View file @
17c2a0a
1 | 1 | \chapter{Publications} |
2 | 2 | |
3 | -Pendant le travail de cette thèse, plusieurs articles ont été produits en explicitant les contributions réalisées. D'autres publications ont été produites en marge du sujet de cette thèse dans le cadre de la recherche en informatique.\ | |
3 | +Pendant le travail de cette thèse, plusieurs articles ont été produits, explicitant les contributions réalisées. D'autres publications ont été produites en marge du sujet de cette thèse dans le cadre de la recherche en informatique.\ | |
4 | 4 | |
5 | 5 | \section{Publications liées au sujet de thèse} |
6 | 6 |
chapters/TS.aux
View file @
17c2a0a
... | ... | @@ -20,8 +20,8 @@ |
20 | 20 | \@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Algorithme de recommandation stochastique\relax }}{76}{algorithm.1}\protected@file@percent } |
21 | 21 | \newlabel{alg2}{{1}{76}{Algorithme de recommandation stochastique\relax }{algorithm.1}{}} |
22 | 22 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent } |
23 | -\@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des données utilisées pour l'évaluation.\relax }}{76}{table.caption.47}\protected@file@percent } | |
24 | -\newlabel{tabDataSet}{{7.2}{76}{Description des données utilisées pour l'évaluation.\relax }{table.caption.47}{}} | |
23 | +\@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des données utilisées pour l'évaluation\relax }}{76}{table.caption.47}\protected@file@percent } | |
24 | +\newlabel{tabDataSet}{{7.2}{76}{Description des données utilisées pour l'évaluation\relax }{table.caption.47}{}} | |
25 | 25 | \@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios évalués\relax }}{76}{table.caption.48}\protected@file@percent } |
26 | 26 | \newlabel{tabgm1}{{7.3}{76}{Valeurs des paramètres pour les scénarios évalués\relax }{table.caption.48}{}} |
27 | 27 | \@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Répartition des notes générées selon le niveau de complexité.\relax }}{77}{figure.caption.46}\protected@file@percent } |
... | ... | @@ -48,8 +48,8 @@ |
48 | 48 | \newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.\relax }{figure.caption.54}{}} |
49 | 49 | \@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }}{82}{table.caption.55}\protected@file@percent } |
50 | 50 | \newlabel{tabRM2}{{7.5}{82}{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }{table.caption.55}{}} |
51 | -\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module deterministe, SM - Module stochastique)\relax }}{82}{table.caption.56}\protected@file@percent } | |
52 | -\newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module deterministe, SM - Module stochastique)\relax }{table.caption.56}{}} | |
51 | +\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }}{82}{table.caption.56}\protected@file@percent } | |
52 | +\newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }{table.caption.56}{}} | |
53 | 53 | \@writefile{toc}{\contentsline {section}{\numberline {7.3}ESCBR-SMA et échantillonnage de Thompson}{83}{section.7.3}\protected@file@percent } |
54 | 54 | \citation{jmse11050890} |
55 | 55 | \citation{ZHANG2018189} |
... | ... | @@ -122,8 +122,8 @@ |
122 | 122 | \newlabel{fig:EvCL}{{7.12}{95}{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS\relax }{figure.caption.66}{}} |
123 | 123 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}\protected@file@percent } |
124 | 124 | \citation{10.1145/3578337.3605122} |
125 | -\@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson aassocié à ESCBR-SMA pour 1000 apprenants\relax }}{96}{figure.caption.67}\protected@file@percent } | |
126 | -\newlabel{fig_cmp2}{{7.13}{96}{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson aassocié à ESCBR-SMA pour 1000 apprenants\relax }{figure.caption.67}{}} | |
125 | +\@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }}{96}{figure.caption.67}\protected@file@percent } | |
126 | +\newlabel{fig_cmp2}{{7.13}{96}{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }{figure.caption.67}{}} | |
127 | 127 | \@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}\protected@file@percent } |
128 | 128 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}\protected@file@percent } |
129 | 129 | \@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }}{97}{figure.caption.68}\protected@file@percent } |
chapters/TS.tex
View file @
17c2a0a
... | ... | @@ -129,7 +129,7 @@ |
129 | 129 | $q_{g,c}$&Note obtenue $g$ pour la question $q$ avec complexité $c$ &$[0,g_m] \in \mathbb{R}$\\ |
130 | 130 | $q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\ |
131 | 131 | \end{tabular} |
132 | -\caption{Description des données utilisées pour l'évaluation.} | |
132 | +\caption{Description des données utilisées pour l'évaluation} | |
133 | 133 | \label{tabDataSet} |
134 | 134 | \end{table} |
135 | 135 | |
... | ... | @@ -318,7 +318,7 @@ |
318 | 318 | DM&0.9540&0.9887&0.9989\\ |
319 | 319 | SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\ |
320 | 320 | \end{tabular} |
321 | -\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module deterministe, SM - Module stochastique)} | |
321 | +\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)} | |
322 | 322 | \label{tabCS} |
323 | 323 | \end{table} |
324 | 324 | |
... | ... | @@ -470,7 +470,7 @@ |
470 | 470 | |
471 | 471 | L'idée est d'unifier les deux modules en se fondant à la fois sur des informations locales (recommandation fondée sur l'échantillonnage de Thompson (TS) et les informations propres à l'apprenant), et sur des informations globales (cas similaires de la base de connaissances du système de RàPC en suivant le principe du paradoxe de Stein) car le RàPC combine différents observations pour réaliser une estimation. |
472 | 472 | |
473 | -L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, où l'on peut voir que les deux algorithmes TS et RàPC sont exécutés en parallèle et indépendamment. Des synchronisations sont faites après obtention des résultats de chaque module. Ces résultats sont unifiés via d'une fonction de pondération. La recommandation finale est calculée selon l'équation \ref{eqMixModels_}. Le \textit{paradoxe de Simpson} est un paradoxe dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés\cite{10.1145/3578337.3605122}. L'unification d'ensembles de données différents peut atténuer ce paradoxe \cite{lei2024analysis}. | |
473 | +L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, où l'on peut voir que les deux algorithmes TS et RàPC sont exécutés en parallèle et indépendamment. Des synchronisations sont faites après obtention des résultats de chaque module. Ces résultats sont unifiés via d'une fonction de pondération. La recommandation finale est calculée selon l'équation \ref{eqMixModels_}. Le \textit{paradoxe de Simpson} est un paradoxe dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés \cite{10.1145/3578337.3605122}. L'unification d'ensembles de données différents peut atténuer ce paradoxe \cite{lei2024analysis}. | |
474 | 474 | |
475 | 475 | \begin{figure} |
476 | 476 | \centering |
... | ... | @@ -485,7 +485,7 @@ |
485 | 485 | \centering |
486 | 486 | \footnotesize |
487 | 487 | \begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c} |
488 | - ID&Type&Description&Domain\ | |
488 | + ID&Type&Description&Domaine\ | |
489 | 489 | \hline |
490 | 490 | $\alpha$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\ |
491 | 491 | $\beta$&p&Paramètre de la distribution beta&$[1, \infty] \in \mathbb{R}$\\ |
... | ... | @@ -535,7 +535,7 @@ |
535 | 535 | |
536 | 536 | \subsubsection{Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain} |
537 | 537 | |
538 | -Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d'intéragir au cours de l'exécution et de l'exploration. | |
538 | +Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d’interagir au cours de l'exécution et de l'exploration. | |
539 | 539 | |
540 | 540 | ESCBR-SMA utilise une fonction noyau pour obtenir la meilleure approximation de la solution du problème cible. Dans notre cas, l'obtention de la meilleure solution est un problème NP-Difficile car la formulation est similaire au problème de Fermat-Weber à $N$ dimensions \cite{doi:10.1137/23M1592420}. |
541 | 541 | |
... | ... | @@ -561,7 +561,7 @@ |
561 | 561 | \centering |
562 | 562 | \footnotesize |
563 | 563 | \begin{tabular}{ll|ll} |
564 | -ID&Algorithm&ID&Algorithm\ | |
564 | +ID&Algorithme&ID&Algorithme\ | |
565 | 565 | \hline |
566 | 566 | A1&Linear Regression&A6&Polinomial Regression\\ |
567 | 567 | A2&K-Nearest Neighbor&A7&Ridge Regression\\ |
... | ... | @@ -582,7 +582,7 @@ |
582 | 582 | &\multicolumn{10}{c}{\textbf{Algorithme}}\\ |
583 | 583 | \hline |
584 | 584 | & A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ |
585 | - \textbf{Scenario (Metrique)}\ | |
585 | + \textbf{Scenario (Métrique)}\ | |
586 | 586 | \hline |
587 | 587 | $E_1$ (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\ |
588 | 588 | $E_1$ (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\ |
... | ... | @@ -606,7 +606,7 @@ |
606 | 606 | |
607 | 607 | \subsubsection{Progression des connaissances} |
608 | 608 | |
609 | -L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté au problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). | |
609 | +L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté aux problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution Beta en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). | |
610 | 610 | |
611 | 611 | %\begin{equation} |
612 | 612 | \begin{multline} |
... | ... | @@ -696,7 +696,7 @@ |
696 | 696 | |
697 | 697 | \subsubsection{Système de recommandation avec ESCBR-SMA} |
698 | 698 | |
699 | -Le troisième étape est l'association des deux algorithmes afin de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (recommandation avec Thomson) et le filtre collaboratif (interpolation avec ESCBR-SMA). Cette partie présente une comparaison entre le système de recommandation TS et le système de recommandation TS intégrée à la prédiction ESCBR-SMA. | |
699 | +La troisième étape est l'association des deux algorithmes afin de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (recommandation avec Thomson) et le filtre collaboratif (interpolation avec ESCBR-SMA). Cette partie présente une comparaison entre le système de recommandation TS et le système de recommandation TS intégré à la prédiction ESCBR-SMA. | |
700 | 700 | |
701 | 701 | Les résultats proposés sont comparés après réponse des apprenants à six questions car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité à la question suivante. |
702 | 702 | |
... | ... | @@ -727,7 +727,7 @@ |
727 | 727 | \begin{figure}[!h] |
728 | 728 | \centering |
729 | 729 | \includegraphics[width=1\textwidth]{Figures/Metric4.jpg} |
730 | - \caption{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson aassocié à ESCBR-SMA pour 1000 apprenants} | |
730 | + \caption{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants} | |
731 | 731 | \label{fig_cmp2} |
732 | 732 | \end{figure} |
733 | 733 | |
... | ... | @@ -837,7 +837,7 @@ |
837 | 837 | |
838 | 838 | \subsubsection{Mesures de performances} |
839 | 839 | |
840 | -Pour mesurer les performances des différents modules, nous avons utilisé le même jeu de données simulées que dans la section précédentes. | |
840 | +Pour mesurer les performances des différents modules, nous avons utilisé le même jeu de données simulées que dans la section précédente. | |
841 | 841 | La comparaison est faite avec la métrique décrite dans l'équation \ref{metric1}, où $x_c$ est la moyenne des notes, $y_c$ est le nombre de questions pour chaque niveau de complexité $c$. |
842 | 842 | |
843 | 843 | \begin{equation} |
844 | 844 | |
... | ... | @@ -876,9 +876,9 @@ |
876 | 876 | |
877 | 877 | \subsection{Conclusion} |
878 | 878 | |
879 | -Cette partie a présenté un algorithme intégrant un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson, un algorithme de régression d'ensemble fondé sur le raisonnement par cas et système multi-agents, et une fonction d'oubli fondée sur le processus de Hawkes. | |
879 | +Cette partie a présenté un algorithme intégrant un système de recommandation fondé sur l'algorithme d'échantillonnage de Thompson, un algorithme de régression d'ensemble fondé sur le raisonnement à partir de cas et système multi-agents, et une fonction d'oubli fondée sur le processus de Hawkes. | |
880 | 880 | |
881 | 881 | L'algorithme de régression d'ensemble ESCBR-SMA permet d'interpoler la note qu'un apprenant aurait à la question suivante selon le niveau de complexité de celle-ci. L'échantillonnage de Thompson permet de recommander la complexité de la question suivante en fonction d'informations locales : les notes obtenues et les temps de réponses de cet apprenant aux questions précédentes. Enfin, le processus de Hawkes incite le système à proposer des rappels de compétences acquises en intégrant un modèle d'oubli. |
882 | 882 | |
883 | -Nous avons mesuré ses performances sur un ensemble de données générées permettant de simuler les notes et temps de réponses obtenues par 1000 apprenants sur un EIAH proposant des exercices répartis sur cinq niveaux de complexité et aussi avec une base de données réel non-symétrique de 23366 apprenants. Ces tests ont été réalisés en vue d'une intégration à l'EIAH AI-VT. Les résultats montrent que le module final permet de réviser les séances d'entraînement, de proposer des exercices progressivement plus difficiles, tout en intégrant des rappels de notions. | |
883 | +Nous avons mesuré ces performances sur un ensemble de données générées permettant de simuler les notes et temps de réponses obtenus par 1000 apprenants sur un EIAH proposant des exercices répartis sur cinq niveaux de complexité et aussi avec une base de données réelle non-symétrique de 23366 apprenants. Ces tests ont été réalisés en vue d'une intégration à l'EIAH AI-VT. Les résultats montrent que le module final permet de réviser les séances d'entraînement, de proposer des exercices progressivement plus difficiles, tout en intégrant des rappels de notions. |
main.log
View file @
17c2a0a
1 | -This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 17 JUL 2025 19:02 | |
1 | +This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 18 JUL 2025 12:38 | |
2 | 2 | entering extended mode |
3 | 3 | restricted \write18 enabled. |
4 | 4 | %&-line parsing enabled. |
... | ... | @@ -2162,7 +2162,7 @@ |
2162 | 2162 | lvetic/uhvr8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/helvetic/ |
2163 | 2163 | uhvro8a.pfb></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmr8a.pf |
2164 | 2164 | b></usr/local/texlive/2023/texmf-dist/fonts/type1/urw/times/utmri8a.pfb> |
2165 | -Output written on main.pdf (124 pages, 5445703 bytes). | |
2165 | +Output written on main.pdf (124 pages, 5445738 bytes). | |
2166 | 2166 | PDF statistics: |
2167 | 2167 | 1853 PDF objects out of 2073 (max. 8388607) |
2168 | 2168 | 1584 compressed objects within 16 object streams |
main.pdf
View file @
17c2a0a
main.synctex.gz
View file @
17c2a0a
main.tex
View file @
17c2a0a
... | ... | @@ -137,7 +137,7 @@ |
137 | 137 | %%-------------------- |
138 | 138 | %% Set the French keywords. They only appear if |
139 | 139 | %% there is an French abstract |
140 | -\thesiskeywords[french]{Environnements informatiques d'apprentissage humain, Intelligence artificielle, raisonnement à partir de cas, systèmes multi-agents, raisonnement bayésien, échantillonage de Thompson, processus de Hawkes} | |
140 | +\thesiskeywords[french]{Environnements informatiques d'apprentissage humain, Intelligence artificielle, raisonnement à partir de cas, systèmes multi-agents, raisonnement bayésien, échantillonnage de Thompson, processus de Hawkes} | |
141 | 141 | |
142 | 142 | %%-------------------- |
143 | 143 | %% Change the layout and the style of the text of the "primary" abstract. |