Commit e2677c316c95ef750c58b110b02d01034462621b

Authored by dsotofor
1 parent 5f3c57c84e
Exists in main

version correct to chapter 5 and corrections to do in chapter 6

Showing 1 changed file with 8 additions and 8 deletions Side-by-side Diff

chapters/Conclusions.tex View file @ e2677c3
... ... @@ -6,7 +6,7 @@
6 6  
7 7 C'est ainsi que les outils de IA et apprentissage automatique se trouvent au centre des possibles solutions dans cette problématique, car ils permettent de travailler avec des données structurées selon un contexte déterminé, explorer et exploiter les espaces ou sont définis ces données, analyser et extraire l'information utile pour connaître les comportements, tendances et faiblesses des apprenants. De tous les outils d'IA ceux dont le fonctionnement a besoin de peu de données pour bien extraire, identifier et prédire sont les plus adaptés pour résoudre le problème, car il est très compliqué d'avoir grand quantités de données pour entrainer et évaluer une IA comme celles qui appartiennent au ensemble du deep learning. C'est l'une des raisons pour lesquelles les contributions réalisées dans ce travail ont permis d'améliorer l'environnement informatique d'apprentissage humain AI-VT, en proposant des recommandations dynamiques et plus adaptées à chaque apprenant en utilisant l'apprentissage par renforcement, la génération de solutions stochastique, les modèles Bayésiens, les approches d'ensemble avec plusieurs algorithmes, l'optimisation itérative, l'intégration d'approches locales et collaboratifs, le raisonnement à partir de cas et le processus de Hawkes.
8 8  
9   -Les jeux de données testés (réel et simulé) ont permis de tester la solidité du modèle pour chacune des étapes du développement ainsi comme l'amélioration progressive jusque l'unification de tous les modèles proposés. Aussi pour tester la qualité des recommandations générées ont été définies deux métriques qui ont permis de mesurer avec précision le degré d'adaptabilité en rapport avec les besoins de chaque apprenant.
  9 +Les jeux de données testés (réel et simulé) ont permis de tester la solidité du modèle pour chacune des étapes du développement ainsi comme l'amélioration progressive jusque l'unification de tous les modèles proposés. Aussi pour tester la qualité des recommandations générées ont été définies deux métriques qui ont permis de mesurer avec précision le degré d'adaptabilité en rapport avec la performance de chaque apprenant.
10 10  
11 11 \section{Perspectives}
12 12  
13 13  
14 14  
15 15  
16 16  
17 17  
... ... @@ -17,19 +17,19 @@
17 17 Comme perspectives de ce travail peuvent être envisagées :
18 18 \begin{itemize}
19 19 \item L'étude du modèle de raisonnement à partir de cas en profondeur avec l'analyse de changement des paramètres.
20   - \item Analyser le comportement de l'algorithme avec des metriques de distance différentes de la distance Euclidiene.
  20 + \item Analyser le comportement de l'algorithme avec des métriques de distance différentes de la distance Euclidiene.
21 21 \item Analyser la modification de la fonction de optimisation associé au choix de la meilleure solution dans les solutions générées par le second stacking processus.
22   - \item Détérminer le point de rupture pour différents scénarios.
  22 + \item Déterminer le point de rupture pour différents scénarios.
23 23 \end{itemize}
24 24  
25   -Pour l'échantillonage de Thompson les perspectives ouvertes par ce travail sont :
  25 +Pour l'échantillonnage de Thompson les perspectives ouvertes par ce travail sont :
26 26 \begin{itemize}
27   - \item Changer la famille des distributions de probabilité et étudier la performace obtenue.
28   - \item Calculer de façon dynamique les taux corrélées d'actualisation des ditributions de probabilité pour chaque niveau de complexité.
  27 + \item Changer la famille des distributions de probabilité et étudier la performance obtenue.
  28 + \item Calculer de façon dynamique les taux corrélées d'actualisation des distributions de probabilité pour chaque niveau de complexité.
29 29 \item Ajouter une comportement décroissante à l'actualisation des distributions de probabilité pour améliorer l'adaptabilité su modèle.
30 30 \end{itemize}
31 31  
32   -Aussi, évaluer le système avec une base de données avec des erreurs pour mesurer la résilience du modèle et comment il peut s'autocorregir face à d'eventuels disfonctionnements.
  32 +Aussi, évaluer le système avec une base de données avec des erreurs pour mesurer la résilience du modèle et comment il peut s'autocorriger face à d'éventuels dysfonctionnements.
33 33  
34   -De façon générale il est possible de définir des intervales pour chaque paramètre et executer un analyse de sensibilité pour évaluer les résultats avec l'objetif de estimer la stabilité du système et les limites numériques.
  34 +De façon générale il est possible de définir des intervalles pour chaque paramètre et exécuter un analyse de sensibilité pour évaluer les résultats avec l'objectif d'estimer la stabilité du système et les limites numériques.