Conclusions.tex 4.78 KB
\chapter{Conclusions et Perspectives}

\section{Conclusion générale}

Étant donné l'importance des modules de recommandation dans les EIAH pour améliorer le système, le faire plus dynamique et aider l'apprenant dans son processus d'apprentissage et acquisition de la connaissance, il est nécessaire de trouver des stratégies et algorithmes adaptés et intégrables qui permettent d'exploiter et d'analyser toute l'information récolté pour le système sur l'évolution de l'apprenant et ses possibles lacunes ainsi comme des algorithmes capables de proposer des alternatives de parcours dynamiques et diverses pour chaque cas en visant la réussite prédéfinie par l'apprenant et le professeur.

C'est ainsi que les outils de IA et apprentissage automatique se trouvent au centre des possibles solutions dans cette problématique, car ils permettent de travailler avec des données structurées selon un contexte déterminé, explorer et exploiter les espaces ou sont définis ces données, analyser et extraire l'information utile pour connaître les comportements, tendances et faiblesses des apprenants. De tous les outils d'IA ceux dont le fonctionnement a besoin de peu de données pour bien extraire, identifier et prédire sont les plus adaptés pour résoudre le problème, car il est très compliqué d'avoir grand quantités de données pour entrainer et évaluer une IA comme celles qui appartiennent au ensemble du deep learning. C'est l'une des raisons pour lesquelles les contributions réalisées dans ce travail ont permis d'améliorer l'environnement informatique d'apprentissage humain AI-VT, en proposant des recommandations dynamiques et plus adaptées à chaque apprenant en utilisant l'apprentissage par renforcement, la génération de solutions stochastique, les modèles Bayésiens, les approches d'ensemble avec plusieurs algorithmes, l'optimisation itérative, l'intégration d'approches locales et collaboratifs, le raisonnement à partir de cas et le processus de Hawkes.

Les jeux de données testés (réel et simulé) ont permis de tester la solidité du modèle pour chacune des étapes du développement ainsi comme l'amélioration progressive jusque l'unification de tous les modèles proposés. Aussi pour tester la qualité des recommandations générées ont été définies deux métriques qui ont permis de mesurer avec précision le degré d'adaptabilité en rapport avec les besoins de chaque apprenant.

\section{Perspectives}

Le système devrait être testé avec des données réelles dans un environnement standard réel afin d'obtenir des informations sur certains groupes caractéristiques spécifiques d'étudiants et de comparer les résultats obtenus avec les résultats théoriques, consolidant ainsi les preuves comportementales et l'efficacité du modèle proposé.

Comme travail futur, il est proposé d'intégrer dans le modèle d'autres variables obtenues avec des algorithmes d'intelligence artificielle complémentaires tels que l'analyse vidéo, l'analyse audio et même l'analyse des données obtenues des apprenants tout au long du processus d'apprentissage. Analyser le modèle avec différentes configurations paramétriques, afin de déterminer quelles sont les configurations les plus appropriées et comment chaque variable influence le comportement global des algorithmes exécutés et le résultat final.

Comme perspectives de ce travail peuvent être envisagées :
\begin{itemize}
    \item L'étude du modèle de raisonnement à partir de cas en profondeur avec l'analyse de changement des paramètres.
    \item Analyser le comportement de l'algorithme avec des metriques de distance différentes de la distance Euclidiene.
    \item Analyser la modification de la fonction de optimisation associé au choix de la meilleure solution dans les solutions générées par le second stacking processus.
    \item Détérminer le point de rupture pour différents scénarios.
\end{itemize}

Pour l'échantillonage de Thompson les perspectives ouvertes par ce travail sont :
\begin{itemize}
    \item Changer la famille des distributions de probabilité et étudier la performace obtenue.
    \item Calculer de façon dynamique les taux corrélées d'actualisation des ditributions de probabilité pour chaque niveau de complexité.
    \item Ajouter une comportement décroissante à l'actualisation des distributions de probabilité pour améliorer l'adaptabilité su modèle.
\end{itemize}

Aussi, évaluer le système avec une base de données avec des erreurs pour mesurer la résilience du modèle et comment il peut s'autocorregir face à d'eventuels disfonctionnements.

De façon générale il est possible de définir des intervales pour chaque paramètre et executer un analyse de sensibilité pour évaluer les résultats avec l'objetif de estimer la stabilité du système et les limites numériques.