Compare View
Commits (4)
Diff
Showing 29 changed files Inline Diff
- .DS_Store
- Figures/EIAH.drawio
- Figures/EIAH.png
- Figures/ELearningLevels.png
- Figures/taxonomieEIAH.drawio
- Figures/taxonomieEIAH.png
- chapters/Architecture.aux
- chapters/Architecture.tex
- chapters/Architecture0.tex
- chapters/CBR.aux
- chapters/CBR.tex
- chapters/Conclusions.aux
- chapters/EIAH.tex
- chapters/ESCBR.aux
- chapters/ESCBR.tex
- chapters/Publications.aux
- chapters/Publications.tex
- chapters/TS.aux
- chapters/TS.tex
- chapters/contexte2.aux
- chapters/contexte2.tex
- main.log
- main.out
- main.pdf
- main.synctex.gz
- main.tex
- main.toc
- main0.tex
- manuscrit.pdf
.DS_Store
View file @
4b1afa3
Figures/EIAH.drawio
View file @
4b1afa3
<mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:140.0) Gecko/20100101 Firefox/140.0" version="28.0.5"> | 1 | 1 | <mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:140.0) Gecko/20100101 Firefox/140.0" version="28.0.6"> | |
<diagram name="Page-1" id="OSgn3XfzTL5SABNI0Qxs"> | 2 | 2 | <diagram name="Page-1" id="OSgn3XfzTL5SABNI0Qxs"> | |
<mxGraphModel dx="786" dy="435" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> | 3 | 3 | <mxGraphModel dx="786" dy="435" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> | |
<root> | 4 | 4 | <root> | |
<mxCell id="0" /> | 5 | 5 | <mxCell id="0" /> | |
<mxCell id="1" parent="0" /> | 6 | 6 | <mxCell id="1" parent="0" /> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-16" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" parent="1" vertex="1"> | 7 | 7 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-16" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" parent="1" vertex="1"> | |
<mxGeometry x="40" y="40" width="640" height="360" as="geometry" /> | 8 | 8 | <mxGeometry x="40" y="40" width="640" height="360" as="geometry" /> | |
</mxCell> | 9 | 9 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-26" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-17" target="HP-W8r5hdSGzMFOFOmfQ-24" edge="1"> | 10 | 10 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-26" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-17" target="HP-W8r5hdSGzMFOFOmfQ-24" edge="1"> | |
<mxGeometry relative="1" as="geometry"> | 11 | 11 | <mxGeometry relative="1" as="geometry"> | |
<Array as="points"> | 12 | 12 | <Array as="points"> | |
<mxPoint x="180" y="280" /> | 13 | 13 | <mxPoint x="180" y="280" /> | |
<mxPoint x="180" y="280" /> | 14 | 14 | <mxPoint x="180" y="280" /> | |
</Array> | 15 | 15 | </Array> | |
</mxGeometry> | 16 | 16 | </mxGeometry> | |
</mxCell> | 17 | 17 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-17" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" parent="1" vertex="1"> | 18 | 18 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-17" value="" style="rounded=0;whiteSpace=wrap;html=1;fillColor=none;" parent="1" vertex="1"> | |
<mxGeometry x="60" y="60" width="600" height="200" as="geometry" /> | 19 | 19 | <mxGeometry x="60" y="60" width="600" height="200" as="geometry" /> | |
</mxCell> | 20 | 20 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-21" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-19" edge="1"> | 21 | 21 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-21" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-19" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 22 | 22 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 23 | 23 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-22" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1"> | 24 | 24 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-22" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-18" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 25 | 25 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 26 | 26 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-18" value="<b><font style="font-size: 15px;">Modèle du domain</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | 27 | 27 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-18" value="<b><font style="font-size: 15px;">Modèle du domaine</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
<mxGeometry x="300" y="80" width="120" height="60" as="geometry" /> | 28 | 28 | <mxGeometry x="300" y="80" width="120" height="60" as="geometry" /> | |
</mxCell> | 29 | 29 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-23" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-19" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1"> | 30 | 30 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-23" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-19" target="HP-W8r5hdSGzMFOFOmfQ-20" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 31 | 31 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 32 | 32 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-19" value="<b><font style="font-size: 15px;">Modèle du tutorat</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | 33 | 33 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-19" value="<b><font style="font-size: 15px;">Modèle du tutorat</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
<mxGeometry x="120" y="160" width="120" height="60" as="geometry" /> | 34 | 34 | <mxGeometry x="120" y="160" width="120" height="60" as="geometry" /> | |
</mxCell> | 35 | 35 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-20" value="<b><font style="font-size: 15px;">Modèle de l'apprenant</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | 36 | 36 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-20" value="<b><font style="font-size: 15px;">Modèle de l'apprenant</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
<mxGeometry x="480" y="160" width="120" height="60" as="geometry" /> | 37 | 37 | <mxGeometry x="480" y="160" width="120" height="60" as="geometry" /> | |
</mxCell> | 38 | 38 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-28" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0;entryY=0.5;entryDx=0;entryDy=0;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-24" target="HP-W8r5hdSGzMFOFOmfQ-27" edge="1"> | 39 | 39 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-28" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0;entryY=0.5;entryDx=0;entryDy=0;startArrow=classic;startFill=1;" parent="1" source="HP-W8r5hdSGzMFOFOmfQ-24" target="HP-W8r5hdSGzMFOFOmfQ-27" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 40 | 40 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 41 | 41 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-24" value="<b><font style="font-size: 15px;">Interface</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | 42 | 42 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-24" value="<b><font style="font-size: 15px;">Interface</font></b>" style="rounded=1;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
<mxGeometry x="120" y="300" width="120" height="60" as="geometry" /> | 43 | 43 | <mxGeometry x="120" y="300" width="120" height="60" as="geometry" /> | |
</mxCell> | 44 | 44 | </mxCell> | |
<mxCell id="HP-W8r5hdSGzMFOFOmfQ-27" value="<b><font style="font-size: 15px;">Utilisateur - Apprenant</font></b>" style="ellipse;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | 45 | 45 | <mxCell id="HP-W8r5hdSGzMFOFOmfQ-27" value="<b><font style="font-size: 15px;">Utilisateur - Apprenant</font></b>" style="ellipse;whiteSpace=wrap;html=1;shadow=1;" parent="1" vertex="1"> | |
<mxGeometry x="480" y="290" width="120" height="80" as="geometry" /> | 46 | 46 | <mxGeometry x="480" y="290" width="120" height="80" as="geometry" /> | |
</mxCell> | 47 | 47 | </mxCell> | |
</root> | 48 | 48 | </root> | |
</mxGraphModel> | 49 | 49 | </mxGraphModel> | |
</diagram> | 50 | 50 | </diagram> | |
</mxfile> | 51 | 51 | </mxfile> | |
52 | 52 | |||
Figures/EIAH.png
View file @
4b1afa3
Figures/ELearningLevels.png
View file @
4b1afa3
Figures/taxonomieEIAH.drawio
View file @
4b1afa3
<mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:136.0) Gecko/20100101 Firefox/136.0" version="26.1.3"> | 1 | 1 | <mxfile host="app.diagrams.net" agent="Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:140.0) Gecko/20100101 Firefox/140.0" version="28.0.6"> | |
<diagram name="Page-1" id="w2hWb6gX0Axkn_KR6Cac"> | 2 | 2 | <diagram name="Page-1" id="w2hWb6gX0Axkn_KR6Cac"> | |
<mxGraphModel dx="794" dy="382" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> | 3 | 3 | <mxGraphModel dx="786" dy="435" grid="1" gridSize="10" guides="1" tooltips="1" connect="1" arrows="1" fold="1" page="1" pageScale="1" pageWidth="827" pageHeight="1169" math="0" shadow="0"> | |
<root> | 4 | 4 | <root> | |
<mxCell id="0" /> | 5 | 5 | <mxCell id="0" /> | |
<mxCell id="1" parent="0" /> | 6 | 6 | <mxCell id="1" parent="0" /> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-7" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-2" edge="1"> | 7 | 7 | <mxCell id="4dwB7kk_Vurboq88jpxZ-7" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-2" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 8 | 8 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 9 | 9 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-8" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-3" edge="1"> | 10 | 10 | <mxCell id="4dwB7kk_Vurboq88jpxZ-8" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-3" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 11 | 11 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 12 | 12 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-9" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-4" edge="1"> | 13 | 13 | <mxCell id="4dwB7kk_Vurboq88jpxZ-9" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-4" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 14 | 14 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 15 | 15 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-10" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-5" edge="1"> | 16 | 16 | <mxCell id="4dwB7kk_Vurboq88jpxZ-10" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-5" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 17 | 17 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 18 | 18 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-11" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-6" edge="1"> | 19 | 19 | <mxCell id="4dwB7kk_Vurboq88jpxZ-11" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-1" target="4dwB7kk_Vurboq88jpxZ-6" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 20 | 20 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 21 | 21 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-1" value="<div><font style="font-size: 20px;"><b>Systèmes de <br></b></font></div><div><font style="font-size: 20px;"><b>Recommandation (SR)</b></font></div>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 22 | 22 | <mxCell id="4dwB7kk_Vurboq88jpxZ-1" value="<div><font style="font-size: 20px;"><b>Systèmes de <br></b></font></div><div><font style="font-size: 20px;"><b>Recommandation (SR)</b></font></div>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="400" y="30" width="180" height="70" as="geometry" /> | 23 | 23 | <mxGeometry x="400" y="30" width="180" height="70" as="geometry" /> | |
</mxCell> | 24 | 24 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-2" value="<b><font style="font-size: 20px;">Filtre demographique (DF)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 25 | 25 | <mxCell id="4dwB7kk_Vurboq88jpxZ-2" value="<b><font style="font-size: 20px;">Filtre demographique (DF)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="50" y="150" width="170" height="70" as="geometry" /> | 26 | 26 | <mxGeometry x="50" y="150" width="170" height="70" as="geometry" /> | |
</mxCell> | 27 | 27 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-13" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-12" edge="1"> | 28 | 28 | <mxCell id="4dwB7kk_Vurboq88jpxZ-13" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-12" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 29 | 29 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 30 | 30 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-15" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-14" edge="1"> | 31 | 31 | <mxCell id="4dwB7kk_Vurboq88jpxZ-15" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-14" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 32 | 32 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 33 | 33 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-17" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-16" edge="1"> | 34 | 34 | <mxCell id="4dwB7kk_Vurboq88jpxZ-17" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-3" target="4dwB7kk_Vurboq88jpxZ-16" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 35 | 35 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 36 | 36 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-3" value="<b><font style="font-size: 20px;">Basé de connaissances (KB)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 37 | 37 | <mxCell id="4dwB7kk_Vurboq88jpxZ-3" value="<b><font style="font-size: 20px;">Fondé sur les connaissances (KB)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="253.5" y="150" width="160" height="70" as="geometry" /> | 38 | 38 | <mxGeometry x="253.5" y="150" width="160" height="70" as="geometry" /> | |
</mxCell> | 39 | 39 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-4" value="<b><font style="font-size: 20px;">Basé sur le contenu (CB)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 40 | 40 | <mxCell id="4dwB7kk_Vurboq88jpxZ-4" value="<b><font style="font-size: 20px;">Fondé sur le contenu (CB)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="447" y="150" width="120" height="70" as="geometry" /> | 41 | 41 | <mxGeometry x="447" y="150" width="120" height="70" as="geometry" /> | |
</mxCell> | 42 | 42 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-20" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-5" target="4dwB7kk_Vurboq88jpxZ-18" edge="1"> | 43 | 43 | <mxCell id="4dwB7kk_Vurboq88jpxZ-20" style="edgeStyle=orthogonalEdgeStyle;rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-5" target="4dwB7kk_Vurboq88jpxZ-18" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 44 | 44 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 45 | 45 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-21" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-5" target="4dwB7kk_Vurboq88jpxZ-19" edge="1"> | 46 | 46 | <mxCell id="4dwB7kk_Vurboq88jpxZ-21" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-5" target="4dwB7kk_Vurboq88jpxZ-19" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 47 | 47 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 48 | 48 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-5" value="<b><font style="font-size: 20px;">Filtre collaboratif (CF)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 49 | 49 | <mxCell id="4dwB7kk_Vurboq88jpxZ-5" value="<b><font style="font-size: 20px;">Filtre collaboratif (CF)</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="600" y="150" width="120" height="70" as="geometry" /> | 50 | 50 | <mxGeometry x="600" y="150" width="120" height="70" as="geometry" /> | |
</mxCell> | 51 | 51 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-29" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-6" target="4dwB7kk_Vurboq88jpxZ-28" edge="1"> | 52 | 52 | <mxCell id="4dwB7kk_Vurboq88jpxZ-29" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-6" target="4dwB7kk_Vurboq88jpxZ-28" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 53 | 53 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 54 | 54 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-6" value="<b><font style="font-size: 20px;">Hybride</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 55 | 55 | <mxCell id="4dwB7kk_Vurboq88jpxZ-6" value="<b><font style="font-size: 20px;">Hybride</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="750" y="150" width="120" height="70" as="geometry" /> | 56 | 56 | <mxGeometry x="750" y="150" width="120" height="70" as="geometry" /> | |
</mxCell> | 57 | 57 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-12" value="<b><font style="font-size: 20px;">Basé sur les contraintes</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 58 | 58 | <mxCell id="4dwB7kk_Vurboq88jpxZ-12" value="<b><font style="font-size: 20px;">Fondé sur les contraintes</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="120" y="300" width="120" height="70" as="geometry" /> | 59 | 59 | <mxGeometry x="120" y="300" width="120" height="70" as="geometry" /> | |
</mxCell> | 60 | 60 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-14" value="<b><font style="font-size: 20px;">Basé sur les cas</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 61 | 61 | <mxCell id="4dwB7kk_Vurboq88jpxZ-14" value="<b><font style="font-size: 20px;">Fondé sur les cas</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="273.5" y="300" width="120" height="70" as="geometry" /> | 62 | 62 | <mxGeometry x="273.5" y="300" width="120" height="70" as="geometry" /> | |
</mxCell> | 63 | 63 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-16" value="<b><font style="font-size: 20px;">Basé sur l'ontologie</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 64 | 64 | <mxCell id="4dwB7kk_Vurboq88jpxZ-16" value="<b><font style="font-size: 20px;">Fondé sur l'ontologie</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="430" y="300" width="120" height="70" as="geometry" /> | 65 | 65 | <mxGeometry x="430" y="300" width="120" height="70" as="geometry" /> | |
</mxCell> | 66 | 66 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-23" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-18" target="4dwB7kk_Vurboq88jpxZ-22" edge="1"> | 67 | 67 | <mxCell id="4dwB7kk_Vurboq88jpxZ-23" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-18" target="4dwB7kk_Vurboq88jpxZ-22" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 68 | 68 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 69 | 69 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-25" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-18" target="4dwB7kk_Vurboq88jpxZ-24" edge="1"> | 70 | 70 | <mxCell id="4dwB7kk_Vurboq88jpxZ-25" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;exitX=0.5;exitY=1;exitDx=0;exitDy=0;entryX=0.5;entryY=0;entryDx=0;entryDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-18" target="4dwB7kk_Vurboq88jpxZ-24" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 71 | 71 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 72 | 72 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-18" value="<b><font style="font-size: 20px;">Basé sur la mémoire</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 73 | 73 | <mxCell id="4dwB7kk_Vurboq88jpxZ-18" value="<b><font style="font-size: 20px;">Fondé sur la mémoire</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="600" y="300" width="120" height="70" as="geometry" /> | 74 | 74 | <mxGeometry x="600" y="300" width="120" height="70" as="geometry" /> | |
</mxCell> | 75 | 75 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-27" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-19" target="4dwB7kk_Vurboq88jpxZ-26" edge="1"> | 76 | 76 | <mxCell id="4dwB7kk_Vurboq88jpxZ-27" style="rounded=0;orthogonalLoop=1;jettySize=auto;html=1;entryX=0.5;entryY=0;entryDx=0;entryDy=0;exitX=0.5;exitY=1;exitDx=0;exitDy=0;" parent="1" source="4dwB7kk_Vurboq88jpxZ-19" target="4dwB7kk_Vurboq88jpxZ-26" edge="1"> | |
<mxGeometry relative="1" as="geometry" /> | 77 | 77 | <mxGeometry relative="1" as="geometry" /> | |
</mxCell> | 78 | 78 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-19" value="<b><font style="font-size: 20px;">Basé sur le modèle</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 79 | 79 | <mxCell id="4dwB7kk_Vurboq88jpxZ-19" value="<b><font style="font-size: 20px;">Fondé sur le modèle</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="740" y="300" width="120" height="70" as="geometry" /> | 80 | 80 | <mxGeometry x="740" y="300" width="120" height="70" as="geometry" /> | |
</mxCell> | 81 | 81 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-22" value="<b><font style="font-size: 20px;">Basé sur l'utilisateur</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 82 | 82 | <mxCell id="4dwB7kk_Vurboq88jpxZ-22" value="<b><font style="font-size: 20px;">Fondé sur l'utilisateur</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="530" y="440" width="120" height="70" as="geometry" /> | 83 | 83 | <mxGeometry x="530" y="440" width="120" height="70" as="geometry" /> | |
</mxCell> | 84 | 84 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-24" value="<b><font style="font-size: 20px;">Basé sur les éléments</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 85 | 85 | <mxCell id="4dwB7kk_Vurboq88jpxZ-24" value="<b><font style="font-size: 20px;">Fondé sur les éléments</font></b>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="680" y="440" width="120" height="70" as="geometry" /> | 86 | 86 | <mxGeometry x="680" y="440" width="120" height="70" as="geometry" /> | |
</mxCell> | 87 | 87 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-26" value="<div><font style="font-size: 20px;"><b>Clustering</b></font></div><div><font style="font-size: 20px;"><b>Classification</b></font></div><div><font style="font-size: 20px;"><b>Factorisation Matricielle</b></font></div><div><font style="font-size: 20px;"><b>Réseau Bayésien</b></font></div><div><font style="font-size: 20px;"><b>Régression</b></font></div><div><font style="font-size: 20px;"><b>Basé sur les règles</b></font></div>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 88 | 88 | <mxCell id="4dwB7kk_Vurboq88jpxZ-26" value="<div><font style="font-size: 20px;"><b>Clustering</b></font></div><div><font style="font-size: 20px;"><b>Classification</b></font></div><div><font style="font-size: 20px;"><b>Factorisation Matricielle</b></font></div><div><font style="font-size: 20px;"><b>Réseau Bayésien</b></font></div><div><font style="font-size: 20px;"><b>Régression</b></font></div><div><font style="font-size: 20px;"><b>Fondé sur les règles</b></font></div>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="830" y="420" width="200" height="220" as="geometry" /> | 89 | 89 | <mxGeometry x="830" y="420" width="200" height="220" as="geometry" /> | |
</mxCell> | 90 | 90 | </mxCell> | |
<mxCell id="4dwB7kk_Vurboq88jpxZ-28" value="<div><font style="font-size: 20px;"><b>CF + CB</b></font></div><div><font style="font-size: 20px;"><b>KB + CF</b></font></div><div><font style="font-size: 20px;"><b>KB + CF + DF</b></font></div>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | 91 | 91 | <mxCell id="4dwB7kk_Vurboq88jpxZ-28" value="<div><font style="font-size: 20px;"><b>CF + CB</b></font></div><div><font style="font-size: 20px;"><b>KB + CF</b></font></div><div><font style="font-size: 20px;"><b>KB + CF + DF</b></font></div>" style="rounded=1;whiteSpace=wrap;html=1;" parent="1" vertex="1"> | |
<mxGeometry x="890" y="260" width="140" height="110" as="geometry" /> | 92 | 92 | <mxGeometry x="890" y="260" width="140" height="110" as="geometry" /> | |
</mxCell> | 93 | 93 | </mxCell> | |
</root> | 94 | 94 | </root> | |
</mxGraphModel> | 95 | 95 | </mxGraphModel> | |
</diagram> | 96 | 96 | </diagram> | |
</mxfile> | 97 | 97 | </mxfile> | |
98 | 98 | |||
Figures/taxonomieEIAH.png
View file @
4b1afa3
chapters/Architecture.aux
View file @
4b1afa3
\relax | 1 | 1 | \relax | |
\providecommand\hyper@newdestlabel[2]{} | 2 | 2 | \providecommand\hyper@newdestlabel[2]{} | |
\citation{10.1007/978-3-031-63646-2_13} | 3 | 3 | \citation{10.1007/978-3-031-63646-2_13} | |
\citation{Auer} | 4 | 4 | \citation{Auer} | |
\citation{jmse10040464} | 5 | 5 | \citation{jmse10040464} | |
\@writefile{toc}{\contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}\protected@file@percent } | 6 | 6 | \@writefile{toc}{\contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}\protected@file@percent } | |
\@writefile{lof}{\addvspace {10\p@ }} | 7 | 7 | \@writefile{lof}{\addvspace {10\p@ }} | |
\@writefile{lot}{\addvspace {10\p@ }} | 8 | 8 | \@writefile{lot}{\addvspace {10\p@ }} | |
\@writefile{toc}{\contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}\protected@file@percent } | 9 | 9 | \@writefile{toc}{\contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}\protected@file@percent } | |
\citation{Daubias2011} | 10 | 10 | \citation{Daubias2011} | |
\citation{10.1007/978-3-030-01081-2_9} | 11 | 11 | \citation{10.1007/978-3-030-01081-2_9} | |
\@writefile{toc}{\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}\protected@file@percent } | 12 | 12 | \@writefile{toc}{\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}\protected@file@percent } | |
13 | \newlabel{sec:descAIVT}{{5.2}{42}{Description du système AI-VT}{section.5.2}{}} | |||
\@writefile{lof}{\contentsline {figure}{\numberline {5.1}{\ignorespaces Structure du système AI-VT\relax }}{42}{figure.caption.17}\protected@file@percent } | 13 | 14 | \@writefile{lof}{\contentsline {figure}{\numberline {5.1}{\ignorespaces Structure du système AI-VT\relax }}{42}{figure.caption.17}\protected@file@percent } | |
\newlabel{fig:figSys1}{{5.1}{42}{Structure du système AI-VT\relax }{figure.caption.17}{}} | 14 | 15 | \newlabel{fig:figSys1}{{5.1}{42}{Structure du système AI-VT\relax }{figure.caption.17}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {5.1}{\ignorespaces Un tableau décrivant les caractéristiques du système AI-VT\relax }}{43}{table.caption.18}\protected@file@percent } | 15 | 16 | \@writefile{lot}{\contentsline {table}{\numberline {5.1}{\ignorespaces Un tableau décrivant les caractéristiques du système AI-VT\relax }}{43}{table.caption.18}\protected@file@percent } | |
\newlabel{tabDesc}{{5.1}{43}{Un tableau décrivant les caractéristiques du système AI-VT\relax }{table.caption.18}{}} | 16 | 17 | \newlabel{tabDesc}{{5.1}{43}{Un tableau décrivant les caractéristiques du système AI-VT\relax }{table.caption.18}{}} | |
\@writefile{toc}{\contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}\protected@file@percent } | 17 | 18 | \@writefile{toc}{\contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {5.2}{\ignorespaces Schème de l'architecture proposée\relax }}{45}{figure.caption.19}\protected@file@percent } | 18 | 19 | \@writefile{lof}{\contentsline {figure}{\numberline {5.2}{\ignorespaces Schème de l'architecture proposée\relax }}{45}{figure.caption.19}\protected@file@percent } | |
\newlabel{fig:sa1}{{5.2}{45}{Schème de l'architecture proposée\relax }{figure.caption.19}{}} | 19 | 20 | \newlabel{fig:sa1}{{5.2}{45}{Schème de l'architecture proposée\relax }{figure.caption.19}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}\protected@file@percent } | 20 | 21 | \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}\protected@file@percent } | 21 | 22 | \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}\protected@file@percent } | 22 | 23 | \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}\protected@file@percent } | 23 | 24 | \@writefile{toc}{\contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {5.3}{\ignorespaces Relation entre les couches définies de l'architecture.\relax }}{49}{figure.caption.20}\protected@file@percent } | 24 | 25 | \@writefile{lof}{\contentsline {figure}{\numberline {5.3}{\ignorespaces Relation entre les couches définies de l'architecture.\relax }}{49}{figure.caption.20}\protected@file@percent } | |
\newlabel{fig:figLayers}{{5.3}{49}{Relation entre les couches définies de l'architecture.\relax }{figure.caption.20}{}} | 25 | 26 | \newlabel{fig:figLayers}{{5.3}{49}{Relation entre les couches définies de l'architecture.\relax }{figure.caption.20}{}} | |
\@writefile{toc}{\contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}\protected@file@percent } | 26 | 27 | \@writefile{toc}{\contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {5.4}{\ignorespaces Étapes du flux de l'information pour la fonctionnalité de recommandation globale.\relax }}{50}{figure.caption.21}\protected@file@percent } | 27 | 28 | \@writefile{lof}{\contentsline {figure}{\numberline {5.4}{\ignorespaces Étapes du flux de l'information pour la fonctionnalité de recommandation globale.\relax }}{50}{figure.caption.21}\protected@file@percent } | |
\newlabel{fig:figFlow}{{5.4}{50}{Étapes du flux de l'information pour la fonctionnalité de recommandation globale.\relax }{figure.caption.21}{}} | 28 | 29 | \newlabel{fig:figFlow}{{5.4}{50}{Étapes du flux de l'information pour la fonctionnalité de recommandation globale.\relax }{figure.caption.21}{}} | |
\@setckpt{./chapters/Architecture}{ | 29 | 30 | \@setckpt{./chapters/Architecture}{ | |
\setcounter{page}{51} | 30 | 31 | \setcounter{page}{51} | |
\setcounter{equation}{0} | 31 | 32 | \setcounter{equation}{0} | |
\setcounter{enumi}{0} | 32 | 33 | \setcounter{enumi}{0} | |
\setcounter{enumii}{0} | 33 | 34 | \setcounter{enumii}{0} | |
\setcounter{enumiii}{0} | 34 | 35 | \setcounter{enumiii}{0} | |
\setcounter{enumiv}{0} | 35 | 36 | \setcounter{enumiv}{0} | |
\setcounter{footnote}{0} | 36 | 37 | \setcounter{footnote}{0} | |
\setcounter{mpfootnote}{0} | 37 | 38 | \setcounter{mpfootnote}{0} | |
\setcounter{part}{3} | 38 | 39 | \setcounter{part}{3} | |
\setcounter{chapter}{5} | 39 | 40 | \setcounter{chapter}{5} | |
\setcounter{section}{4} | 40 | 41 | \setcounter{section}{4} | |
\setcounter{subsection}{0} | 41 | 42 | \setcounter{subsection}{0} | |
\setcounter{subsubsection}{0} | 42 | 43 | \setcounter{subsubsection}{0} | |
\setcounter{paragraph}{0} | 43 | 44 | \setcounter{paragraph}{0} | |
\setcounter{subparagraph}{0} | 44 | 45 | \setcounter{subparagraph}{0} | |
\setcounter{figure}{4} | 45 | 46 | \setcounter{figure}{4} | |
\setcounter{table}{1} | 46 | 47 | \setcounter{table}{1} | |
\setcounter{caption@flags}{2} | 47 | 48 | \setcounter{caption@flags}{2} | |
\setcounter{continuedfloat}{0} | 48 | 49 | \setcounter{continuedfloat}{0} | |
\setcounter{subfigure}{0} | 49 | 50 | \setcounter{subfigure}{0} | |
\setcounter{subtable}{0} | 50 | 51 | \setcounter{subtable}{0} | |
\setcounter{parentequation}{0} | 51 | 52 | \setcounter{parentequation}{0} | |
\setcounter{thmt@dummyctr}{0} | 52 | 53 | \setcounter{thmt@dummyctr}{0} | |
\setcounter{vrcnt}{0} | 53 | 54 | \setcounter{vrcnt}{0} | |
\setcounter{upm@subfigure@count}{0} | 54 | 55 | \setcounter{upm@subfigure@count}{0} | |
\setcounter{upm@fmt@mtabular@columnnumber}{0} | 55 | 56 | \setcounter{upm@fmt@mtabular@columnnumber}{0} | |
\setcounter{upm@format@section@sectionlevel}{1} | 56 | 57 | \setcounter{upm@format@section@sectionlevel}{1} | |
\setcounter{upm@fmt@savedcounter}{0} | 57 | 58 | \setcounter{upm@fmt@savedcounter}{0} | |
\setcounter{@@upm@fmt@inlineenumeration}{0} | 58 | 59 | \setcounter{@@upm@fmt@inlineenumeration}{0} | |
\setcounter{@upm@fmt@enumdescription@cnt@}{0} | 59 | 60 | \setcounter{@upm@fmt@enumdescription@cnt@}{0} | |
\setcounter{upmdefinition}{0} | 60 | 61 | \setcounter{upmdefinition}{0} | |
\setcounter{section@level}{1} | 61 | 62 | \setcounter{section@level}{1} | |
\setcounter{Item}{0} | 62 | 63 | \setcounter{Item}{0} | |
\setcounter{Hfootnote}{0} | 63 | 64 | \setcounter{Hfootnote}{0} | |
\setcounter{bookmark@seq@number}{47} | 64 | 65 | \setcounter{bookmark@seq@number}{47} | |
\setcounter{DefaultLines}{2} | 65 | 66 | \setcounter{DefaultLines}{2} | |
\setcounter{DefaultDepth}{0} | 66 | 67 | \setcounter{DefaultDepth}{0} | |
\setcounter{L@lines}{3} | 67 | 68 | \setcounter{L@lines}{3} | |
\setcounter{L@depth}{0} | 68 | 69 | \setcounter{L@depth}{0} | |
\setcounter{float@type}{8} | 69 | 70 | \setcounter{float@type}{8} | |
\setcounter{algorithm}{0} | 70 | 71 | \setcounter{algorithm}{0} | |
\setcounter{ALG@line}{0} | 71 | 72 | \setcounter{ALG@line}{0} | |
\setcounter{ALG@rem}{0} | 72 | 73 | \setcounter{ALG@rem}{0} | |
\setcounter{ALG@nested}{0} | 73 | 74 | \setcounter{ALG@nested}{0} | |
\setcounter{ALG@Lnr}{2} | 74 | 75 | \setcounter{ALG@Lnr}{2} | |
\setcounter{ALG@blocknr}{10} | 75 | 76 | \setcounter{ALG@blocknr}{10} | |
\setcounter{ALG@storecount}{0} | 76 | 77 | \setcounter{ALG@storecount}{0} | |
\setcounter{ALG@tmpcounter}{0} | 77 | 78 | \setcounter{ALG@tmpcounter}{0} | |
} | 78 | 79 | } |
chapters/Architecture.tex
View file @
4b1afa3
\chapter{Architecture Globale du Système AI-VT} | 1 | 1 | \chapter{Architecture Globale du Système AI-VT} | |
2 | 2 | |||
\section{Introduction} | 3 | 3 | \section{Introduction} | |
4 | 4 | |||
Il est important de définir et décrire l'architecture logicielle d'un système complexe afin de mieux comprendre son fonctionnement. L'architecture montre les composants, les couches, les fonctionnalités et les interactions. Ce chapitre présente l'architecture modulaire proposée pour le système AI-VT. Les modules intègrent des outils issus de différents paradigmes, des modèles et des algorithmes d'intelligence artificielle permettant au système d'être plus performant. Les objectifs de l'architecture proposée sont de rendre le logiciel AI-VT (Artificial Intelligence Virtual Trainer) stable, évolutif, performant et facile à entretenir. L'architecture proposée se compose de quatre couches indépendantes, chacune dédiée à une fonctionnalité spécifique : correction automatique, identification, révision et test. Le contenu de ce chapitre a été publié dans \textit{et al.} \cite{10.1007/978-3-031-63646-2_13}. | 5 | 5 | Il est important de définir et décrire l'architecture logicielle d'un système complexe afin de mieux comprendre son fonctionnement. L'architecture montre les composants, les couches, les fonctionnalités et les interactions. Ce chapitre présente l'architecture modulaire proposée pour le système AI-VT. Les modules intègrent des outils issus de différents paradigmes, des modèles et des algorithmes d'intelligence artificielle permettant au système d'être plus performant. Les objectifs de l'architecture proposée sont de rendre le logiciel AI-VT (Artificial Intelligence - Virtual Trainer) stable, évolutif, performant et facile à entretenir. L'architecture proposée se compose de quatre couches indépendantes, chacune dédiée à une fonctionnalité spécifique : correction automatique, identification, révision et test. Le contenu de ce chapitre a été publié dans \textit{et al.} \cite{10.1007/978-3-031-63646-2_13}. | |
6 | 6 | |||
Il est possible de classer les architectures selon deux catégories : les architectures monolithiques et les architectures modulaires. Dans une architecture monolithique, le système logiciel est considéré comme une entité unique et unitaire avec une seule source de code, une seule base de données et un seul déploiement pour l'ensemble du système. Ce type de système est simple à développer et à tester mais il est peu adapté à la mise à jour et à l'évolution en raison de sa rigidité. Une architecture modulaire divise le système en modules indépendants qui peuvent communiquer entre eux, chaque module contenant alors tout ce qui est nécessaire pour fonctionner. De nombreux systèmes logiciels ont été conçus avec une architecture modulaire en raison des multiples avantages qu'elle présente \cite{Auer} \cite{jmse10040464}. | 7 | 7 | Il est possible de classer les architectures selon deux catégories : les architectures monolithiques et les architectures modulaires. Dans une architecture monolithique, le système logiciel est considéré comme une entité unique et unitaire avec une seule source de code, une seule base de données et un seul déploiement pour l'ensemble du système. Ce type de système est simple à développer et à tester mais il est peu adapté à la mise à jour et à l'évolution en raison de sa rigidité. Une architecture modulaire divise le système en modules indépendants qui peuvent communiquer entre eux, chaque module contenant alors tout ce qui est nécessaire pour fonctionner. De nombreux systèmes logiciels ont été conçus avec une architecture modulaire en raison des multiples avantages qu'elle présente \cite{Auer} \cite{jmse10040464}. | |
8 | 8 | |||
L'EIAH AI-VT a ainsi évolué vers une architecture modulaire que nous présentons dans ce chapitre. Après avoir rappelé le fonctionnement et les différents composants initiaux du système AI-VT, ce chapitre présente l'architecture modulaire implémentée lors de cette thèse et permettant à AI-VT d'intégrer de nouvelles fonctionnalités. La section 5.2 décrit le système AI-VT qui a été développé et qui existait avant le début de cette thèse. | 9 | 9 | L'EIAH AI-VT a ainsi évolué vers une architecture modulaire que nous présentons dans ce chapitre. Après avoir rappelé le fonctionnement et les différents composants initiaux du système AI-VT, ce chapitre présente l'architecture modulaire implémentée lors de cette thèse et permettant à AI-VT d'intégrer de nouvelles fonctionnalités. La section 5.2 décrit le système AI-VT qui a été développé et qui existait avant le début de cette thèse. | |
10 | 10 | |||
%\textcolor{red}{penser à bien expliciter ce qui existait avant, et ce que tu as développé et ce qui est en cours} | 11 | 11 | %\textcolor{red}{penser à bien expliciter ce qui existait avant, et ce que tu as développé et ce qui est en cours} | |
12 | 12 | |||
%---------------------------------------------------------------------------------------- | 13 | 13 | %---------------------------------------------------------------------------------------- | |
% SECTION 2 | 14 | 14 | % SECTION 2 | |
%---------------------------------------------------------------------------------------- | 15 | 15 | %---------------------------------------------------------------------------------------- | |
16 | 16 | |||
\section{Description du système AI-VT} | 17 | 17 | \section{Description du système AI-VT}\label{sec:descAIVT} | |
18 | 18 | |||
Pour rappel, le système AI-VT est un outil pédagogique générique qui vise à accompagner les apprenants dans leur apprentissage en leur proposant des fiches d'exercices appelées sessions. Durant chaque session, les capacités attendues sont divisées en compétences, elles-mêmes divisées en sous-compétences. L'apprenant choisit une compétence à travailler et le système génère une session composée d'exercices associés à plusieurs sous-compétences de la compétence choisie. Le système propose une liste d'exercices au début d'une session en utilisant le paradigme du raisonnement à partir de cas avec une base de données de questions. | 19 | 19 | Pour rappel, le système AI-VT est un outil pédagogique générique qui vise à accompagner les apprenants dans leur apprentissage en leur proposant des fiches d'exercices appelées sessions. Durant chaque session, les capacités attendues sont divisées en compétences, elles-mêmes divisées en sous-compétences. L'apprenant choisit une compétence à travailler et le système génère une session composée d'exercices associés à plusieurs sous-compétences de la compétence choisie. Le système propose une liste d'exercices au début d'une session en utilisant le paradigme du raisonnement à partir de cas avec une base de données de questions. | |
20 | 20 | |||
Le système AI-VT est un EIAH générique dont la structure globale est présentée sur la figure \figref{figSys1}. Il intègre une base de données de questions. Chacune des questions est associée à un contexte, au texte de la question considérée et à un niveau de complexité. Les questions sont liées à des sous-compétences, elles-mêmes liées à des compétences. Les principaux acteurs du système sont l'enseignant et l'apprenant. L'enseignant a la capacité de configurer l'ensemble du système, le nombre de compétences, les sous-compétences d'une compétence, le nombre de questions, la complexité de chacune d'entre elles, le niveau de complexité et le temps par session. L'apprenant quant à lui, peut commencer l'entraînement d'une compétence spécifique, accéder à des ressources de soutien complémentaires et répondre aux questions de test dans les sessions proposées par le système. Le tableau \ref{tabDesc} montre les caractéristiques du système AI-VT selon les 20 descripteurs permettant de caractériser le profil de l'apprenant décrits dans \cite{Daubias2011}. | 21 | 21 | Le système AI-VT est un EIAH générique dont la structure globale est présentée sur la figure \figref{figSys1}. Il intègre une base de données de questions. Chacune des questions est associée à un contexte, au texte de la question considérée et à un niveau de complexité. Les questions sont liées à des sous-compétences, elles-mêmes liées à des compétences. Les principaux acteurs du système sont l'enseignant et l'apprenant. L'enseignant a la capacité de configurer l'ensemble du système, le nombre de compétences, les sous-compétences d'une compétence, le nombre de questions, la complexité de chacune d'entre elles, le niveau de complexité et le temps par session. L'apprenant quant à lui, peut commencer l'entraînement d'une compétence spécifique, accéder à des ressources de soutien complémentaires et répondre aux questions de test dans les sessions proposées par le système. Le tableau \ref{tabDesc} montre les caractéristiques du système AI-VT selon les 20 descripteurs permettant de caractériser le profil de l'apprenant décrits dans \cite{Daubias2011}. | |
22 | 22 | |||
\mfigure[!ht]{width=\textwidth}{./Figures/AIVT.png}{Structure du système AI-VT}{figSys1} | 23 | 23 | \mfigure[!ht]{width=\textwidth}{./Figures/AIVT.png}{Structure du système AI-VT}{figSys1} | |
24 | 24 | |||
%\begin{figure}[!ht] | 25 | 25 | %\begin{figure}[!ht] | |
%\centering | 26 | 26 | %\centering | |
%\includegraphics[width=\textwidth]{./Figures/AIVT.png} | 27 | 27 | %\includegraphics[width=\textwidth]{./Figures/AIVT.png} | |
%\caption{Structure du système AI-VT} | 28 | 28 | %\caption{Structure du système AI-VT} | |
%\label{figSys1} | 29 | 29 | %\label{figSys1} | |
%\end{figure} | 30 | 30 | %\end{figure} | |
31 | 31 | |||
En s'appuyant sur la philosophie du RàPC, le système global AI-TV part du principe que la création d'une session pour un apprenant peut être réalisé par analogie avec celles proposées à des étudiants ayant des acquis, besoins et capacités similaires. AI-VT propose une liste d'exercices en fonction de la compétence ou de la sous-compétence sélectionnée par similitude avec celles proposées auparavant à d'autres apprenants. | 32 | 32 | En s'appuyant sur la philosophie du RàPC, le système global AI-TV part du principe que la création d'une session pour un apprenant peut être réalisé par analogie avec celles proposées à des apprenants ayant des acquis, besoins et capacités similaires. AI-VT propose une liste d'exercices en fonction de la compétence ou de la sous-compétence sélectionnée par similitude avec celles proposées auparavant à d'autres apprenants. | |
33 | 33 | |||
L'algorithme d'AI-VT tente de tenir compte de l'équilibre entre répétitivité et variété. De plus, le nombre d'exercices par session change en fonction du domaine, de la compétence choisie et du niveau de l'apprenant. La liste d'exercices est générée au début de chaque séance et elle n'est pas modifiée au cours de la séance en fonction des réponses fournies par l'apprenant : les listes d'exercices sont statiques pendant la séance \cite{10.1007/978-3-030-01081-2_9}. | 34 | 34 | L'algorithme d'AI-VT tente de tenir compte de l'équilibre entre répétitivité et variété. De plus, le nombre d'exercices par session change en fonction du domaine, de la compétence choisie et du niveau de l'apprenant. La liste d'exercices est générée au début de chaque séance et elle n'est pas modifiée au cours de la séance en fonction des réponses fournies par l'apprenant : les listes d'exercices sont statiques pendant la séance \cite{10.1007/978-3-030-01081-2_9}. | |
35 | 35 | |||
\begin{table}[!ht] | 36 | 36 | \begin{table}[!ht] | |
\centering | 37 | 37 | \centering | |
\begin{tabular}{p{1in}p{2.5in}p{1.5in}} | 38 | 38 | \begin{tabular}{p{1in}p{2.5in}p{1.5in}} | |
Type&Definition&Système AI-VT\\ | 39 | 39 | Type&Definition&Système AI-VT\\ | |
\hline | 40 | 40 | \hline | |
Sujet&Acteur humain concerné par le profil&Apprentissage seul et en groupe\\ | 41 | 41 | Sujet&Acteur humain concerné par le profil&Apprentissage seul et en groupe\\ | |
Collaboration&Le rôle de la collaboration dans les activités du profil&Individuel, Collaboratif\\ | 42 | 42 | Collaboration&Le rôle de la collaboration dans les activités du profil&Individuel, Collaboratif\\ | |
Distance&Le rôle de la distance dans les activités du profil&Présentiel, Distanciel\\ | 43 | 43 | Distance&Le rôle de la distance dans les activités du profil&Présentiel, Distanciel\\ | |
Discipline&Discipline des informations contenues dans le | 44 | 44 | Discipline&Discipline des informations contenues dans le | |
profil&Générique\\ | 45 | 45 | profil&Générique\\ | |
Niveau&Le niveau scolaire de la matière concernée par le profil &Générique\\ | 46 | 46 | Niveau&Le niveau scolaire de la matière concernée par le profil &Générique\\ | |
Initiateur&L'acteur humain à l'origine de la décision de créer le profil de création&Professeur, Administrateur\\ | 47 | 47 | Initiateur&L'acteur humain à l'origine de la décision de créer le profil de création&Professeur, Administrateur\\ | |
Créateur&L'acteur humain ou logiciel qui compose le profil&Professeur, Administrateur\\ | 48 | 48 | Créateur&L'acteur humain ou logiciel qui compose le profil&Professeur, Administrateur\\ | |
Destinataire&Acteur humain ou logiciel exploitant le profil&Apprenant\\ | 49 | 49 | Destinataire&Acteur humain ou logiciel exploitant le profil&Apprenant\\ | |
Temps&Période du profil&Asynchrone\\ | 50 | 50 | Temps&Période du profil&Asynchrone\\ | |
Évolution&L'évolutivité du profil &Profil évolutif\\ | 51 | 51 | Évolution&L'évolutivité du profil &Profil évolutif\\ | |
Type&Le type d'informations contenues dans le profil &Profil de l'apprenant\\ | 52 | 52 | Type&Le type d'informations contenues dans le profil &Profil de l'apprenant\\ | |
Nature&La nature des informations contenues dans le | 53 | 53 | Nature&La nature des informations contenues dans le | |
profil&Connaissances et compétences\\ | 54 | 54 | profil&Connaissances et compétences\\ | |
Évaluation&La forme sous laquelle l'information est | 55 | 55 | Évaluation&La forme sous laquelle l'information est | |
évaluée&Rating, Taux de maîtrise\\ | 56 | 56 | évaluée&Rating, Taux de maîtrise\\ | |
Représentation interne&Représentation interne utilisée par le système informatique pour manipuler les profils&Tables\\ | 57 | 57 | Représentation interne&Représentation interne utilisée par le système informatique pour manipuler les profils&Tables\\ | |
Représentation externe&Représentation utilisée pour stocker le profil &Liste de valeurs\\ | 58 | 58 | Représentation externe&Représentation utilisée pour stocker le profil &Liste de valeurs\\ | |
Visualisation&Représentation utilisée pour présenter le profil à ses destinataires&Représentation textuel et graphique standard\\ | 59 | 59 | Visualisation&Représentation utilisée pour présenter le profil à ses destinataires&Représentation textuel et graphique standard\\ | |
Norme&Norme ou standard éducatif & - \\ | 60 | 60 | Norme&Norme ou standard éducatif & - \\ | |
Format&Format de stockage du profil &Base de données relationnelle\\ | 61 | 61 | Format&Format de stockage du profil &Base de données relationnelle\\ | |
Plate-forme&plate-forme informatique compatible&Web\\ | 62 | 62 | Plate-forme&plate-forme informatique compatible&Web\\ | |
Dispositifs&le type de dispositif d'affichage du profil &Ordinateur ou appareils connectés\\ | 63 | 63 | Dispositifs&le type de dispositif d'affichage du profil &Ordinateur ou appareils connectés\\ | |
\end{tabular} | 64 | 64 | \end{tabular} | |
\caption{Un tableau décrivant les caractéristiques du système AI-VT} | 65 | 65 | \caption{Un tableau décrivant les caractéristiques du système AI-VT} | |
\label{tabDesc} | 66 | 66 | \label{tabDesc} | |
\end{table} | 67 | 67 | \end{table} | |
68 | 68 | |||
\section{Modèle d'architecture proposé} | 69 | 69 | \section{Modèle d'architecture proposé} | |
70 | 70 | |||
Cette section explicite l'architecture proposée à partir du système AI-VT déjà existante. | 71 | 71 | Cette section explicite l'architecture proposée à partir du système AI-VT initial. | |
72 | 72 | |||
%\textcolor{red}{pour tous les modules dire précisément ce qui est développé ou en cours} | 73 | 73 | %\textcolor{red}{pour tous les modules dire précisément ce qui est développé ou en cours} | |
74 | 74 | |||
La nouvelle architecture proposée a pour objectif d'intégrer de nouvelles fonctionnalités complémentaires au système initial sans en modifier les fonctionnalités. L'idée consiste donc à pouvoir activer simplement le module correspondant en envoyant et en recevant les informations nécessaires à son fonctionnement. Une évolution vers une architecture plus modulaire permet ainsi d'ajouter de nouvelles fonctionnalités au système d'origine en intégrant de nouveaux modules ou en faisant évoluer les modules existants. La conception modulaire facilite également la maintenance du code, le développement et l'intégration de nouvelles extensions. De plus, le système peut être configuré et adapté module par module, réduisant ainsi les risques de pannes et les coûts de maintenance et d'évolution. La modularité permet également d'exécuter les algorithmes de chaque module de manière asynchrone, en parallèle ou en mode distribué si nécessaire.%\textcolor{red}{idem préciser ce qui était avant, le travail de floran et ton travail} | 75 | 75 | La nouvelle architecture proposée a pour objectif d'intégrer de nouvelles fonctionnalités complémentaires au système initial sans en modifier les fonctionnalités. L'idée consiste donc à pouvoir activer simplement le module correspondant en envoyant et en recevant les informations nécessaires à son fonctionnement. Une évolution vers une architecture plus modulaire permet ainsi d'ajouter de nouvelles fonctionnalités au système d'origine en intégrant de nouveaux modules ou en faisant évoluer les modules existants. La conception modulaire facilite également la maintenance du code, le développement et l'intégration de nouvelles extensions. De plus, le système peut être configuré et adapté module par module, réduisant ainsi les risques de pannes et les coûts de maintenance et d'évolution. La modularité permet également d'exécuter les algorithmes de chaque module de manière asynchrone, en parallèle ou en mode distribué si nécessaire.%\textcolor{red}{idem préciser ce qui était avant, le travail de floran et ton travail} | |
76 | 76 | |||
L'architecture se compose de deux éléments principaux représentés sur la figure \figref{sa1} : le système central AI-VT, tel qui décrit dans la section 5.2 et les modules fonctionnels proposées pour compléter et améliorer certaines fonctionnalités. Le système central gère l'ensemble du processus d'apprentissage ; il génère %\textcolor{red}{démarre?} | 77 | 77 | L'architecture se compose de deux éléments principaux représentés sur la figure \figref{sa1} : le système central AI-VT, tel qu'il est décrit dans la section \ref{sec:descAIVT}, et les modules fonctionnels proposées pour compléter et améliorer certaines fonctionnalités. Le système central gère l'ensemble du processus d'apprentissage ; il génère %\textcolor{red}{démarre?} | |
les séances ; il stocke les données relatives aux compétences, aux questions, aux ressources, aux apprenants, aux enseignants et aux réponses ; il contient les commandes et l'interface générale ; il gère le flux d'informations et active les modules nécessaires. Les modules sont un ensemble de fonctionnalités indépendantes mises en œuvre avec des algorithmes d'intelligence artificielle qui reçoivent et envoient des données depuis le composant central. Chaque module fonctionne selon des critères spécifiques liés à son propre objectif. Les modules sont regroupés en couches selon leur fonctionnalité : correction automatique, identification, adaptation, révision et test. L'enseignant et l'apprenant n'utilisent pas les modules directement ; ceux-ci sont appelés par le système pour compléter certaines fonctionnalités. | 78 | 78 | les séances ; il stocke les données relatives aux compétences, aux questions, aux ressources, aux apprenants, aux enseignants et aux réponses ; il contient les commandes et l'interface générale ; il gère le flux d'informations et active les modules nécessaires. Les modules sont un ensemble de fonctionnalités indépendantes mises en œuvre avec des algorithmes d'intelligence artificielle qui reçoivent et envoient des données depuis le composant central. Chaque module fonctionne selon des critères spécifiques liés à son propre objectif. Les modules sont regroupés en couches selon leur fonctionnalité : correction automatique, identification, adaptation, révision et test. L'enseignant et l'apprenant n'utilisent pas les modules directement ; ceux-ci sont appelés par le système pour compléter certaines fonctionnalités. | |
79 | 79 | |||
\mfigure[!ht]{width=\textwidth}{./Figures/Architecture AI-VT2.png}{Schème de l'architecture proposée}{sa1} | 80 | 80 | \mfigure[!ht]{width=\textwidth}{./Figures/Architecture AI-VT2.png}{Schème de l'architecture proposée}{sa1} | |
81 | 81 | |||
%\begin{figure}[!ht] | 82 | 82 | %\begin{figure}[!ht] | |
%\centering | 83 | 83 | %\centering | |
%\includegraphics[width=\textwidth]{./Figures/Architecture AI-VT2.png} | 84 | 84 | %\includegraphics[width=\textwidth]{./Figures/Architecture AI-VT2.png} | |
%\caption{Schème de l'architecture proposée} | 85 | 85 | %\caption{Schème de l'architecture proposée} | |
%\label{sa1} | 86 | 86 | %\label{sa1} | |
%\end{figure} | 87 | 87 | %\end{figure} | |
88 | 88 | |||
La couche de correction automatique (LC) contient les modules chargés de recevoir les réponses des apprenants et, conformément aux algorithmes et critères définis, d'établir une note cohérente avec une réponse de référence à une question spécifique. Dans cette couche, le module routeur (LC0) est chargé d'identifier le type de correction nécessaire et d'instancier le module approprié pour l'exécution de la tâche spécifique. | 89 | 89 | La couche de correction automatique (LC) contient les modules chargés de recevoir les réponses des apprenants et, conformément aux algorithmes et critères définis, d'établir une note cohérente avec une réponse de référence à une question spécifique. Dans cette couche, le module routeur (LC0) est chargé d'identifier le type de correction nécessaire et d'instancier le module approprié pour l'exécution de la tâche spécifique. | |
90 | 90 | |||
La couche d'identification (LD) contient les modules qui identifient les faiblesses ou les variables externes des apprenants lors de l'exécution des exercices proposés par le système ou après l'analyse des résultats. Ces modules aident à personnaliser le processus d'apprentissage en fonction de l'analyse des résultats obtenus par les apprenants. | 91 | 91 | La couche d'identification (LD) contient les modules qui identifient les faiblesses ou les variables externes des apprenants lors de l'exécution des exercices proposés par le système ou après l'analyse des résultats. Ces modules aident à personnaliser le processus d'apprentissage en fonction de l'analyse des résultats obtenus par les apprenants. | |
92 | 92 | |||
La couche de révision (LR) comprend les modules qui prennent les données des résultats obtenus dans la couche LC et les résultats de l'analyse de la couche LD pour modifier le parcours de l'apprenant en essayant de renforcer l'apprentissage dans les faiblesses détectées. Elle comprend également les modules qui obtiennent des informations de la part des apprenants et tentent de prédire leurs résultats en fonction des différentes compétences et des différents niveaux de complexité. | 93 | 93 | La couche de révision (LR) comprend les modules qui prennent les données des résultats obtenus dans la couche LC et les résultats de l'analyse de la couche LD pour modifier le parcours de l'apprenant en essayant de renforcer l'apprentissage dans les faiblesses détectées. Elle comprend également les modules qui obtiennent des informations de la part des apprenants et tentent de prédire leurs résultats en fonction des différentes compétences et des différents niveaux de complexité. | |
94 | 94 | |||
Pour évaluer les modules dans différents scénarios, il est nécessaire de produire des données selon différents critères et complexités. C'est la raison pour laquelle la couche de test (LT) a été définie. Les modules qui permettent de générer des données synthétiques selon des critères variables font partie de cette couche. Les modules de cette couche permettent d'obtenir des résultats numériques des modules, d'appliquer des métriques, et ainsi d'évaluer les modules selon différents critères et complexités. | 95 | 95 | Pour évaluer les modules dans différents scénarios, il est nécessaire de produire des données selon différents critères et complexités. C'est la raison pour laquelle la couche de test (LT) a été définie. Les modules qui permettent de générer des données synthétiques selon des critères variables font partie de cette couche. Les modules de cette couche permettent d'obtenir des résultats numériques des modules, d'appliquer des métriques, et ainsi d'évaluer les modules selon différents critères et complexités. | |
96 | 96 | |||
Le schéma complet de l'architecture est représenté sur la figure \figref{sa1}. Sur cette figure, les lignes pleines représentent un flux d'informations bidirectionnel, les lignes pleines terminées par une flèche représentent le flux unidirectionnel et les lignes en pointillé représentent la dépendance de l'information entre les modules. | 97 | 97 | Le schéma complet de l'architecture est représenté sur la figure \figref{sa1}. Sur cette figure, les lignes pleines représentent un flux d'informations bidirectionnel, les lignes pleines terminées par une flèche représentent le flux unidirectionnel et les lignes en pointillé représentent la dépendance de l'information entre les modules. | |
Les dispositifs externes qui peuvent être utilisés par les modules pour exécuter leurs fonctionnalités et les étiquettes indiquant le type d'information transmis au système central par le module sont également représentés. Certains des algorithmes d'intelligence artificielle mis en œuvre dans chaque module et le stade de développement dans lequel chacun d'eux se trouve y figurent également. Comme le montre cette figure, certains dispositifs ont besoin de données provenant de sources externes telles que le robot NAO, des capteurs, caméra vidéo ou microphone. | 98 | 98 | Les dispositifs externes qui peuvent être utilisés par les modules pour exécuter leurs fonctionnalités et les étiquettes indiquant le type d'information transmis au système central par le module sont également représentés. Certains des algorithmes d'intelligence artificielle mis en œuvre dans chaque module et le stade de développement dans lequel chacun d'eux se trouve y figurent également. Comme le montre cette figure, certains dispositifs ont besoin de données provenant de sources externes telles que le robot NAO, des capteurs, caméra vidéo ou microphone. | |
99 | 99 | |||
\subsection{Correction automatique} | 100 | 100 | \subsection{Correction automatique} | |
101 | 101 | |||
L'une des couches importantes et la couche de correction automatique. Dans cette couche, les modules ont la capacité de recevoir et d'évaluer différents types de réponses données par les apprenants en fonction du contexte et de la question que le système a proposée. Les modules représentés ont la capacité d'évaluer une réponse donnée par l'apprenant. Des études et certains programmes ont déjà été réalisés dans l'analyse de vidéo, de texte audio (langage naturel) et de code source (Java, Python). D'autres modules permettent également d'analyser des images, des expressions mathématiques, des valeurs générées par des capteurs physiques et des variables définies pour des activités sportives spécifiques. | 102 | 102 | L'une des couches importantes et la couche de correction automatique. Dans cette couche, les modules ont la capacité de recevoir et d'évaluer différents types de réponses données par les apprenants en fonction du contexte et de la question que le système a proposée. Les modules représentés ont la capacité d'évaluer une réponse donnée par l'apprenant. Des études et certains programmes ont déjà été réalisés dans l'analyse de vidéo, de texte audio (langage naturel) et de code source (Java, Python). D'autres modules permettent également d'analyser des images, des expressions mathématiques, des valeurs générées par des capteurs physiques et des variables définies pour des activités sportives spécifiques. | |
103 | 103 | |||
Le module routeur (LC0) a pour fonction d'identifier le type de réponse donnée par l'apprenant, c'est-à-dire reconnaître si la réponse donnée par l'apprenant est vidéo, audio, texte, image, etc. et de la rediriger vers le module d'analyse correspondant ; une fois que le module spécifique obtient les résultats de l'analyse de la réponse donnée, le routeur les redirige vers le système AI-VT principal. | 104 | 104 | Le module routeur (LC0) a pour fonction d'identifier le type de réponse donnée par l'apprenant, c'est-à-dire reconnaître si la réponse donnée par l'apprenant est vidéo, audio, texte, image, etc. et de la rediriger vers le module d'analyse correspondant ; une fois que le module spécifique obtient les résultats de l'analyse de la réponse donnée, le routeur les redirige vers le système AI-VT principal. | |
105 | 105 | |||
Le module vidéo (LC1) permet de capturer un flux d'images à partir d'un dispositif externe (caméra vidéo ou robot NAO) et de les analyser pour déterminer si une réponse donnée est correcte, actuellement le module est utilisé pour évaluer la réponse à la question : montrer \textit{n} nombre de doigts. L'algorithme implémenté détecte les doigts qui apparaissent sur la caméra, les compte et détermine s'il s'agit de la bonne réponse à la question donnée. | 106 | 106 | Le module vidéo (LC1) permet de capturer un flux d'images à partir d'un dispositif externe (caméra vidéo ou robot NAO) et de les analyser pour déterminer si une réponse donnée est correcte, actuellement le module est utilisé pour évaluer la réponse à la question : montrer \textit{n} nombre de doigts. L'algorithme implémenté détecte les doigts qui apparaissent sur la caméra, les compte et détermine s'il s'agit de la bonne réponse à la question donnée. | |
107 | 107 | |||
Le module audio (LC2) analyse une piste audio et convertit son contenu en texte. Une fois le texte généré, il peut être comparé à une réponse attendue à la question posée à l'aide de techniques NLP. Un score d'approximation estimé peut alors être calculé. Pour la comparaison, le module de texte (LC4) est utilisé , il permet d'établir le score de similarité entre le texte envoyé comme réponse de l'apprenant ou converti depuis une réponse audio et un texte de référence. | 108 | 108 | Le module audio (LC2) analyse une piste audio et convertit son contenu en texte. Une fois le texte généré, il peut être comparé à une réponse attendue à la question posée à l'aide de techniques NLP. Un score d'approximation estimé peut alors être calculé. Pour la comparaison, le module de texte (LC4) est utilisé , il permet d'établir le score de similarité entre le texte envoyé comme réponse de l'apprenant ou converti depuis une réponse audio et un texte de référence. | |
109 | 109 | |||
Le module d'analyse du code (LC3) génère un score après l'exécution de plusieurs étapes. En premier lieu, il détermine l'existence ou non de faiblesses dans certaines compétences prédéfinies. Il transforme ensuite la représentation du code en un vecteur numérique à comparer avec une réponse de référence : le résultat de la pondération entre les faiblesses détectées et le pourcentage de comparaison donne un score. | 110 | 110 | Le module d'analyse du code (LC3) génère un score après l'exécution de plusieurs étapes. En premier lieu, il détermine l'existence ou non de faiblesses dans certaines compétences prédéfinies. Il transforme ensuite la représentation du code en un vecteur numérique à comparer avec une réponse de référence : le résultat de la pondération entre les faiblesses détectées et le pourcentage de comparaison donne un score. | |
111 | 111 | |||
Le module d'analyse de texte (LC5) transforme le texte envoyé par l'apprenant en un vecteur numérique qui peut être comparé au vecteur numérique d'une réponse attendue. Dans ce cas, la réponse donnée ne doit pas nécessairement être exactement la même que la réponse attendue. La représentation vectorielle permet d'établir des similitudes dans l'espace, même si les termes utilisés et la longueur du texte diffèrent. | 112 | 112 | Le module d'analyse de texte (LC5) transforme le texte envoyé par l'apprenant en un vecteur numérique qui peut être comparé au vecteur numérique d'une réponse attendue. Dans ce cas, la réponse donnée ne doit pas nécessairement être exactement la même que la réponse attendue. La représentation vectorielle permet d'établir des similitudes dans l'espace, même si les termes utilisés et la longueur du texte diffèrent. | |
113 | 113 | |||
Les modules LC6, LC7, LC8 et LC9 sont capables d'analyser différents types de réponses potentielles qui peuvent éventuellement être gérées par le système AI-VT. | 114 | 114 | Les modules LC6, LC7, LC8 et LC9 sont capables d'analyser différents types de réponses potentielles qui peuvent éventuellement être gérées par le système AI-VT. | |
115 | 115 | |||
Les modules LC1, LC2, LC3 ont été partiellement développés et n'ont pas été suffisamment testés pour les intégrer dans le système de façon fonctionnelle, les autres modules pour le moment sont théoriques. | 116 | 116 | Les modules LC1, LC2, LC3 ont été partiellement développés et n'ont pas été suffisamment testés pour les intégrer dans le système de façon fonctionnelle, les autres modules pour le moment sont théoriques. | |
117 | 117 | |||
\subsection{Identification} | 118 | 118 | \subsection{Identification} | |
119 | 119 | |||
Les modules de la couche d'identification visent à extraire des informations complémentaires à la note de l'étudiant pour chacune des réponses envoyées au système et ainsi affiner encore plus les recommandations générées. Ces informations complémentaires permettent d'obtenir principalement des informations sur les émotions (bonheur, dégoût, surprise, colère, peur, neutre et triste) grâce à la détection des expressions faciales et aussi les lacunes de connaissance de l'apprenant %\textcolor{red}{expression et faiblesse de quoi, comment?} | 120 | 120 | Les modules de la couche d'identification visent à extraire des informations complémentaires à la note de l'apprenant pour chacune des réponses envoyées au système et ainsi affiner encore plus les recommandations générées. Ces informations complémentaires permettent d'obtenir principalement des informations sur les émotions (bonheur, dégoût, surprise, colère, peur, neutre et triste) grâce à la détection des expressions faciales et aussi les lacunes de connaissance de l'apprenant %\textcolor{red}{expression et faiblesse de quoi, comment?} | |
qui peuvent se manifester dans chaque sous-compétence et niveau de complexité. Ces modules d'AI-VT sont capables d'obtenir une meilleure estimation de l'état de l'apprentissage afin de mieux adapter le parcours de l'apprenant. | 121 | 121 | qui peuvent se manifester dans chaque sous-compétence et niveau de complexité. Ces modules d'AI-VT sont capables d'obtenir une meilleure estimation de l'état de l'apprentissage afin de mieux adapter le parcours de l'apprenant. | |
122 | 122 | |||
Les modules d'identification LD1, LD2 et LD4 tentent de détecter les comportements, les émotions et les sentiments à l'aide de dispositifs externes tels que la caméra vidéo et le microphone. Dans le cas de l'analyse vidéo, des réseaux neuronaux d'apprentissage profond sont utilisés pour capturer et analyser les images statiques obtenues à partir du flux de la caméra vidéo. Le modèle d'IA a été entraîné à détecter des émotions prédéfinies. Le module audio vise à détecter le même type d'émotions, mais à partir de l'analyse des signaux obtenus à partir d'un microphone. Il utilise également l'apprentissage profond entrainé avec des signaux qui présentent différentes émotions prédéfinies. Le module capteur est plus générique, mais il peut être subdivisé en modules spécifiques en fonction du type de capteur et du signal à analyser. Toutefois, l'idée de la détection est la même : détecter des émotions prédéfinies. | 123 | 123 | Les modules d'identification LD1, LD2 et LD4 tentent de détecter les comportements, les émotions et les sentiments à l'aide de dispositifs externes tels que la caméra vidéo et le microphone. Dans le cas de l'analyse vidéo, des réseaux neuronaux d'apprentissage profond sont utilisés pour capturer et analyser les images statiques obtenues à partir du flux de la caméra vidéo. Le modèle d'IA a été entraîné à détecter des émotions prédéfinies. Le module audio vise à détecter le même type d'émotions, mais à partir de l'analyse des signaux obtenus à partir d'un microphone. Il utilise également l'apprentissage profond entrainé avec des signaux qui présentent différentes émotions prédéfinies. Le module capteur est plus générique, mais il peut être subdivisé en modules spécifiques en fonction du type de capteur et du signal à analyser. Toutefois, l'idée de la détection est la même : détecter des émotions prédéfinies. | |
124 | 124 | |||
Le module Analyse des données (LD3) est différent car, en plus d'être générique, il tente d'identifier les faiblesses dans des compétences spécifiques en fonction du type d'évaluation. Ce module peut contenir différents modèles entraînés pour chaque type de cas. Pour les exercices linguistiques, les faiblesses identifiables peuvent être la conjugaison des verbes, l'utilisation des temps, le vocabulaire, la correspondance des genres de mots, etc. Si l'exercice est de type programmation le module est capable d'identifier des faiblesses liées à la syntaxe, la déclaration de variables, l'appel de fonctions, la construction de structures, etc. Ce module fonctionne sur la base d'implémentation de modèles d'apprentissage profond et de modèles collaboratifs tels que le raisonnement à partir de cas. | 125 | 125 | Le module Analyse des données (LD3) est différent car, en plus d'être générique, il tente d'identifier les faiblesses dans des compétences spécifiques en fonction du type d'évaluation. Ce module peut contenir différents modèles entraînés pour chaque type de cas. Pour les exercices linguistiques, les faiblesses identifiables peuvent être la conjugaison des verbes, l'utilisation des temps, le vocabulaire, la correspondance des genres de mots, etc. Si l'exercice est de type programmation le module est capable d'identifier des faiblesses liées à la syntaxe, la déclaration de variables, l'appel de fonctions, la construction de structures, etc. Ce module fonctionne sur la base d'implémentation de modèles d'apprentissage profond et de modèles collaboratifs tels que le raisonnement à partir de cas. | |
126 | 126 | |||
Les modules LD1 et LD3 ont été partiellement développés et n'ont pas été suffisamment testés pour les intégrer dans le système de façon fonctionnelle, les autres modules pour le moment sont théoriques. | 127 | 127 | Les modules LD1 et LD3 ont été partiellement développés et n'ont pas été suffisamment testés pour les intégrer dans le système de façon fonctionnelle, les autres modules pour le moment sont théoriques. | |
128 | 128 | |||
\subsection{Révision} | 129 | 129 | \subsection{Révision} | |
130 | 130 |
chapters/CBR.aux
View file @
4b1afa3
\relax | 1 | 1 | \relax | |
\providecommand\hyper@newdestlabel[2]{} | 2 | 2 | \providecommand\hyper@newdestlabel[2]{} | |
\citation{schank+abelson77} | 3 | 3 | \citation{schank+abelson77} | |
\citation{KOLODNER1983281} | 4 | 4 | \citation{KOLODNER1983281} | |
\citation{Riesbeck1989} | 5 | 5 | \citation{Riesbeck1989} | |
\citation{JUNG20095695} | 6 | 6 | \citation{RICHTER20093} | |
\citation{JUNG20095695} | 7 | 7 | \citation{JUNG20095695} | |
\@writefile{toc}{\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}\protected@file@percent } | 8 | 8 | \@writefile{toc}{\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}\protected@file@percent } | |
\@writefile{lof}{\addvspace {10\p@ }} | 9 | 9 | \@writefile{lof}{\addvspace {10\p@ }} | |
\@writefile{lot}{\addvspace {10\p@ }} | 10 | 10 | \@writefile{lot}{\addvspace {10\p@ }} | |
\@writefile{toc}{\contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}\protected@file@percent } | 11 | 11 | \@writefile{toc}{\contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}\protected@file@percent } | |
\citation{10.1007/978-3-642-15973-2_50} | 12 | 12 | \citation{10.1007/978-3-642-15973-2_50} | |
\citation{PETROVIC201617} | 13 | 13 | \citation{PETROVIC201617} | |
\citation{10.1007/978-3-319-24586-7_20} | 14 | 14 | \citation{10.1007/978-3-319-24586-7_20} | |
\@writefile{toc}{\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}\protected@file@percent } | 15 | |||
\citation{10.1007/978-3-030-58342-2_20} | 16 | 15 | \citation{10.1007/978-3-030-58342-2_20} | |
16 | \@writefile{toc}{\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}\protected@file@percent } | |||
\citation{wolf2024keep} | 17 | 17 | \citation{wolf2024keep} | |
\citation{PAREJASLLANOVARCED2024111469} | 18 | 18 | \citation{PAREJASLLANOVARCED2024111469} | |
\citation{Muller} | 19 | 19 | \citation{Muller} | |
\@writefile{toc}{\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}\protected@file@percent } | 20 | |||
\citation{10.1007/978-3-319-47096-2_11} | 21 | 20 | \citation{10.1007/978-3-319-47096-2_11} | |
\citation{10.1007/978-3-642-15973-2_50} | 22 | 21 | \citation{10.1007/978-3-642-15973-2_50} | |
\citation{Robertson2014ARO} | 23 | 22 | \citation{Robertson2014ARO} | |
\citation{10.1007/978-3-319-47096-2_11} | 24 | 23 | \citation{10.1007/978-3-319-47096-2_11} | |
\citation{10.1007/978-3-319-47096-2_11} | 25 | 24 | \citation{10.1007/978-3-319-47096-2_11} | |
25 | \@writefile{toc}{\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}\protected@file@percent } | |||
\citation{ROLDANREYES20151} | 26 | 26 | \citation{ROLDANREYES20151} | |
\citation{ROLDANREYES20151} | 27 | 27 | \citation{ROLDANREYES20151} | |
\citation{ROLDANREYES20151} | 28 | 28 | \citation{ROLDANREYES20151} | |
\citation{10.1007/978-3-319-47096-2_11} | 29 | 29 | \citation{10.1007/978-3-319-47096-2_11} | |
30 | \citation{10.1007/978-3-319-61030-6_1} | |||
\@writefile{lof}{\contentsline {figure}{\numberline {4.1}{\ignorespaces Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }}{32}{figure.caption.13}\protected@file@percent } | 30 | 31 | \@writefile{lof}{\contentsline {figure}{\numberline {4.1}{\ignorespaces Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }}{32}{figure.caption.13}\protected@file@percent } | |
\newlabel{fig:figMCBR2}{{4.1}{32}{Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }{figure.caption.13}{}} | 31 | 32 | \newlabel{fig:figMCBR2}{{4.1}{32}{Ajout d'un cycle complémentaire avec \textit {Deep Learning} au RàPC (Traduit de \cite {10.1007/978-3-319-47096-2_11})\relax }{figure.caption.13}{}} | |
\citation{10.1007/978-3-319-61030-6_1} | 32 | |||
\citation{buildings13030651} | 33 | 33 | \citation{buildings13030651} | |
34 | \citation{YU2023110163} | |||
\@writefile{lof}{\contentsline {figure}{\numberline {4.2}{\ignorespaces Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }}{33}{figure.caption.14}\protected@file@percent } | 34 | 35 | \@writefile{lof}{\contentsline {figure}{\numberline {4.2}{\ignorespaces Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }}{33}{figure.caption.14}\protected@file@percent } | |
\newlabel{fig:figMCBR1}{{4.2}{33}{Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }{figure.caption.14}{}} | 35 | 36 | \newlabel{fig:figMCBR1}{{4.2}{33}{Cycle du RàPC modifié. (Traduit de \cite {ROLDANREYES20151})\relax }{figure.caption.14}{}} | |
\@writefile{toc}{\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}\protected@file@percent } | 36 | 37 | \@writefile{toc}{\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}\protected@file@percent } | |
\citation{YU2023110163} | 37 | |||
\citation{10.1007/978-3-031-63646-2_4} | 38 | 38 | \citation{10.1007/978-3-031-63646-2_4} | |
\citation{10.1007/978-3-030-01081-2_25} | 39 | 39 | \citation{10.1007/978-3-030-01081-2_25} | |
\citation{10.1007/978-3-030-58342-2_8} | 40 | 40 | \citation{10.1007/978-3-030-58342-2_8} | |
\citation{10.1007/978-3-030-58342-2_5} | 41 | 41 | \citation{10.1007/978-3-030-58342-2_5} | |
\@writefile{toc}{\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}\protected@file@percent } | 42 | |||
\citation{YU2024123745} | 43 | 42 | \citation{YU2024123745} | |
\citation{Sadeghi} | 44 | 43 | \citation{Sadeghi} | |
44 | \@writefile{toc}{\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}\protected@file@percent } | |||
\citation{8495930} | 45 | 45 | \citation{8495930} | |
\citation{Obeid} | 46 | 46 | \citation{Obeid} | |
\citation{skittou2024recommender} | 47 | 47 | \citation{skittou2024recommender} | |
\citation{Obeid} | 48 | 48 | \citation{Obeid} | |
\citation{Obeid} | 49 | 49 | \citation{Obeid} | |
\@writefile{toc}{\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}\protected@file@percent } | 50 | |||
\citation{HU2025127130} | 51 | 50 | \citation{HU2025127130} | |
\citation{ALABDULRAHMAN2021114061} | 52 | 51 | \citation{ALABDULRAHMAN2021114061} | |
52 | \@writefile{toc}{\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}\protected@file@percent } | |||
53 | \@writefile{toc}{\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}\protected@file@percent } | |||
\citation{JUNG20095695} | 53 | 54 | \citation{JUNG20095695} | |
\citation{10.1007/978-3-642-15973-2_50} | 54 | 55 | \citation{10.1007/978-3-642-15973-2_50} | |
\citation{PETROVIC201617} | 55 | 56 | \citation{PETROVIC201617} | |
\citation{wolf2024keep} | 56 | 57 | \citation{wolf2024keep} | |
\citation{PAREJASLLANOVARCED2024111469} | 57 | 58 | \citation{PAREJASLLANOVARCED2024111469} | |
\citation{ROLDANREYES20151} | 58 | 59 | \citation{ROLDANREYES20151} | |
\citation{10.1007/978-3-319-47096-2_11} | 59 | 60 | \citation{10.1007/978-3-319-47096-2_11} | |
\citation{10.1007/978-3-319-61030-6_1} | 60 | 61 | \citation{10.1007/978-3-319-61030-6_1} | |
\citation{buildings13030651} | 61 | 62 | \citation{buildings13030651} | |
\citation{YU2023110163} | 62 | 63 | \citation{YU2023110163} | |
\citation{Muller} | 63 | 64 | \citation{Muller} | |
\citation{10.1007/978-3-319-24586-7_20} | 64 | 65 | \citation{10.1007/978-3-319-24586-7_20} | |
\citation{10.1007/978-3-030-58342-2_20} | 65 | 66 | \citation{10.1007/978-3-030-58342-2_20} | |
\citation{10.1007/978-3-031-63646-2_4} | 66 | 67 | \citation{10.1007/978-3-031-63646-2_4} | |
\citation{10.1007/978-3-030-01081-2_25} | 67 | 68 | \citation{10.1007/978-3-030-01081-2_25} | |
\citation{10.1007/978-3-030-58342-2_8} | 68 | 69 | \citation{10.1007/978-3-030-58342-2_8} | |
\citation{10.1007/978-3-030-58342-2_5} | 69 | 70 | \citation{10.1007/978-3-030-58342-2_5} | |
\citation{YU2024123745} | 70 | 71 | \citation{YU2024123745} | |
\citation{Sadeghi} | 71 | 72 | \citation{Sadeghi} | |
\citation{8495930} | 72 | 73 | \citation{8495930} | |
\citation{Obeid} | 73 | 74 | \citation{Obeid} | |
\citation{skittou2024recommender} | 74 | 75 | \citation{skittou2024recommender} | |
\@writefile{lof}{\contentsline {figure}{\numberline {4.3}{\ignorespaces Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }}{36}{figure.caption.15}\protected@file@percent } | 75 | 76 | \@writefile{lof}{\contentsline {figure}{\numberline {4.3}{\ignorespaces Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }}{36}{figure.caption.15}\protected@file@percent } | |
\newlabel{fig:figTax}{{4.3}{36}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }{figure.caption.15}{}} | 76 | 77 | \newlabel{fig:figTax}{{4.3}{36}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite {Obeid})\relax }{figure.caption.15}{}} | |
\@writefile{toc}{\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{36}{section.4.7}\protected@file@percent } | 77 | |||
\@writefile{lot}{\contentsline {table}{\numberline {4.1}{\ignorespaces Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }}{37}{table.caption.16}\protected@file@percent } | 78 | 78 | \@writefile{lot}{\contentsline {table}{\numberline {4.1}{\ignorespaces Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }}{37}{table.caption.16}\protected@file@percent } | |
\newlabel{tabArts2}{{4.1}{37}{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }{table.caption.16}{}} | 79 | 79 | \newlabel{tabArts2}{{4.1}{37}{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC\relax }{table.caption.16}{}} | |
\@setckpt{./chapters/CBR}{ | 80 | 80 | \@setckpt{./chapters/CBR}{ | |
\setcounter{page}{38} | 81 | 81 | \setcounter{page}{38} | |
\setcounter{equation}{0} | 82 | 82 | \setcounter{equation}{0} | |
\setcounter{enumi}{0} | 83 | 83 | \setcounter{enumi}{0} | |
\setcounter{enumii}{0} | 84 | 84 | \setcounter{enumii}{0} | |
\setcounter{enumiii}{0} | 85 | 85 | \setcounter{enumiii}{0} | |
\setcounter{enumiv}{0} | 86 | 86 | \setcounter{enumiv}{0} | |
\setcounter{footnote}{0} | 87 | 87 | \setcounter{footnote}{0} | |
\setcounter{mpfootnote}{0} | 88 | 88 | \setcounter{mpfootnote}{0} | |
\setcounter{part}{2} | 89 | 89 | \setcounter{part}{2} | |
\setcounter{chapter}{4} | 90 | 90 | \setcounter{chapter}{4} | |
\setcounter{section}{7} | 91 | 91 | \setcounter{section}{7} | |
\setcounter{subsection}{0} | 92 | 92 | \setcounter{subsection}{0} | |
\setcounter{subsubsection}{0} | 93 | 93 | \setcounter{subsubsection}{0} | |
\setcounter{paragraph}{0} | 94 | 94 | \setcounter{paragraph}{0} | |
\setcounter{subparagraph}{0} | 95 | 95 | \setcounter{subparagraph}{0} | |
\setcounter{figure}{3} | 96 | 96 | \setcounter{figure}{3} | |
\setcounter{table}{1} | 97 | 97 | \setcounter{table}{1} | |
\setcounter{caption@flags}{2} | 98 | 98 | \setcounter{caption@flags}{2} | |
\setcounter{continuedfloat}{0} | 99 | 99 | \setcounter{continuedfloat}{0} | |
\setcounter{subfigure}{0} | 100 | 100 | \setcounter{subfigure}{0} | |
\setcounter{subtable}{0} | 101 | 101 | \setcounter{subtable}{0} | |
\setcounter{parentequation}{0} | 102 | 102 | \setcounter{parentequation}{0} | |
\setcounter{thmt@dummyctr}{0} | 103 | 103 | \setcounter{thmt@dummyctr}{0} | |
\setcounter{vrcnt}{0} | 104 | 104 | \setcounter{vrcnt}{0} | |
\setcounter{upm@subfigure@count}{0} | 105 | 105 | \setcounter{upm@subfigure@count}{0} | |
\setcounter{upm@fmt@mtabular@columnnumber}{0} | 106 | 106 | \setcounter{upm@fmt@mtabular@columnnumber}{0} | |
\setcounter{upm@format@section@sectionlevel}{1} | 107 | 107 | \setcounter{upm@format@section@sectionlevel}{1} | |
\setcounter{upm@fmt@savedcounter}{0} | 108 | 108 | \setcounter{upm@fmt@savedcounter}{0} | |
\setcounter{@@upm@fmt@inlineenumeration}{0} | 109 | 109 | \setcounter{@@upm@fmt@inlineenumeration}{0} | |
\setcounter{@upm@fmt@enumdescription@cnt@}{0} | 110 | 110 | \setcounter{@upm@fmt@enumdescription@cnt@}{0} | |
\setcounter{upmdefinition}{0} | 111 | 111 | \setcounter{upmdefinition}{0} | |
\setcounter{section@level}{1} | 112 | 112 | \setcounter{section@level}{1} | |
\setcounter{Item}{0} | 113 | 113 | \setcounter{Item}{0} | |
\setcounter{Hfootnote}{0} | 114 | 114 | \setcounter{Hfootnote}{0} | |
\setcounter{bookmark@seq@number}{37} | 115 | 115 | \setcounter{bookmark@seq@number}{37} | |
\setcounter{DefaultLines}{2} | 116 | 116 | \setcounter{DefaultLines}{2} | |
\setcounter{DefaultDepth}{0} | 117 | 117 | \setcounter{DefaultDepth}{0} | |
\setcounter{L@lines}{3} | 118 | 118 | \setcounter{L@lines}{3} | |
\setcounter{L@depth}{0} | 119 | 119 | \setcounter{L@depth}{0} | |
\setcounter{float@type}{8} | 120 | 120 | \setcounter{float@type}{8} | |
\setcounter{algorithm}{0} | 121 | 121 | \setcounter{algorithm}{0} | |
\setcounter{ALG@line}{0} | 122 | 122 | \setcounter{ALG@line}{0} | |
\setcounter{ALG@rem}{0} | 123 | 123 | \setcounter{ALG@rem}{0} | |
\setcounter{ALG@nested}{0} | 124 | 124 | \setcounter{ALG@nested}{0} | |
\setcounter{ALG@Lnr}{2} | 125 | 125 | \setcounter{ALG@Lnr}{2} | |
\setcounter{ALG@blocknr}{10} | 126 | 126 | \setcounter{ALG@blocknr}{10} | |
\setcounter{ALG@storecount}{0} | 127 | 127 | \setcounter{ALG@storecount}{0} | |
\setcounter{ALG@tmpcounter}{0} | 128 | 128 | \setcounter{ALG@tmpcounter}{0} | |
} | 129 | 129 | } | |
130 | 130 |
chapters/CBR.tex
View file @
4b1afa3
\chapter{\'Etat de l'art (Raisonnement à Partir de Cas)} | 1 | 1 | \chapter{\'Etat de l'art (Raisonnement à Partir de Cas)} | |
2 | 2 | |||
Le raisonnement à partir de cas est une approche fondée sur la connaissance. Il s'agit d'une technique d'intelligence artificielle dont l'idée est de résoudre un nouveau problème grâce aux connaissances déjà acquises par le système et en tenant un raisonnement fondé sur l'analogie. Le RàPC est apparu comme une alternative pour améliorer les systèmes experts. Shank et Abelson \cite{schank+abelson77} ont initialement mené des travaux sur l'organisation hiérarchique de la mémoire pour imiter le raisonnement humain. Ceux-ci ont servi de fondement aux travaux de Janet Kolodner \cite{KOLODNER1983281} et ont abouti à l'implémentation d'un système fondé sur ces principes en 1983. Le terme \textit{raisonnement à partir de cas} est utilisé pour la première fois en 1989 par Riesbeck et Shank \cite{Riesbeck1989}. | 3 | 3 | Le raisonnement à partir de cas est une approche fondée sur la connaissance. Il s'agit d'une technique d'intelligence artificielle dont l'idée est de résoudre un nouveau problème grâce aux connaissances déjà acquises par le système et en tenant un raisonnement fondé sur l'analogie. Le RàPC est apparu comme une alternative pour améliorer les systèmes experts. Shank et Abelson \cite{schank+abelson77} ont initialement mené des travaux sur l'organisation hiérarchique de la mémoire pour imiter le raisonnement humain. Ceux-ci ont servi de fondement aux travaux de Janet Kolodner \cite{KOLODNER1983281} et ont abouti à l'implémentation d'un système fondé sur ces principes en 1983. Le terme \textit{raisonnement à partir de cas} est utilisé pour la première fois en 1989 par Riesbeck et Shank \cite{Riesbeck1989}. | |
4 | 4 | |||
Comme vu dans le chapitre "contexte", le raisonnement à partir de cas utilise quatre conteneurs de connaissance pour représenter la connaissance complète du système. Chaque conteneur stocke l'information associée à une fonction spécifique et tout est fondé sur le carré d'analogie : des solutions ayant permis de résoudre un problème sont réutilisées afin de résoudre un nouveau problème similaire. La plupart des systèmes de RàPC fonctionnent suivant un cycle composé de quatre étapes : retrouver, réutiliser, réviser et retenir. | 5 | 5 | Comme cela a été introduit dans le chapitre \ref{chap:contexte}, le raisonnement à partir de cas utilise quatre conteneurs de connaissance pour représenter la connaissance complète du système \cite{RICHTER20093}. Chaque conteneur stocke l'information associée à une fonction spécifique et le processus de construction d'une solution appropriée au problème posé est fondé sur le carré d'analogie : des solutions ayant permis de résoudre un problème sont réutilisées afin de résoudre un nouveau problème similaire. La plupart des systèmes de RàPC fonctionnent suivant un cycle composé de quatre étapes : retrouver, réutiliser, réviser et retenir. | |
6 | 6 | |||
Les travaux présentés dans ce chapitre ont nourri notre réflexion et ont ouvert des perspectives d'amélioration de performance du système AI-VT. Ce chapitre commence par la présentation de travaux emblématiques intégrant un réseau de neurones au cycle de RàPC. Cette première section est suivie d'une présentation de différents travaux liés à l'explicabilité, toujours en utilisant le RàPC. Des travaux récents sur la représentation des cas et le cycle du RàPC, puis sur l'intégration d'autres algorithmes au cycle du RàPC sont ensuite présentés. Pour finir, la prédiction et la recommandation via le RàPC terminent ce chapitre. | 7 | 7 | Les travaux présentés dans ce chapitre ont nourri notre réflexion et ont ouvert des perspectives d'amélioration de performance du système AI-VT. Ce chapitre commence par la présentation de travaux emblématiques intégrant un réseau de neurones au cycle de RàPC. Cette première section est suivie d'une présentation de différents travaux liés à l'explicabilité, toujours en utilisant le RàPC. Des travaux récents sur la représentation des cas et le cycle du RàPC, puis sur l'intégration d'autres algorithmes au cycle du RàPC sont ensuite présentés. Pour finir, la prédiction et la recommandation via le RàPC terminent ce chapitre. | |
8 | 8 | |||
\section{Intégration d'un réseau de neurones dans le cycle du RàPC} | 9 | 9 | \section{Intégration d'un réseau de neurones dans le cycle du RàPC} | |
10 | 10 | |||
Plusieurs travaux combinent le RàPC avec les réseaux de neurones dans l'objectif d'améliorer les réponses générées et optimiser les performances de chaque algorithme. C'est une idée explorée dès 2009 par Jung \textit{et al.} \cite{JUNG20095695}. Les auteurs de cet article ont en effet développé un système fondé sur l'hybridation du RàPC avec des réseaux de neurones pour concevoir des produits. Cette hybridation est implémentée dans les phases "rechercher" et "réutiliser" : le système détermine de façon automatique les valeurs pour les paramètres nécessaires à la conception d'un produit particulier en suivant le cycle traditionnel du RàPC. Avec l'algorithme de k-moyennes, un cas représentatif de la base de cas est extrait et l'adaptation des solutions des voisins trouvées est faite avec le réseau de neurones RBFN (\textit{Radial Basis Function Network}). L'évaluation du système est faite en utilisant une base de données contenant 830 tests, les résultats démontrent que les produits conçus s'ajustent avec un grand pourcentage aux normes définies. | 11 | 11 | Plusieurs travaux combinent le RàPC avec les réseaux de neurones dans l'objectif d'améliorer les réponses générées et optimiser les performances de chaque algorithme. C'est une idée explorée dès 2009 par Jung \textit{et al.} \cite{JUNG20095695}. Les auteurs de cet article ont en effet développé un système fondé sur l'hybridation du RàPC avec des réseaux de neurones pour concevoir des produits. Cette hybridation est implémentée dans les phases "rechercher" et "réutiliser" : le système détermine de façon automatique les valeurs pour les paramètres nécessaires à la conception d'un produit particulier en suivant le cycle traditionnel du RàPC. Avec l'algorithme de k-moyennes, un cas représentatif de la base de cas est extrait et l'adaptation des solutions des voisins trouvées est faite avec le réseau de neurones RBFN (\textit{Radial Basis Function Network}). L'évaluation du système est faite en utilisant une base de données contenant 830 tests, les résultats démontrent que les produits conçus s'ajustent avec un grand pourcentage aux normes définies. | |
Plusieurs travaux combinent le RàPC avec les réseaux de neurones dans l'objectif d'améliorer les réponses générées et optimiser les performances de chaque algorithme. C'est une idée explorée dès 2009 par Jung \textit{et al.} \cite{JUNG20095695}. Les auteurs de cet article ont en effet développé un système fondé sur l'hybridation du RàPC avec des réseaux de neurones pour concevoir des produits. Cette hybridation est implémentée dans les phases "rechercher" et "réutiliser" : le système détermine de façon automatique les valeurs pour les paramètres nécessaires à la conception d'un produit particulier en suivant le cycle traditionnel du RàPC. Avec l'algorithme de k-moyennes, un cas représentatif de la base de cas et l'adaptation des solutions des voisins trouvées est faite avec le réseau de neurones RBFN (\textit{Radial Basis Function Network}). L'évaluation du système est faite en utilisant une base de données contenant 830 tests, les résultats démontrent que les produits conçus s'ajustent avec un grand pourcentage aux normes définies. | 12 | 12 | ||
13 | 13 | Dans \cite{10.1007/978-3-642-15973-2_50} un réseau de neurones classique est implémenté pour définir la géométrie d'une matrice pour l'extrusion de l'aluminium. En effet, actuellement c'est un processus qui se fait manuellement et par essai et erreur. Le RàPC est alors utilisé pour aider à déterminer les valeurs optimales des paramètres du réseau, en utilisant l'information des matrices d'extrusion déjà testées. | ||
Dans \cite{10.1007/978-3-642-15973-2_50} un réseau de neurones classique est implémenté pour définir la géométrie d'une matrice pour l'extrusion de l'aluminium. En effet, actuellement c'est un processus qui se fait manuellement et par essai et erreur. Le RàPC est alors utilisé pour aider à déterminer les valeurs optimales des paramètres du réseau, en utilisant l'information des matrices d'extrusion déjà testées. | 14 | 14 | ||
15 | 15 | Petrovic \textit{et al.} \cite{PETROVIC201617} proposent un système de raisonnement à partir de cas pour calculer la dose optimale de radiation pour le traitement du cancer. Dans ce domaine particulier de la radiothérapie, administrer une dose nécessite de connaître avec précision le nombre de faisceaux et l'angle de chacun d'eux. L'algorithme proposé tente de trouver la combinaison de valeurs optimales pour ces deux paramètres en utilisant les réseaux de neurones. L'utilisation des réseaux de neurones intervient lors de l'adaptation des cas connus : ils modifient le nombre et les angles des faisceaux. La validation de l'algorithme est évaluée avec une base de 80 cas réels de cancer du cerveau extraits de l'hôpital de Nottingham City. Le nombre de neurones et de couches ont été définis de façon empirique. Les résultats montrent que l'utilisation des cas historiques et la construction des solutions à partir des solutions déjà connues permet une amélioration de 12\% concernant la décision du nombre de faisceaux et de 29\% concernant la décision liée à leur angle. | ||
Petrovic \textit{et al.} \cite{PETROVIC201617} proposent un système de raisonnement à partir de cas pour calculer la dose optimale de radiation pour le traitement du cancer. Dans ce domaine particulier de la radiothérapie, administrer une dose nécessite de connaître avec précision le nombre de faisceaux et l'angle de chacun d'eux. L'algorithme proposé tente de trouver la combinaison de valeurs optimales pour ces deux paramètres en utilisant les réseaux de neurones. L'utilisation des réseaux de neurones intervient lors de l'adaptation des cas connus : ils modifient le nombre et les angles des faisceaux. La validation de l'algorithme est évaluée avec une base de 80 cas réels de cancer du cerveau extraits de l'hôpital de Nottingham City. Le nombre de neurones et de couches ont été définis de façon empirique. Les résultats montrent que l'utilisation des cas historiques et la construction des solutions à partir des solutions déjà connues permet une amélioration de 12\% concernant la décision du nombre de faisceaux et de 29\% concernant la décision liée à leur angle. | 16 | 16 | ||
17 | 17 | \section{Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus} | ||
\section{Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus} | 18 | 18 | ||
19 | 19 | La génération, l'analyse et la correction de textes constituent également des domaines d'application intéressants du RàPC. Pour la réalisation de ces tâches il est parfois nécessaire de transformer le texte en représentation numérique ou de mesurer la proximité sémantique de mots. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit explore les transformations possibles afin que la nouvelle histoire ne soit pas très similaire aux histoires déjà connues mais qu'elle soit cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de celle-ci déterminent si l'histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit recommencer; l'adaptation se fait en recherchant les personnages, les contextes, les objets dans la base de cas, et en les unifiant avec des actions; la plupart des histoires générées sont cohérentes mais elles sont constituées de paragraphes très courts. | ||
La génération, l'analyse et la correction de textes constituent également des domaines d'application intéressants du RàPC. Pour la réalisation de ces tâches il est parfois nécessaire de transformer le texte en représentation numérique ou de mesurer la proximité sémantique de mots. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit explore les transformations possibles afin que la nouvelle histoire ne soit pas très similaire aux histoires déjà connues mais qu'elle soit cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de celle-ci déterminent si l'histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit recommencer; l'adaptation se fait en recherchant les personnages, les contextes, les objets dans la base de cas, et en les unifiant avec des actions; la plupart des histoires générées sont cohérentes mais elles sont constituées de paragraphes très courts. | 20 | 20 | ||
21 | 21 | Dans \cite{10.1007/978-3-030-58342-2_20} les phrases écrites en langue française sont corrigées. Ce travail n'utilise ni la transformation numérique des phrases, ni de connaissances linguistiques, mais retrouve les phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et calcule une mesure de distance avec les phrases correctes et incorrectes de la base de connaissances. Si les phrases similaires sont incorrectes, le système peut proposer une correction en changeant certains mots selon le contexte et recalculer les distances afin de mesurer la cohérence et la pertinence de la phrase proposée. | ||
Dans \cite{10.1007/978-3-030-58342-2_20} les phrases écrites en langue française sont corrigées. Ce travail n'utilise ni la transformation numérique des phrases, ni de connaissances linguistiques, mais retrouve les phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et calcule une mesure de distance avec les phrases correctes et incorrectes de la base de connaissances. Si les phrases similaires sont incorrectes, le système peut proposer une correction en changeant certains mots selon le contexte et recalculer les distances afin de mesurer la cohérence et la pertinence de la phrase proposée. | 22 | 22 | ||
23 | 23 | Plus récemment Wolf \textit{et al.} \cite{wolf2024keep} ont présenté un système dans lequel le RàPC est employé pour expliquer les résultats générés par un réseau qui classifie les images en fonction de certains attributs et zones dans les images. Les résultats obtenus permettent de conclure que le RàPC permet d'expliquer fidèlement le contenu des images testées. | ||
Plus récemment Wolf \textit{et al.} \cite{wolf2024keep} ont présenté un système dans lequel le RàPC est employé pour expliquer les résultats générés par un réseau qui classifie les images en fonction de certains attributs et zones dans les images. Les résultats obtenus permettent de conclure que le RàPC permet d'expliquer fidèlement le contenu des images testées. | 24 | 24 | ||
25 | 25 | \cite{PAREJASLLANOVARCED2024111469} utilisent également le RàPC pour sélectionner la meilleure explication au résultat donné par le classificateur d'images fondé sur l'apprentissage profond (\textit{Deep Learning}). Dans ce système, la base de connaissances est constituée d'images avec des étiquettes décrivant l'information associée. Les résultats obtenus par ce système sont très prometteurs. | ||
\cite{PAREJASLLANOVARCED2024111469} utilisent également le RàPC pour sélectionner la meilleure explication au résultat donné par le classificateur d'images fondé sur l'apprentissage profond (\textit{Deep Learning}). Dans ce système, la base de connaissances est constituée d'images avec des étiquettes décrivant l'information associée. Les résultats obtenus par ce système sont très prometteurs. | 26 | 26 | ||
27 | 27 | \section{Travaux récents sur la représentation des cas et le cycle du RàPC} | ||
\section{Travaux récents sur la représentation des cas et le cycle du RàPC} | 28 | 28 | ||
29 | 29 | Certains travaux ont appliqué le raisonnement à partir de cas à un problème spécifique en modifiant les représentations des cas et des solutions. D'autres ont modifié le cycle conceptuel comme le montre la figure \figref{figMCBR2} avec l'objectif d'obtenir des réponses dynamiques et plus aptes à proposer des solutions à des problèmes complexes. | ||
Certains travaux ont appliqué le raisonnement à partir de cas à un problème spécifique en modifiant les représentations des cas et des solutions. D'autres ont modifié le cycle conceptuel comme le montre la figure \figref{figMCBR2} avec l'objectif d'obtenir des réponses dynamiques et plus aptes à proposer des solutions à des problèmes complexes. | 30 | 30 | ||
31 | 31 | En effet, la représentation des cas peut permettre d'améliorer les résultats d'un système de RàPC. La performance d'un système de RàPC dépend de la quantité d'informations stockées, mais également des algorithmes implémentés. C'est le cas dans \cite{Muller} où les recettes de cuisine sont codées comme un processus de transformation et mélangent des ingrédients en suivant une suite d'étapes ordonnées. Pour créer des recettes innovantes, une mesure de distance est utilisée entre les ingrédients. Cette mesure permet de trouver une recette en substituant certains ingrédients par d'autres, similaires ou aux qualités et/ou caractéristiques similaires. De la même manière, il est possible de créer des recettes plus proches des exigences des utilisateurs. Les étapes de transformation appelées aussi opérateurs sont stockées et catégorisées grâce à une métrique permettant de les échanger afin d'obtenir une nouvelle recette. | ||
En effet, la représentation des cas peut permettre d'améliorer les résultats d'un système de RàPC. La performance d'un système de RàPC dépend de la quantité d'informations stockées, mais également des algorithmes implémentés. C'est le cas dans \cite{Muller} où les recettes de cuisine sont codées comme un processus de transformation et mélangent des ingrédients en suivant une suite d'étapes ordonnées. Pour créer des recettes innovantes, une mesure de distance est utilisée entre les ingrédients. Cette mesure permet de trouver une recette en substituant certains ingrédients par d'autres, similaires ou aux qualités et/ou caractéristiques similaires. De la même manière, il est possible de créer des recettes plus proches des exigences des utilisateurs. Les étapes de transformation appelées aussi opérateurs sont stockées et catégorisées grâce à une métrique permettant de les échanger afin d'obtenir une nouvelle recette. | 32 | 32 | ||
33 | 33 | Les auteurs de \cite{10.1007/978-3-319-47096-2_11} introduisent un cycle complémentaire incluant un outil d'apprentissage profond pour améliorer le résultat du système fondé sur le RàPC. | ||
Les auteurs de \cite{10.1007/978-3-319-47096-2_11} introduisent un cycle complémentaire incluant un outil d'apprentissage profond pour améliorer le résultat du système fondé sur le RàPC. | 34 | 34 | ||
35 | 35 | Dans \cite{10.1007/978-3-642-15973-2_50}, la phase de stockage est modifiée en retenant les cas dont les résultats n'ont pas eu de succès, pour guider le processus dans la fabrications de nouvelles pièces. | ||
Dans \cite{10.1007/978-3-642-15973-2_50}, la phase de stockage est modifiée en retenant les cas dont les résultats n'ont pas eu de succès, pour guider le processus dans la fabrications de nouvelles pièces. | 36 | 36 | ||
37 | 37 | Enfin, dans \cite{Robertson2014ARO}, les auteurs proposent d'ajouter à chaque cas une valeur d'utilité espérée en fonction de chaque action possible. Cet ajout s'accompagne d'une prédiction probabiliste des actions que l'application engendrera en réponse. Cette prédiction probabiliste dépend bien entendu de l'état initial du système avant la mise en œuvre de l'action. | ||
Enfin, dans \cite{Robertson2014ARO}, les auteurs proposent d'ajouter à chaque cas une valeur d'utilité espérée en fonction de chaque action possible. Cet ajout s'accompagne d'une prédiction probabiliste des actions que l'application engendrera en réponse. Cette prédiction probabiliste dépend bien entendu de l'état initial du système avant la mise en œuvre de l'action. | 38 | 38 | ||
39 | 39 | \mfigure[!ht]{width=\textwidth}{./Figures/ModCBR2.png}{Ajout d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (Traduit de \cite{10.1007/978-3-319-47096-2_11})}{figMCBR2} | ||
\mfigure[!ht]{width=\textwidth}{./Figures/ModCBR2.png}{Ajout d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (Traduit de \cite{10.1007/978-3-319-47096-2_11})}{figMCBR2} | 40 | 40 | ||
41 | 41 | Plusieurs travaux appliquent le RàPC avec succès en proposant des modifications dans chacune des phases ou en combinant différents algorithmes. Certains systèmes de RàPC appliqués au domaine de la conception de produits sont remarquables à ce titre. | ||
Plusieurs travaux appliquent le RàPC avec succès en proposant des modifications dans chacune des phases ou en combinant différents algorithmes. Certains systèmes de RàPC appliqués au domaine de la conception de produits sont remarquables à ce titre. | 42 | 42 | ||
43 | 43 | Dans \cite{ROLDANREYES20151}, les auteurs proposent un algorithme pour produire le propylène glycol dans un réacteur chimique comme le montre la figure \figref{figMCBR1}. Dans ce cas, la phase de réutilisation du RàPC est couplée à la recherche des états satisfaisant le nouveau problème (\textit{Constraint satisfaction problems CSP}) en utilisant l'information des cas de base déjà résolus. Les solutions trouvées sont évaluées selon le nombre de changements réalisés sur les solutions déjà connues (parcimonie), le nombre de solutions possibles trouvées (précision), l'évaluation de commentaires faits par des experts et la complexité des transformations réalisées. | ||
Dans \cite{ROLDANREYES20151}, les auteurs proposent un algorithme pour produire le propylène glycol dans un réacteur chimique comme le montre la figure \figref{figMCBR1}. Dans ce cas, la phase de réutilisation du RàPC est couplée à la recherche des états satisfaisant le nouveau problème (\textit{Constraint satisfaction problems CSP}) en utilisant l'information des cas de base déjà résolus. Les solutions trouvées sont évaluées selon le nombre de changements réalisés sur les solutions déjà connues (parcimonie), le nombre de solutions possibles trouvées (précision), l'évaluation de commentaires faits par des experts et la complexité des transformations réalisées. | 44 | 44 | ||
45 | 45 | \mfigure[!ht]{width=\textwidth}{./Figures/ModCBR1.png}{Cycle du RàPC modifié. (Traduit de \cite{ROLDANREYES20151})}{figMCBR1} | ||
\mfigure[!ht]{width=\textwidth}{./Figures/ModCBR1.png}{Cycle du RàPC modifié. (Traduit de \cite{ROLDANREYES20151})}{figMCBR1} | 46 | 46 | ||
47 | 47 | Dans \cite{10.1007/978-3-319-47096-2_11}, les auteurs ajoutent un nouveau cycle au cycle traditionnel du RàPC. Le premier cycle génère des descriptions abstraites du problème avec un réseau de neurones et des algorithmes génétiques; le second cycle prend les descriptions abstraites comme des nouveaux cas, cherche les cas similaires et adapte les solutions rencontrées. L'exécution des deux cycles prend en compte certains critères prédéfinis par l'utilisateur. En comparant le même problème avec le cycle traditionnel du RàPC, les auteurs mesurent une amélioration de la qualité des recettes proposées et montrent que celles-ci sont plus en accord avec les critères définis. | ||
Dans \cite{10.1007/978-3-319-47096-2_11}, les auteurs ajoutent un nouveau cycle au cycle traditionnel du RàPC. Le premier cycle génère des descriptions abstraites du problème avec un réseau de neurones et des algorithmes génétiques; le second cycle prend les descriptions abstraites comme des nouveaux cas, cherche les cas similaires et adapte les solutions rencontrées. L'exécution des deux cycles prend en compte certains critères prédéfinis par l'utilisateur. En comparant le même problème avec le cycle traditionnel du RàPC, les auteurs mesurent une amélioration de la qualité des recettes proposées et montrent que celles-ci sont plus en accord avec les critères définis. | 48 | 48 | ||
49 | 49 | \cite{10.1007/978-3-319-61030-6_1} s'intéressent quant à eux à la génération de recettes de cuisine originales. Les auteurs modifient le cycle traditionnel du RàPC et créent deux cycles, combinant l'apprentissage profond et la récupération de cas fondée sur la similarité. Le premier cycle génère des descriptions abstraites de la conception avec des algorithmes génétiques et un réseau neuronal profond. Le second cycle utilise les descriptions abstraites pour récupérer et adapter des objets. Cette structure donne lieu à un prototype appelé Q-chef qui génère une recette fondée sur d'autres ingrédients connus du système et les demandes de l'utilisateur. Ce travail ne montre pas de métriques standard génériques mais utilise deux nombres indicatifs (plausibilité et surprise) pour démontrer la génération efficace de nouvelles recettes selon les critères de l'utilisateur en comparant le RàPC à deux cycles avec le RàPC à un cycle, démontrant plus de plausibilité et de surprise dans les recettes générées. | ||
\cite{10.1007/978-3-319-61030-6_1} s'intéressent quant à eux à la génération de recettes de cuisine originales. Les auteurs modifient le cycle traditionnel du RàPC et créent deux cycles, combinant l'apprentissage profond et la récupération de cas fondée sur la similarité. Le premier cycle génère des descriptions abstraites de la conception avec des algorithmes génétiques et un réseau neuronal profond. Le second cycle utilise les descriptions abstraites pour récupérer et adapter des objets. Cette structure donne lieu à un prototype appelé Q-chef qui génère une recette fondée sur d'autres ingrédients connus du système et les demandes de l'utilisateur. Ce travail ne montre pas de métriques standard génériques mais utilise deux nombres indicatifs (plausibilité et surprise) pour démontrer la génération efficace de nouvelles recettes selon les critères de l'utilisateur en comparant le RàPC à deux cycles avec le RàPC à un cycle, démontrant plus de plausibilité et de surprise dans les recettes générées. | 50 | 50 | ||
51 | 51 | \section{Intégration d'autres algorithmes dans le cycle du RàPC} | ||
\section{Intégration d'autres algorithmes dans le cycle du RàPC} | 52 | 52 | ||
53 | 53 | Par rapport à l'intégration du RàPC avec d'autres algorithmes nous pouvons citer \cite{buildings13030651} qui mettent en œuvre un RáPC avec une méthode d'agrégation \textit{bootstrap} (\textit{bagging}) pour améliorer la précision du RàPC lorsqu'il n'y a pas suffisamment de cas et réduire la variance. L'une des problématiques auxquelles les auteurs tentent de répondre dans cet article est l'estimation des coûts conceptuels dans les décisions de faisabilité d'un projet lorsque l'on ne dispose pas de suffisamment d'informations sur la conception détaillée et les exigences du projet. Les résultats ont révélé que le RàPC associé à \textit{bootstrap} est plus performant que le RàPC non associé à \textit{bootstrap}. | ||
Par rapport à l'intégration du RàPC avec d'autres algorithmes nous pouvons citer \cite{buildings13030651} qui mettent en œuvre un RáPC avec une méthode d'agrégation \textit{bootstrap} (\textit{bagging}) pour améliorer la précision du RàPC lorsqu'il n'y a pas suffisamment de cas et réduire la variance. L'une des problématiques auxquelles les auteurs tentent de répondre dans cet article est l'estimation des coûts conceptuels dans les décisions de faisabilité d'un projet lorsque l'on ne dispose pas de suffisamment d'informations sur la conception détaillée et les exigences du projet. Les résultats ont révélé que le RàPC associé à \textit{bootstrap} est plus performant que le RàPC non associé à \textit{bootstrap}. | 54 | 54 | ||
55 | 55 | Un modèle d'ensemble fondé sur le raisonnement à partir de cas est proposé par \cite{YU2023110163}. Celui-ci est appliqué à la prédiction financière et au remplissage des données manquantes. Dans ce système, pour retrouver les plus proches voisins, le modèle utilise trois mesures de distance différentes et une étape de vote pour l'intégration. Le modèle a été testé avec une base de données comportant $11$ caractéristiques (informations) financières provenant de $249$ entreprises. La comparaison est faite avec deux objectifs. Premièrement, le remplissage des données manquantes avec d'autres algorithmes tels que KNN ou \textit{Random Forest}, et deuxièmement, la comparaison de la prédiction avec des algorithmes uniques utilisant une métrique de distance spécifique. Les résultats obtenus montrent que le système est plus performant aussi bien pour le remplissage des données manquantes que pour la prédiction des données financières. | ||
Un modèle d'ensemble fondé sur le raisonnement à partir de cas est proposé par \cite{YU2023110163}. Celui-ci est appliqué à la prédiction financière et au remplissage des données manquantes. Dans ce système, pour retrouver les plus proches voisins, le modèle utilise trois mesures de distance différentes et une étape de vote pour l'intégration. Le modèle a été testé avec une base de données comportant onze caractéristiques (informations) financières provenant de 249 entreprises. La comparaison est faite avec deux objectifs. Premièrement, le remplissage des données manquantes avec d'autres algorithmes tels que KNN ou \textit{Random Forest}, et deuxièmement, la comparaison de la prédiction avec des algorithmes uniques utilisant une métrique de distance spécifique. Les résultats obtenus montrent que le système est plus performant aussi bien pour le remplissage des données manquantes que pour la prédiction des données financières. | 56 | 56 | ||
57 | 57 | Une étape très importante dans le RàPC est l'adaptation. Dans \cite{10.1007/978-3-031-63646-2_4} l'objectif est de changer la représentation de la connaissance pour évaluer s'il y a un impact positif dans les solutions générées. Ce changement permet aussi d'établir des règles d'adaptation. Les résultats démontrent que choisir une représentation adéquate et des règles correctes en fonction du problème étudié peut améliorer la qualité des solutions pour résoudre des problèmes complexes. | ||
Une étape très importante dans le RàPC est l'adaptation. Dans \cite{10.1007/978-3-031-63646-2_4} l'objectif est changer la représentation de la connaissance pour évaluer s'il y a un impact positif dans les solutions générées, ce changement permet aussi d'établir règles d'adaptation, les résultats permettent de dire que choisir une représentation adéquate et des règles correctes en fonction du problème étudié peut améliorer la qualité des solutions pour résoudre des problèmes complexes. | 58 | 58 | ||
59 | 59 | \section{Prédiction et interpolation en utilisant le RàPC} | ||
\section{Prédiction et interpolation en utilisant le RàPC} | 60 | 60 | ||
61 | 61 | L'objectif du travail de \cite{10.1007/978-3-030-01081-2_25} est la prédiction du temps de course d'un athlète. L'algorithme KNN est utilisé pour rechercher les cas similaires. Le système interpole un temps final grâce au calcul d'une moyenne pondérée des meilleurs temps des cas similaires retrouvés dans la première étape du RàPC. | ||
L'objectif du travail de \cite{10.1007/978-3-030-01081-2_25} est la prédiction du temps de course pour un athlète. L'algorithme KNN est utilisé pour rechercher les cas similaires. Le système interpole un temps final grâce au calcul d'une moyenne pondérée des meilleurs temps des cas similaires retrouvés dans la première étape du RàPC. | 62 | 62 | ||
63 | 63 | Dans \cite{10.1007/978-3-030-58342-2_8}, les auteurs essaient de prédire le meilleur temps d'un patineur par analogie avec ceux des patineurs ayant des caractéristiques et une histoire de course similaires. Toutefois, calculer une moyenne des temps similaires trouvés ne suffit pas toujours. Certaines caractéristiques liées au contexte, à l'environnement et à la nature de la course (le type de course, le type de piste, la distance à parcourir, etc.), peuvent en effet influencer de manière importante la performance du patineur. L'algorithme a été testé avec une base de données contenant les informations de 21 courses de 500m, 700m, 1000m, 1500m, 3km, 5km and 10km réalisées entre Septembre 2015 et Janvier 2020. | ||
Dans \cite{10.1007/978-3-030-58342-2_8}, les auteurs essaient de prédire le meilleur temps d'un patineur par analogie avec ceux des patineurs ayant des caractéristiques et une histoire de course similaires. Cependant, parfois, calculer une moyenne des temps similaires trouvés ne suffit pas. Certaines caractéristiques liées au contexte, à l'environnement et à la nature de la course (le type de course, le type de piste, la distance à parcourir, etc.), peuvent en effet influencer de manière importante la performance du patineur. L'algorithme a été testé avec une base de données contenant les informations de 21 courses de 500m, 700m, 1000m, 1500m, 3km, 5km and 10km réalisées entre Septembre 2015 et Janvier 2020. | 64 | 64 | ||
65 | 65 | Un système multi-fonctionnel est décrit dans \cite{10.1007/978-3-030-58342-2_5}. Celui-ci permet d'obtenir une prédiction du temps de course, de suggérer un plan du rythme de la course et il recommande également un plan d'entraînement pour une course donnée. Les trois fonctionnalités sont implémentées en utilisant le RàPC. Les calculs de la similarité sont fondés sur un historique et des caractéristiques physiques des coureurs. Les plans d'entraînement sont génériques et sont proposés sur les 16 semaines précédant le début du marathon ciblé (selon les auteurs, c'est en effet le temps usuel pour une préparation à ce type d'épreuve). Le système a été évalué avec une base de données constituée de caractéristiques de 21000 coureurs des marathons de Dublin, Londres ou New-York pour la période de 2014 à 2017. | ||
Un système multi-fonctionnel est décrit dans \cite{10.1007/978-3-030-58342-2_5}. Celui-ci permet d'obtenir une prédiction du temps de course, de suggérer un plan du rythme de la course et il recommande également un plan d'entraînement pour une course donnée. Les trois fonctionnalités sont implémentées en utilisant le RàPC. Les calculs de la similarité sont fondés sur un historique et des caractéristiques physiques des coureurs. Les plans d'entraînement sont génériques et sont proposés sur les 16 semaines précédant le début du marathon ciblé (selon les auteurs, c'est en effet le temps usuel pour une préparation à ce type d'épreuve). Le système a été évalué avec une base de données constituée de caractéristiques de 21000 coureurs des marathons de Dublin, Londres ou New-York pour la période de 2014 à 2017. | 66 | 66 | ||
67 | 67 | Les auteurs de \cite{YU2024123745} proposent un algorithme en deux étapes pour prédire avec précision et robustesse la détresse financière. Les deux étapes utilisent le RàPC. La première étape consiste à compléter les valeurs manquantes de la base de données considérée. Un cycle de RàPC est ensuite combiné avec un LVQ (\textit{Learning Vector Quantization}) pour interpoler une classification. Les résultats obtenus sont prometteurs. | ||
Les auteurs de \cite{YU2024123745} proposent un algorithme en deux étapes pour prédire avec précision et robustesse la détresse financière. Les deux étapes utilisent le RàPC. La première étape consiste à compléter les valeurs manquantes de la base de données considérée. Un cycle de RàPC est ensuite combiné avec un LVQ (\textit{Learning Vector Quantization}) pour interpoler une classification. Les résultats obtenus sont prometteurs. | 68 | 68 | ||
69 | 69 | Les auteurs de \cite{Sadeghi} présentent un nouvel algorithme pour la prévision de la demande de matériel de secours. Le système décrit dans cet article combine le RàPC avec la méthode du meilleur-pire (\textit{Best-Worst Method}, BWM) et les modèles de Markov cachés (\textit{Hidden Markov Model}, HMM). Le HMM est entrainé avec des données historiques de demande de matériel. Lorsque l'algorithme détecte un accident, le RàPC recherche les cas similaires pour proposer le matériel nécessaire. D'après les résultats, l'indice d'erreur de prévision est inférieur à 10\%, démontrant ainsi la robustesse du système CBR-BWM-HMM proposé. | ||
Les auteurs de \cite{Sadeghi} présentent un nouvel algorithme pour la prévision de la demande de matériel de secours. Le système décrit dans cet article combine le RàPC avec la méthode du meilleur-pire (\textit{Best-Worst Method}, BWM) et les modèles de Markov cachés (\textit{Hidden Markov Model}, HMM). Le HMM est entrainé avec des données historiques de demande de matériel. Lorsque l'algorithme détecte un accident, le RàPC recherche les cas similaires pour proposer le matériel nécessaire. D'après les résultats, l'indice d'erreur de prévision est inférieur à 10\%, démontrant ainsi la robustesse du système CBR-BWM-HMM proposé. | 70 | 70 | ||
71 | 71 | \section{Recommandation, EIAH et RàPC} | ||
\section{Recommandation, EIAH et RàPC} | 72 | 72 | ||
73 | 73 | Les systèmes de recommandation et le RàPC peuvent aussi être combinés comme dans le système proposé par \cite{8495930}. Cet article montre les bénéfices de l'utilisation du RàPC dans les environnements informatiques pour l'apprentissage humain (EIAH). Le modèle proposé suit le cycle traditionnel du RàPC en combinant les modèles d'apprentissages traditionnels et numériques. Les principales contributions sont la représentation des cas et la recommandation des parcours d'apprentissage personnalisés selon les informations issues des autres apprenants. Une base de cas initiaux a été créée pour mesurer l'efficacité du modèle. Celle-ci stocke la recommandation du parcours de 120 apprenants. Des examens, réalisés avant et après avoir suivi le parcours recommandé par le système, permettent de mesurer l'efficacité de la recommandation proposée. | ||
Les systèmes de recommandation et le RàPC peuvent aussi être combinés comme dans le système proposé par \cite{8495930}. Cet article montre les bénéfices de l'utilisation du RàPC dans les environnements informatiques pour l'apprentissage humain (EIAH). Le modèle proposé suit le cycle traditionnel du RàPC en combinant les modèles d'apprentissages traditionnels et numériques. Les principales contributions sont la représentation des cas et la recommandation des parcours d'apprentissage personnalisés selon les informations issues des autres apprenants. Une base de cas initiaux a été créée pour mesurer l'efficacité du modèle. Celle-ci stocke la recommandation du parcours de 120 apprenants. Des examens, réalisés avant et après avoir suivi le parcours recommandé par le système, permettent de mesurer l'efficacité de la recommandation proposée. | 74 | 74 | ||
75 | 75 | Le système décrit dans \cite{Obeid} présente la particularité d'être capable d'analyser des données hétérogènes et multidimensionnelles. Dans ce travail, un parcours de carrière associé aux universités/collèges est recommandé aux élèves du secondaire en fonction de leurs intérêts. Ce travail montre également une taxonomie des techniques algorithmiques généralement utilisées dans les systèmes de recommandation pour les EIAH (figure \figref{figTax}). | ||
Le système décrit dans \cite{Obeid} présente la particularité d'être capable d'analyser des données hétérogènes et multidimensionnelles. Dans ce travail, un parcours de carrière associé aux universités/collèges est recommandé aux élèves du secondaire en fonction de leurs intérêts. Ce travail montre également une taxonomie des techniques algorithmiques généralement utilisées dans les systèmes de recommandation pour les EIAH (figure \figref{figTax}). | 76 | 76 | ||
77 | 77 | En fonction de certains paramètres comme le type d'école, le nombre d'étudiants admis et non admis, le nombre de classes, les auteurs de \cite{skittou2024recommender} développent un modèle hybride combinant RàPC et raisonnement à partir de règles pour recommander des actions de planification en réponse à des cas éducatifs des écoles primaires. Le modèle a été testé sur des données réelles et a donné de bons résultats avec une grande précision. | ||
En fonction de certains paramètres comme le type d'école, le nombre d'étudiants admis et non admis, le nombre de classes, les auteurs de \cite{skittou2024recommender} développent un modèle hybride combinant RàPC et raisonnement à partir de règles pour recommander des actions de planification en réponse à des cas éducatifs des écoles primaires. Le modèle a été testé sur des données réelles et a donné de bons résultats avec une grande précision. | 78 | 78 | ||
79 | 79 | %Le RàPC a également été mis en oeuvre dans différents travaux liés à la génération, l’analyse et la correction de textes écrits. Pour la réalisation de ces tâches, il est parfois nécessaire de transformer le texte en représentation numérique ou d’établir une fonction ou mesure qui va indiquer quels mots ont une proximité sémantique. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit dans ce travail explore les transformations de forme possibles afin que la nouvelle histoire ne soit pas similaire aux histoires déjà connues tout en étant cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de la révision déterminent si l’histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit être recommencé. L'adaptation se fait en cherchant dans la base des cas, les personnages, les contextes, les objets et en \colorbox{pink}{unifiant tout avec des actions ??}. Les résultats montrent que la plupart des histoires générées sont cohérentes mais qu'elles sont constituées de paragraphes très courts. Dans \cite{10.1007/978-3-030-58342-2_20}, les phrases écrites en langue française sont corrigées, ce travail n'utilise ni la transformation numérique \colorbox{yellow}{?} des phrases, ni des connaissances linguistiques. Le système conçu retrouve des phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et en calculant la distance entre toutes les phrases \colorbox{yellow}{lesquelles ?} pour savoir \colorbox{pink}{je ne comprends pas la suite }si elle est bien écrite ou pas. Si la phrase n’est pas bien écrite, le système peut proposer une correction en changeant certains mots selon le contexte et calculer à nouveau les distances mesurant la cohérence et pertinence de la phrase. | ||
%Le RàPC a également été mis en oeuvre dans différents travaux liés à la génération, l’analyse et la correction de textes écrits. Pour la réalisation de ces tâches, il est parfois nécessaire de transformer le texte en représentation numérique ou d’établir une fonction ou mesure qui va indiquer quels mots ont une proximité sémantique. Le travail de \cite{10.1007/978-3-319-24586-7_20} utilise le RàPC pour générer des histoires en utilisant le texte d'autres histoires. Le système décrit dans ce travail explore les transformations de forme possibles afin que la nouvelle histoire ne soit pas similaire aux histoires déjà connues tout en étant cohérente. Le travail est plus focalisé sur la phase de révision, car les résultats de la révision déterminent si l’histoire générée correspond aux critères spécifiés ou si le cycle d'adaptation doit être recommencé. L'adaptation se fait en cherchant dans la base des cas, les personnages, les contextes, les objets et en \colorbox{pink}{unifiant tout avec des actions ??}. Les résultats montrent que la plupart des histoires générées sont cohérentes mais qu'elles sont constituées de paragraphes très courts. Dans \cite{10.1007/978-3-030-58342-2_20}, les phrases écrites en langue française sont corrigées, ce travail n'utilise ni la transformation numérique \colorbox{yellow}{?} des phrases, ni des connaissances linguistiques. Le système conçu retrouve des phrases similaires en utilisant l'algorithme LCS (\textit{Longest Common Subsequence}) et en calculant la distance entre toutes les phrases \colorbox{yellow}{lesquelles ?} pour savoir \colorbox{pink}{je ne comprends pas la suite }si elle est bien écrite ou pas. Si la phrase n’est pas bien écrite, le système peut proposer une correction en changeant certains mots selon le contexte et calculer à nouveau les distances mesurant la cohérence et pertinence de la phrase. | 80 | 80 | ||
81 | 81 | \mfigure[!ht]{width=\textwidth}{./Figures/taxonomieEIAH.png}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite{Obeid})}{figTax} | ||
\mfigure[!ht]{width=\textwidth}{./Figures/taxonomieEIAH.png}{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (Traduit de \cite{Obeid})}{figTax} | 82 | 82 | ||
83 | 83 | %\begin{figure} | ||
%\begin{figure} | 84 | 84 | %\centering | |
%\centering | 85 | 85 | %\includegraphics[scale=21]{./Figures/taxonomieEIAH.png} | |
%\includegraphics[scale=21]{./Figures/taxonomieEIAH.png} | 86 | 86 | %\caption{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (\cite{Obeid})} | |
%\caption{Taxonomie des techniques algorithmiques employées pour des modules de recommandation dans les EIAH (\cite{Obeid})} | 87 | 87 | %\label{figTax} | |
%\label{figTax} | 88 | 88 | %\end{figure} | |
%\end{figure} | 89 | 89 | ||
90 | 90 | \section{Récapitulatif des limites des travaux présentés dans ce chapitre} | ||
\section{Récapitulatif des limites des travaux présentés dans ce chapitre} | 91 | 91 | ||
92 | 92 | Le tableau \ref{tabArts2} récapitule les articles analysés dans cet état de l'art du RàPC et rappelle les limitations que nous avons identifiées. Ces limitations sont liées aux données, à la flexibilité, à la généralisation de l'algorithme proposé, à la validité des solutions proposées, l'automatisation du processus et complexité du modèle proposée. | ||
Le tableau \ref{tabArts2} récapitule les articles analysés dans cet état de l'art du RàPC et rappelle les limitations que nous avons identifiées. Ces limitations sont liées aux données, à la flexibilité, à la généralisation de l'algorithme proposé, à la validité des solutions proposées, l'automatisation du processus et complexité du modèle proposée. | 93 | 93 | ||
94 | 94 | En complément, deux problèmes très communs des systèmes de recommandation peuvent être ajoutées à ces limitations : | ||
En complément, deux problèmes très communs des systèmes de recommandation peuvent être ajoutées à ces limitations : | 95 | 95 | \begin{itemize} | |
\begin{itemize} | 96 | 96 | \item le \textit{cold-start} qui se produit au début d'une recommandation lorsqu'il n'y a pas suffisamment de données pour calculer ou inférer une recommandation appropriée \cite{HU2025127130}, et | |
\item le \textit{cold-start} qui se produit au début d'une recommandation lorsqu'il n'y a pas suffisamment de données pour calculer ou inférer une recommandation appropriée \cite{HU2025127130}, et | 97 | 97 | \item le \textit{gray-sheep} qui se produit lorsqu'un utilisateur présente un comportement très différent de ceux qui sont stockés dans la base de données. Le système ne peut donc pas générer des recommandations en se basant sur l'information disponible \cite{ALABDULRAHMAN2021114061}. | |
\item le \textit{gray-sheep} qui se produit lorsqu'un utilisateur présente un comportement très différent de ceux qui sont stockés dans la base de données. Le système ne peut donc pas générer des recommandations en se basant sur l'information disponible \cite{ALABDULRAHMAN2021114061}. | 98 | 98 | \end{itemize} | |
\end{itemize} | 99 | 99 | ||
100 | 100 | \begin{table} | ||
\begin{table} | 101 | 101 | \footnotesize | |
\footnotesize | 102 | 102 | \begin{tabular}{p{4.4cm}p{9cm}} | |
\begin{tabular}{p{4.4cm}p{9cm}} | 103 | 103 | Ref&Limites\\ | |
Ref&Limites\\ | 104 | 104 | \hline | |
\hline | 105 | 105 | ||
106 | 106 | \cite{JUNG20095695}&Le modèle d'adaptation proposé fonctionne seulement avec des cas très proches. L'apprentissage dans le RàCP se limite à stocker les nouveaux cas.\\ | ||
\cite{JUNG20095695}&Le modèle d'adaptation proposé fonctionne seulement avec des cas très proches. L'apprentissage dans le RàCP se limite à stocker les nouveaux cas.\\ | 107 | 107 | ||
108 | 108 | \cite{10.1007/978-3-642-15973-2_50}&Le RàPC n'est pas modifié ou amélioré. La révision dans le RàPC n'est pas automatique.\\ | ||
\cite{10.1007/978-3-642-15973-2_50}&Le RàPC n'est pas modifié ou amélioré. La révision dans le RàPC n'est pas automatique.\\ | 109 | 109 | ||
110 | 110 | \cite{PETROVIC201617}&Grande quantité de données pour que l'algorithme fonctionne correctement. Recommandation limitée à un problème très spécifique.\\ | ||
\cite{PETROVIC201617}&Grande quantité de données pour que l'algorithme fonctionne correctement. Recommandation limitée à un problème très spécifique.\\ | 111 | 111 | ||
112 | 112 | \cite{wolf2024keep}&Le modèle n'est actuellement appliqué qu'à la classification d'images à un seul label. \\ | ||
\cite{wolf2024keep}&Le modèle n'est actuellement appliqué qu'à la classification d'images à un seul label. \\ | 113 | 113 | ||
114 | 114 | \cite{PAREJASLLANOVARCED2024111469}&La base de données de test a été construite avec des évaluations subjectives. Le modèle ne considère pas les incertitudes.\\ | ||
\cite{PAREJASLLANOVARCED2024111469}&La base de données de test a été construite avec des évaluations subjectives. Le modèle ne considère pas les incertitudes.\\ | 115 | 115 | ||
116 | 116 | \cite{ROLDANREYES20151}&Une seule méthode d'adaptation est utilisée. Le modèle n'exploite pas les cas qui présentent une erreur.\\ | ||
\cite{ROLDANREYES20151}&Une seule méthode d'adaptation est utilisée. Le modèle n'exploite pas les cas qui présentent une erreur.\\ | 117 | 117 | ||
118 | 118 | \cite{10.1007/978-3-319-47096-2_11}&Beaucoup de données sont nécessaires pour entraîner le modèle de 'Deep Learning'. Les solutions générées n'ont pas été validées.\\ | ||
\cite{10.1007/978-3-319-47096-2_11}&Beaucoup de données sont nécessaires pour entraîner le modèle de 'Deep Learning'. Les solutions générées n'ont pas été validées.\\ | 119 | 119 | ||
120 | 120 | \cite{10.1007/978-3-319-61030-6_1}&L'évaluation des solutions générées n'est pas automatique. Les solutions sont produites avec un seul point de vue.\\ | ||
\cite{10.1007/978-3-319-61030-6_1}&L'évaluation des solutions générées n'est pas automatique. Les solutions sont produites avec un seul point de vue.\\ | 121 | 121 | ||
122 | 122 | \cite{buildings13030651}&La fonction d'unification des solutions est une moyenne des solutions générées avec la division des données et une seule approche\\ | ||
\cite{buildings13030651}&La fonction d'unification des solutions est une moyenne des solutions générées avec la division des données et une seule approche\\ | 123 | 123 | ||
124 | 124 | \cite{YU2023110163}&Une base de données déséquilibrée peut affecter négativement la performance du modèle proposé\\ | ||
\cite{YU2023110163}&Une base de données déséquilibrée peut affecter négativement la performance du modèle proposé\\ | 125 | 125 | ||
126 | 126 | \cite{Muller}&Une seule approche pour adapter les cas dans le RàPC. La révision dans le RàPC n'est pas automatique.\\ | ||
\cite{Muller}&Une seule approche pour adapter les cas dans le RàPC. La révision dans le RàPC n'est pas automatique.\\ | 127 | 127 | ||
128 | 128 | \cite{10.1007/978-3-319-24586-7_20}&Les solutions générées peuvent présenter des incohérences. Il n'y a pas une métrique objective pour mesurer la qualité des réponses.\\ | ||
\cite{10.1007/978-3-319-24586-7_20}&Les solutions générées peuvent présenter des incohérences. Il n'y a pas une métrique objective pour mesurer la qualité des réponses.\\ | 129 | 129 | ||
130 | 130 | \cite{10.1007/978-3-030-58342-2_20}&Les résultats ne sont pas très bons. Le modèle n'a pas de connaissances linguistiques.\\ | ||
\cite{10.1007/978-3-030-58342-2_20}&Les résultats ne sont pas très bons. Le modèle n'a pas de connaissances linguistiques.\\ | 131 | 131 | ||
132 | 132 | \cite{10.1007/978-3-031-63646-2_4}&Les règles d'adaptation définies sont fixes et peuvent être limitées pour certaines situations.\\ | ||
\cite{10.1007/978-3-031-63646-2_4}&Les règles d'adaptation définies sont fixes et peuvent être limitées pour certaines situations.\\ | 133 | 133 | ||
134 | 134 | \cite{10.1007/978-3-030-01081-2_25}&Les prédictions n'ont pas été testées dans le monde réel. Les données sont très spécifiques et peu variées.\\ | ||
\cite{10.1007/978-3-030-01081-2_25}&Les prédictions n'ont pas été testées dans le monde réel. Les données sont très spécifiques et peu variées.\\ | 135 | 135 | ||
136 | 136 | \cite{10.1007/978-3-030-58342-2_8}&Les prédictions sont pour des cas limités. Le modèle est entraîné pour un type d'utilisateur spécifique.\\ | ||
\cite{10.1007/978-3-030-58342-2_8}&Les prédictions sont pour des cas limités. Le modèle est entraîné pour un type d'utilisateur spécifique.\\ | 137 | 137 | ||
138 | 138 | \cite{10.1007/978-3-030-58342-2_5}&Seulement une technique de sélection de solutions. Les données nécessaires pour le modèle sont complexes.\\ | ||
\cite{10.1007/978-3-030-58342-2_5}&Seulement une technique de sélection de solutions. Les données nécessaires pour le modèle sont complexes.\\ | 139 | 139 | ||
140 | 140 | \cite{YU2024123745}&Il n'y a pas de révision des cas dans la méthode d'imputation ni dans le modèle de classification fondé sur RàPC. Cela peut accroître le biais d'imputation et introduire des échantillons avec bruit.\\ | ||
\cite{YU2024123745}&Il n'y a pas de révision des cas dans la méthode d'imputation ni dans le modèle de classification fondé sur RàPC. Cela peut accroître le biais d'imputation et introduire des échantillons avec bruit.\\ | 141 | 141 | ||
142 | 142 | \cite{Sadeghi}&Le temps de calcul peut être très grand en fonction de la quantité de données associées, dû à l'étape d'entraînement du modèle HMM.\\ | ||
\cite{Sadeghi}&Le temps de calcul peut être très grand en fonction de la quantité de données associées, dû à l'étape d'entraînement du modèle HMM.\\ | 143 | 143 | ||
144 | 144 | \cite{8495930}&Le modèle a été validé avec peu de données. Les recommandations se basent seulement sur l'information des autres apprenants.\\ | ||
\cite{8495930}&Le modèle a été validé avec peu de données. Les recommandations se basent seulement sur l'information des autres apprenants.\\ | 145 | 145 | ||
146 | 146 | \cite{Obeid}&L'ontologie peut être limitée pour évaluer plusieurs cas inconnus ou imprévus. Il est nécessaire d'avoir une forte connaissance du domaine.\\ | ||
\cite{Obeid}&L'ontologie peut être limitée pour évaluer plusieurs cas inconnus ou imprévus. Il est nécessaire d'avoir une forte connaissance du domaine.\\ | 147 | 147 | ||
148 | 148 | \cite{skittou2024recommender}&Les règles de décision établies sont fixes et avec l'hybridation il peut y avoir de l'incertitude et l'imprécision.\\ | ||
\cite{skittou2024recommender}&Les règles de décision établies sont fixes et avec l'hybridation il peut y avoir de l'incertitude et l'imprécision.\\ | 149 | 149 | ||
150 | 150 | \end{tabular} | ||
\end{tabular} | 151 | 151 | \caption{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC} | |
\caption{Tableau de synthèse des articles analysés dans l’état de l’art du RàPC} | 152 | 152 | \label{tabArts2} | |
\label{tabArts2} | 153 | 153 | \end{table} | |
\end{table} | 154 | 154 | ||
155 | 155 | %\begin{figure} | ||
%\begin{figure} | 156 | 156 | %\centering | |
%\centering | 157 | 157 | %\includegraphics[scale=0.4]{./Figures/ModCBR2.png} | |
%\includegraphics[scale=0.4]{./Figures/ModCBR2.png} | 158 | 158 | %\caption{Addition d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (\cite{10.1007/978-3-319-47096-2_11})} | |
%\caption{Addition d'un cycle complémentaire avec \textit{Deep Learning} au RàPC (\cite{10.1007/978-3-319-47096-2_11})} | 159 | 159 | %\label{figMCBR2} | |
%\label{figMCBR2} | 160 | 160 | %\end{figure} | |
%\end{figure} | 161 | |||
162 | ||||
chapters/Conclusions.aux
View file @
4b1afa3
\relax | 1 | 1 | \relax | |
\providecommand\hyper@newdestlabel[2]{} | 2 | 2 | \providecommand\hyper@newdestlabel[2]{} | |
\@writefile{toc}{\contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{103}{chapter.8}\protected@file@percent } | 3 | 3 | \@writefile{toc}{\contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{103}{chapter.8}\protected@file@percent } | |
\@writefile{lof}{\addvspace {10\p@ }} | 4 | 4 | \@writefile{lof}{\addvspace {10\p@ }} | |
\@writefile{lot}{\addvspace {10\p@ }} | 5 | 5 | \@writefile{lot}{\addvspace {10\p@ }} | |
\@writefile{toc}{\contentsline {section}{\numberline {8.1}Conclusion générale}{103}{section.8.1}\protected@file@percent } | 6 | 6 | \@writefile{toc}{\contentsline {section}{\numberline {8.1}Conclusion générale}{103}{section.8.1}\protected@file@percent } | |
\citation{CHEN2025104070} | 7 | 7 | \citation{CHEN2025104070} | |
\citation{busch2023teaching} | 8 | 8 | \citation{busch2023teaching} | |
\@writefile{toc}{\contentsline {section}{\numberline {8.2}Perspectives}{105}{section.8.2}\protected@file@percent } | 9 | 9 | \@writefile{toc}{\contentsline {section}{\numberline {8.2}Perspectives}{105}{section.8.2}\protected@file@percent } | |
\@setckpt{./chapters/Conclusions}{ | 10 | 10 | \@setckpt{./chapters/Conclusions}{ | |
\setcounter{page}{106} | 11 | 11 | \setcounter{page}{106} | |
\setcounter{equation}{0} | 12 | 12 | \setcounter{equation}{0} | |
\setcounter{enumi}{0} | 13 | 13 | \setcounter{enumi}{0} | |
\setcounter{enumii}{0} | 14 | 14 | \setcounter{enumii}{0} | |
\setcounter{enumiii}{0} | 15 | 15 | \setcounter{enumiii}{0} | |
\setcounter{enumiv}{0} | 16 | 16 | \setcounter{enumiv}{0} | |
\setcounter{footnote}{0} | 17 | 17 | \setcounter{footnote}{0} | |
\setcounter{mpfootnote}{0} | 18 | 18 | \setcounter{mpfootnote}{0} | |
\setcounter{part}{3} | 19 | 19 | \setcounter{part}{3} | |
\setcounter{chapter}{8} | 20 | 20 | \setcounter{chapter}{8} | |
\setcounter{section}{2} | 21 | 21 | \setcounter{section}{2} | |
\setcounter{subsection}{0} | 22 | 22 | \setcounter{subsection}{0} | |
\setcounter{subsubsection}{0} | 23 | 23 | \setcounter{subsubsection}{0} | |
\setcounter{paragraph}{0} | 24 | 24 | \setcounter{paragraph}{0} | |
\setcounter{subparagraph}{0} | 25 | 25 | \setcounter{subparagraph}{0} | |
\setcounter{figure}{0} | 26 | 26 | \setcounter{figure}{0} | |
\setcounter{table}{0} | 27 | 27 | \setcounter{table}{0} | |
\setcounter{caption@flags}{2} | 28 | 28 | \setcounter{caption@flags}{2} | |
\setcounter{continuedfloat}{0} | 29 | 29 | \setcounter{continuedfloat}{0} | |
\setcounter{subfigure}{0} | 30 | 30 | \setcounter{subfigure}{0} | |
\setcounter{subtable}{0} | 31 | 31 | \setcounter{subtable}{0} | |
\setcounter{parentequation}{0} | 32 | 32 | \setcounter{parentequation}{0} | |
\setcounter{thmt@dummyctr}{0} | 33 | 33 | \setcounter{thmt@dummyctr}{0} | |
\setcounter{vrcnt}{0} | 34 | 34 | \setcounter{vrcnt}{0} | |
\setcounter{upm@subfigure@count}{0} | 35 | 35 | \setcounter{upm@subfigure@count}{0} | |
\setcounter{upm@fmt@mtabular@columnnumber}{0} | 36 | 36 | \setcounter{upm@fmt@mtabular@columnnumber}{0} | |
\setcounter{upm@format@section@sectionlevel}{1} | 37 | 37 | \setcounter{upm@format@section@sectionlevel}{1} | |
\setcounter{upm@fmt@savedcounter}{0} | 38 | 38 | \setcounter{upm@fmt@savedcounter}{0} | |
\setcounter{@@upm@fmt@inlineenumeration}{0} | 39 | 39 | \setcounter{@@upm@fmt@inlineenumeration}{0} | |
\setcounter{@upm@fmt@enumdescription@cnt@}{0} | 40 | 40 | \setcounter{@upm@fmt@enumdescription@cnt@}{0} | |
\setcounter{upmdefinition}{0} | 41 | 41 | \setcounter{upmdefinition}{0} | |
\setcounter{section@level}{1} | 42 | 42 | \setcounter{section@level}{1} | |
\setcounter{Item}{0} | 43 | 43 | \setcounter{Item}{0} | |
\setcounter{Hfootnote}{0} | 44 | 44 | \setcounter{Hfootnote}{0} | |
\setcounter{bookmark@seq@number}{92} | 45 | 45 | \setcounter{bookmark@seq@number}{90} | |
\setcounter{DefaultLines}{2} | 46 | 46 | \setcounter{DefaultLines}{2} | |
\setcounter{DefaultDepth}{0} | 47 | 47 | \setcounter{DefaultDepth}{0} | |
\setcounter{L@lines}{3} | 48 | 48 | \setcounter{L@lines}{3} | |
\setcounter{L@depth}{0} | 49 | 49 | \setcounter{L@depth}{0} | |
\setcounter{float@type}{8} | 50 | 50 | \setcounter{float@type}{8} | |
\setcounter{algorithm}{1} | 51 | 51 | \setcounter{algorithm}{1} | |
\setcounter{ALG@line}{8} | 52 | 52 | \setcounter{ALG@line}{8} | |
\setcounter{ALG@rem}{8} | 53 | 53 | \setcounter{ALG@rem}{8} | |
\setcounter{ALG@nested}{0} | 54 | 54 | \setcounter{ALG@nested}{0} | |
\setcounter{ALG@Lnr}{2} | 55 | 55 | \setcounter{ALG@Lnr}{2} | |
\setcounter{ALG@blocknr}{10} | 56 | 56 | \setcounter{ALG@blocknr}{10} | |
\setcounter{ALG@storecount}{0} | 57 | 57 | \setcounter{ALG@storecount}{0} | |
\setcounter{ALG@tmpcounter}{0} | 58 | 58 | \setcounter{ALG@tmpcounter}{0} | |
} | 59 | 59 | } | |
60 | 60 |
chapters/EIAH.tex
View file @
4b1afa3
\chapter{Environnements Informatiques d'Apprentissage Humain} | 1 | 1 | \chapter{Environnements Informatiques d'Apprentissage Humain} | |
\chaptermark{CHAPITRE 3. \'ETAT DE L'ART (EIAH)} | 2 | 2 | \chaptermark{CHAPITRE 3. \'ETAT DE L'ART (EIAH)} | |
3 | 3 | |||
Ce chapitre présente les travaux sur les EIAH en lien avec le travail de cette thèse. Les EIAH référencés dans cet état de l'art sont classés selon le thème principal abordé. | 4 | 4 | Ce chapitre présente les travaux sur les EIAH en lien avec le travail de cette thèse. Les EIAH référencés dans cet état de l'art sont classés selon le thème principal abordé. | |
5 | 5 | |||
\section{L'Intelligence Artificielle} | 6 | 6 | \section{L'Intelligence Artificielle} | |
7 | 7 | |||
L'intelligence artificielle a été appliquée avec succès au domaine de l'éducation dans plusieurs écoles de différents pays et pour l'apprentissage de l'informatique, des langues étrangères et des sciences. \cite{ZHANG2021100025} référence un grand nombre de travaux sur la période de 1993-2020. Cet article montre que les besoins et contraintes des EIAH ne sont pas différentes selon l'age, le niveau culturel, ou le niveau éducatif des apprenants. Cet article montre également qu'il est possible d'adapter une stratégie d'apprentissage quelque soit l'apprenant et de maximiser le rendement et l'acquisition des connaissances grâce à différentes techniques d'intelligence artificielle. | 8 | 8 | L'intelligence artificielle a été appliquée avec succès au domaine de l'éducation dans plusieurs écoles de différents pays et pour l'apprentissage de l'informatique, des langues étrangères et des sciences. \cite{ZHANG2021100025} référence un grand nombre de travaux sur la période de 1993-2020. Cet article montre que les besoins et contraintes des EIAH ne sont pas différentes selon l'age, le niveau culturel, ou le niveau éducatif des apprenants. Cet article montre également qu'il est possible d'adapter une stratégie d'apprentissage quelque soit l'apprenant et de maximiser le rendement et l'acquisition des connaissances grâce à différentes techniques d'intelligence artificielle. | |
9 | 9 | |||
\cite{CHIU2023100118} présente une révision des travaux d'intelligence artificielle appliquée à l'éducation extraits des bases de données bibliographiques ERIC, WOS et Scopus sur la période 2012-2021. Ce travail est focalisé sur les tendances et les outils employés pour aider le processus d'apprentissage. Une classification des contributions de l'IA est faite, fondée sur 92 travaux scientifiques. Les contributions et l'utilité des outils d'IA implémentés dans les EIAH évalués dans cet article sont évaluées sur les quatre domaines suivants : l'apprentissage, l'enseignement, l'évaluation et l'administration. | 10 | 10 | \cite{CHIU2023100118} présente une révision des travaux d'intelligence artificielle appliquée à l'éducation extraits des bases de données bibliographiques ERIC, WOS et Scopus sur la période 2012-2021. Ce travail est focalisé sur les tendances et les outils employés pour aider le processus d'apprentissage. Une classification des contributions de l'IA est faite, fondée sur 92 travaux scientifiques. Les contributions et l'utilité des outils d'IA implémentés dans les EIAH évalués dans cet article sont évaluées sur les quatre domaines suivants : l'apprentissage, l'enseignement, l'évaluation et l'administration. | |
Pour l'apprentissage, l'IA est généralement utilisée pour attribuer des tâches en fonction des compétences individuelles, fournir des conversations homme-machine, analyser le travail des étudiants pour obtenir des commentaires et accroître l'adaptabilité et l'interactivité dans les environnements numériques. | 11 | 11 | Pour l'apprentissage, l'IA est généralement utilisée pour attribuer des tâches en fonction des compétences individuelles, fournir des conversations homme-machine, analyser le travail des étudiants pour obtenir des commentaires et accroître l'adaptabilité et l'interactivité dans les environnements numériques. | |
Pour l'enseignement, des stratégies d'enseignement adaptatives peuvent être appliquées pour améliorer la capacité des enseignants à enseigner et soutenir le développement professionnel des enseignants. | 12 | 12 | Pour l'enseignement, des stratégies d'enseignement adaptatives peuvent être appliquées pour améliorer la capacité des enseignants à enseigner et soutenir le développement professionnel des enseignants. | |
Dans le domaine de l'évaluation, l'IA peut fournir une notation automatique et prédire les performances des élèves. | 13 | 13 | Dans le domaine de l'évaluation, l'IA peut fournir une notation automatique et prédire les performances des élèves. | |
Enfin, dans le domaine de l'administration, l'IA contribue à améliorer la performance des plateformes de gestion, à soutenir la prise de décision pédagogique et à fournir des services personnalisés. | 14 | 14 | Enfin, dans le domaine de l'administration, l'IA contribue à améliorer la performance des plateformes de gestion, à soutenir la prise de décision pédagogique et à fournir des services personnalisés. | |
Cet article met également en lumière les lacunes suivantes de l'IA : | 15 | 15 | Cet article met également en lumière les lacunes suivantes de l'IA : | |
\begin{itemize} | 16 | 16 | \begin{itemize} | |
\item Les ressources recommandées par les plateformes d'apprentissage personnalisées sont trop homogènes, | 17 | 17 | \item Les ressources recommandées par les plateformes d'apprentissage personnalisées sont trop homogènes, | |
\item les données nécessaires pour les modèles d'IA sont très spécifiques, | 18 | 18 | \item les données nécessaires pour les modèles d'IA sont très spécifiques, | |
\item le lien entre les technologies et l'enseignement n'est pas bien clair. En effet, la plupart des travaux sont conçus pour un domaine ou un objectif très spécifique difficilement généralisable, | 19 | 19 | \item le lien entre les technologies et l'enseignement n'est pas bien clair. En effet, la plupart des travaux sont conçus pour un domaine ou un objectif très spécifique difficilement généralisable, | |
\item l'inégalité éducative, car les technologies ne suscitent pas la motivation chez tous les élèves. De plus, l'intelligence artificielle peut parfois engendrer des attitudes négatives et s'avérer difficile à maîtriser et à intégrer efficacement dans les cours. | 20 | 20 | \item l'inégalité éducative, car les technologies ne suscitent pas la motivation chez tous les élèves. De plus, l'intelligence artificielle peut parfois engendrer des attitudes négatives et s'avérer difficile à maîtriser et à intégrer efficacement dans les cours. | |
%\textcolor{red}{revoir cette phrase}. | 21 | 21 | %\textcolor{red}{revoir cette phrase}. | |
\end{itemize} | 22 | 22 | \end{itemize} | |
23 | 23 | |||
Les techniques d'IA peuvent aussi aider à prendre des décisions stratégiques visant des objectifs à longue échéance comme le montre le travail de \cite{Robertson2014ARO}. Les jeux de stratégie présentent en effet plusieurs particularités singulières. Ils continent plusieurs règles et des environnements contraints. Ils nécessitent de mettre en œuvre des actions et réactions en temps réel. Ils intègrent des aléas et des informations cachées. Les techniques principales identifiées et implémentées dans ces jeux de stratégie sont l'apprentissage par renforcement, les modèles bayésiens, la recherche d'information dans une structure de type arbre, le raisonnement à partir de cas, les réseaux de neurones et les algorithmes évolutifs. Il est également important de noter que la combinaison de ces techniques permet dans certains cas d'améliorer le comportement global des algorithmes et d'obtenir de meilleures réponses. | 24 | 24 | Les techniques d'IA peuvent aussi aider à prendre des décisions stratégiques visant des objectifs à longue échéance comme le montre le travail de \cite{Robertson2014ARO}. Les jeux de stratégie présentent en effet plusieurs particularités singulières. Ils continent plusieurs règles et des environnements contraints. Ils nécessitent de mettre en œuvre des actions et réactions en temps réel. Ils intègrent des aléas et des informations cachées. Les techniques principales identifiées et implémentées dans ces jeux de stratégie sont l'apprentissage par renforcement, les modèles bayésiens, la recherche d'information dans une structure de type arbre, le raisonnement à partir de cas, les réseaux de neurones et les algorithmes évolutifs. Il est également important de noter que la combinaison de ces techniques permet dans certains cas d'améliorer le comportement global des algorithmes et d'obtenir de meilleures réponses. | |
25 | 25 | |||
\section{Systèmes de recommandation dans les EIAH} | 26 | 26 | \section{Systèmes de recommandation dans les EIAH} | |
27 | 27 | |||
Des systèmes de recommandation sont régulièrement intégrés aux EIAH. | 28 | 28 | Des systèmes de recommandation sont régulièrement intégrés aux EIAH. | |
Ils permettent en effet de tenir compte des exigences, des besoins, du profil, des compétences, des intérêts et de l'évolution de l'apprenant pour s'adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise de concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types \cite{MUANGPRATHUB2020e05227} : | 29 | 29 | Ils permettent en effet de tenir compte des exigences, des besoins, du profil, des compétences, des intérêts et de l'évolution de l'apprenant pour s'adapter et recommander des ressources ou des exercices dans le but d'améliorer l'acquisition et la maîtrise de concepts et des connaissances en général. L'adaptation de ces systèmes peut être de deux types \cite{MUANGPRATHUB2020e05227} : | |
\begin{itemize} | 30 | 30 | \begin{itemize} | |
\item l'adaptation de la présentation qui montre aux apprenants les ressources en concordance avec leurs faiblesses et | 31 | 31 | \item l'adaptation de la présentation qui montre aux apprenants les ressources en concordance avec leurs faiblesses et | |
\item l'adaptation du parcours qui change la structure du cours en fonction du niveau et style d'apprentissage de chaque apprenant. | 32 | 32 | \item l'adaptation du parcours qui change la structure du cours en fonction du niveau et style d'apprentissage de chaque apprenant. | |
\end{itemize} | 33 | 33 | \end{itemize} | |
Ces systèmes montrent des effets positifs pour les apprenants comme le révèle le travail de \cite{HUANG2023104684} qui utilise l'IA pour personnaliser des recommandations de ressources vidéo et ainsi aider et motiver les apprenants. L'évolution des résultats entre les tests préliminaires et ceux réalisés après la finalisation du cours des groupes ayant suivi les cours avec et sans système de recommandation démontre cet effet positif. La figure \ref{figArch} montre l'architecture du système qui utilise l'intelligence artificielle dans différentes étapes du processus avec les données de l'apprenant sous la supervision et contrôle de l'enseignant. | 34 | 34 | Ces systèmes montrent des effets positifs pour les apprenants comme le révèle le travail de \cite{HUANG2023104684} qui utilise l'IA pour personnaliser des recommandations de ressources vidéo et ainsi aider et motiver les apprenants. L'évolution des résultats entre les tests préliminaires et ceux réalisés après la finalisation du cours des groupes ayant suivi les cours avec et sans système de recommandation démontre cet effet positif. La figure \ref{figArch} montre l'architecture du système qui utilise l'intelligence artificielle dans différentes étapes du processus avec les données de l'apprenant sous la supervision et contrôle de l'enseignant. | |
35 | 35 | |||
\begin{figure} | 36 | 36 | \begin{figure} | |
\centering | 37 | 37 | \centering | |
\includegraphics[width=\textwidth]{./Figures/architecture.png} | 38 | 38 | \includegraphics[width=\textwidth]{./Figures/architecture.png} | |
\caption{Traduction de l'architecture du système de recommandation proposé dans \cite{HUANG2023104684}} | 39 | 39 | \caption{Traduction de l'architecture du système de recommandation proposé dans \cite{HUANG2023104684}} | |
\label{figArch} | 40 | 40 | \label{figArch} | |
\end{figure} | 41 | 41 | \end{figure} | |
42 | 42 | |||
Le travail de \cite{pmlr-v108-seznec20a} propose un modèle générique de recommandation qui peut être utilisé dans les systèmes de recommandation de produits ou les systèmes d'apprentissage. Ce modèle est fondé sur l'algorithme par renforcement UCB (\textit{Upper Confidence Bound}) qui permet de trouver une solution approchée à une variante du problème \textit{Bandit manchot} non stationnaire (MAB, présenté dans le chapitre 7 de ce manuscrit), où les récompenses de chaque action diminuent progressivement après chaque utilisation. Pour valider le modèle, une comparaison avec trois autres algorithmes a été menée en considérant une base de données réelle. La performance du système a été démontrée en se fondant sur la moyenne accumulée du regret et la moyenne de la récompense accumulée. | 43 | 43 | Le travail de \cite{pmlr-v108-seznec20a} propose un modèle générique de recommandation qui peut être utilisé dans les systèmes de recommandation de produits ou les systèmes d'apprentissage. Ce modèle est fondé sur l'algorithme par renforcement UCB (\textit{Upper Confidence Bound}) qui permet de trouver une solution approchée à une variante du problème \textit{Bandit manchot} non stationnaire (MAB, présenté dans le chapitre \ref{chap:contexte} de ce manuscrit), où les récompenses de chaque action diminuent progressivement après chaque utilisation. Pour valider le modèle, une comparaison avec trois autres algorithmes a été menée en considérant une base de données réelle. La performance du système a été démontrée en se fondant sur la moyenne accumulée du regret et la moyenne de la récompense accumulée. | |
44 | 44 | |||
Aussi, \cite{INGKAVARA2022100086} met en évidence que les technologies et les systèmes de recommandation peuvent s'adapter à différents besoins et aspirations et qu'ils peuvent également favoriser l'apprentissage auto-régulé. Ce type d'apprentissage aide les apprenants à acquérir les compétences pour diminuer les délais de réponse et devenir plus performants. Ce type d'apprentissage permet de définir des objectifs variables dans un environnement structuré, et également d'adapter le temps nécessaire à l'acquisition et la maîtrise de connaissances et de compétences. De plus, avec les systèmes de recommandation est possible d'avoir accès à des ressources et ainsi constituer un excellent outil pour le renforcement des connaissances acquises. | 45 | 45 | Aussi, \cite{INGKAVARA2022100086} met en évidence que les technologies et les systèmes de recommandation peuvent s'adapter à différents besoins et aspirations et qu'ils peuvent également favoriser l'apprentissage auto-régulé. Ce type d'apprentissage aide les apprenants à acquérir les compétences pour diminuer les délais de réponse et devenir plus performants. Ce type d'apprentissage permet de définir des objectifs variables dans un environnement structuré, et également d'adapter le temps nécessaire à l'acquisition et la maîtrise de connaissances et de compétences. De plus, avec les systèmes de recommandation, il est possible d'avoir accès à des ressources et ainsi de construire un excellent outil pour le renforcement des connaissances acquises. | |
46 | 46 | |||
Dans le travail de \cite{LALITHA2020583}, l'IA est utilisée pour l'apprentissage adaptatif afin de suggérer des ressources d'étude. Le système proposé par ces auteurs intègre un module de personnalisation qui collecte l'information de l'apprenant et ses exigences, un module de classification qui compare l'information avec d'autres profils en utilisant l'algorithme KNN et un module de recommandation chargé d'identifier les ressources communes entre les profils afin d'en extraire des informations complémentaires provenant d'Internet. Ce système inclut également un algorithme \textit{Random Forest} pour améliorer le processus d'apprentissage du nouvel apprenant. Les techniques et les stratégies sont très variées mais l'objectif est de s'adapter aux apprenants et à leurs besoins. Dans \cite{ZHAO2023118535} les données des apprenants sont collectées et classées dans des groupes présentant des caractéristiques similaires. Ensuite, la méthode d'analyse par enveloppement des données (DEA) permet d'identifier les besoins spécifiques de chaque groupe et ainsi proposer un parcours d'apprentissage personnalisé. | 47 | 47 | Dans le travail de \cite{LALITHA2020583}, l'IA est utilisée pour l'apprentissage adaptatif afin de suggérer des ressources d'étude. Le système proposé par ces auteurs intègre un module de personnalisation qui collecte l'information de l'apprenant et ses exigences, un module de classification qui compare l'information avec d'autres profils en utilisant l'algorithme KNN et un module de recommandation chargé d'identifier les ressources communes entre les profils afin d'en extraire des informations complémentaires provenant d'Internet. Ce système inclut également un algorithme \textit{Random Forest} pour améliorer le processus d'apprentissage du nouvel apprenant. Les techniques et les stratégies sont très variées mais l'objectif est de s'adapter aux apprenants et à leurs besoins. Dans \cite{ZHAO2023118535} les données des apprenants sont collectées et classées dans des groupes présentant des caractéristiques similaires. Ensuite, la méthode d'analyse par enveloppement des données (DEA) permet d'identifier les besoins spécifiques de chaque groupe et ainsi proposer un parcours d'apprentissage personnalisé. | |
48 | 48 | |||
La représentation des données des enseignants, des apprenants et l'environnement sont des aspects particulièrement importants à considérer dans l'implémentation de ces systèmes de recommandation. Ces aspects influencent en effet les performances globales des EIAH dans lesquels ils sont intégrés. La proposition de \cite{SU2022109547} consiste à stocker les données des apprenants dans deux graphes évolutifs qui contiennent les relations entre les questions et les réponses correctes ainsi que les réponses données par les apprenants. Ces informations et relations permettent de construire un graphe global propre à chaque apprenant en donnant une information sur son état cognitif et ainsi de personnaliser son parcours. Dans \cite{MUANGPRATHUB2020e05227} les auteurs définissent dans leur EIAH trois ensembles de concepts : | 49 | 49 | La représentation des données des enseignants, des apprenants et l'environnement sont des aspects particulièrement importants à considérer dans l'implémentation de ces systèmes de recommandation. Ces aspects influencent en effet les performances globales des EIAH dans lesquels ils sont intégrés. La proposition de \cite{SU2022109547} consiste à stocker les données des apprenants dans deux graphes évolutifs qui contiennent les relations entre les questions et les réponses correctes ainsi que les réponses données par les apprenants. Ces informations et relations permettent de construire un graphe global propre à chaque apprenant en donnant une information sur son état cognitif et ainsi de personnaliser son parcours. Dans \cite{MUANGPRATHUB2020e05227} les auteurs définissent dans leur EIAH trois ensembles de concepts : | |
\begin{itemize} | 50 | 50 | \begin{itemize} | |
\item les objets (G), | 51 | 51 | \item les objets (G), | |
\item les attributs (M) et | 52 | 52 | \item les attributs (M) et | |
\item les relations entre G et M. | 53 | 53 | \item les relations entre G et M. | |
\end{itemize} | 54 | 54 | \end{itemize} | |
55 | 55 | |||
L'originalité de ce travail consiste à analyser ces concepts en suivant l'approche du FCA (\textit{Formal Context Analysis}). Ce type de représentation permet de mettre en relation les ressources d'étude, les questions et les sujets. En conséquence, si un apprenant étudie un sujet $S_1$ et si une règle relie $S_1$ au sujet $S_4$ ou la question $Q_{3,4}$, alors le système peut suggérer l'étude des ressources d'étude associées au sujet $S_4$ ou aux questions associées par les règles. Par ailleurs, cet algorithme se fonde sur une structure du cours prédéfinie pour recommander un parcours exhaustif d'apprentissage. | 56 | 56 | L'originalité de ce travail consiste à analyser ces concepts en suivant l'approche du FCA (\textit{Formal Context Analysis}). Ce type de représentation permet de mettre en relation les ressources d'étude, les questions et les sujets. En conséquence, si un apprenant étudie un sujet $S_1$ et si une règle relie $S_1$ au sujet $S_4$ ou la question $Q_{3,4}$, alors le système peut suggérer l'étude des ressources d'étude associées au sujet $S_4$ ou aux questions associées par les règles. Par ailleurs, cet algorithme se fonde sur une structure du cours prédéfinie pour recommander un parcours exhaustif d'apprentissage. | |
57 | 57 | |||
\cite{Zhou2021} propose un système de recommandation pour personnaliser des exercices pour l'apprentissage de l'anglais. Le système décrit contient un module principal qui représente les apprenants comme des vecteurs selon le modèle DINA où sont stockés les points des connaissances acquises. Le vecteur de connaissances $K$ est de dimension $n$ ($K=\{k_1, k_2, ..., k_n\}$) où chaque dimension correspond à un point de connaissance. Ainsi, $k_i=1$ signifie que l'apprenant maîtrise le point de connaissance $k_i$. A contrario, $k_i=0$ signifie que l'apprenant doit étudier le point de connaissance $k_i$ car car non acquise. La recommandation des questions proposées par le système se sert par ailleurs d'une librairie de ressources associées à chacune des questions possibles et permettant à l'apprenant de renforcer son apprentissage et d'avancer dans le programme du cours. | 58 | 58 | \cite{Zhou2021} propose un système de recommandation pour personnaliser des exercices pour l'apprentissage de l'anglais. Le système décrit contient un module principal qui représente les apprenants comme des vecteurs selon le modèle DINA où sont stockés les points des connaissances acquises. Le vecteur de connaissances $K$ est de dimension $n$ ($K=\{k_1, k_2, ..., k_n\}$) où chaque dimension correspond à un point de connaissance. Ainsi, $k_i=1$ signifie que l'apprenant maîtrise le point de connaissance $k_i$. A contrario, $k_i=0$ signifie que l'apprenant doit étudier le point de connaissance $k_i$ car car non acquise. La recommandation des questions proposées par le système se sert par ailleurs d'une librairie de ressources associées à chacune des questions possibles et permettant à l'apprenant de renforcer son apprentissage et d'avancer dans le programme du cours. | |
59 | 59 | |||
Certains travaux de recommandation et de personnalisation considèrent des variables complémentaires aux notes. C'est le cas de l'EIAH proposé par \cite{EZALDEEN2022100700}, qui lie l'analyse du comportement de l'apprenant à une analyse sémantique de son propre profil. La première étape consiste à collecter les données nécessaires pour créer un profil de l'apprenant. Fort de ce profil complet, des associations sont faites entre l'apprenant et un groupe de catégories d'apprentissages prédéfinies. Les apprentissages sont regroupés selon ses préférences et les données historiques. Puis les concepts associés pour les catégories sont recherchés et permettent ainsi de générer un guide pour obtenir des ressources internet qu'il est possible de recommander. Le système est divisé en quatre niveaux représentés sur la figure \figref{figLevels} où chacun des niveaux est chargé d'une tâche spécifique. Les résultats d'un niveau sont envoyés au niveau suivant jusqu'à proposer des recommandations personnalisées pour l'apprenant. | 60 | 60 | Certains travaux de recommandation et de personnalisation considèrent des variables complémentaires aux notes. C'est le cas de l'EIAH proposé par \cite{EZALDEEN2022100700}, qui lie l'analyse du comportement de l'apprenant à une analyse sémantique de son propre profil. La première étape consiste à collecter les données nécessaires pour créer un profil de l'apprenant. Fort de ce profil complet, des associations sont faites entre l'apprenant et un groupe de catégories d'apprentissages prédéfinies. Les apprentissages sont regroupés selon ses préférences et les données historiques. Puis les concepts associés pour les catégories sont recherchés et permettent ainsi de générer un guide pour obtenir des ressources internet qu'il est possible de recommander. Le système est divisé en quatre niveaux représentés sur la figure \figref{figLevels} où chacun des niveaux est chargé d'une tâche spécifique. Les résultats d'un niveau sont envoyés au niveau suivant jusqu'à proposer des recommandations personnalisées pour l'apprenant. | |
61 | 61 | |||
\mfigure[!ht]{width=\textwidth}{./Figures/ELearningLevels.png}{Traduction des niveaux du système de recommandation dans \cite{EZALDEEN2022100700}}{figLevels} | 62 | 62 | \mfigure[!ht]{width=\textwidth}{./Figures/ELearningLevels.png}{Traduction des niveaux du système de recommandation dans \cite{EZALDEEN2022100700}}{figLevels} | |
63 | 63 | |||
%\begin{figure}[!ht] | 64 | 64 | %\begin{figure}[!ht] | |
%\centering | 65 | 65 | %\centering | |
%\includegraphics[scale=0.5]{./Figures/ELearningLevels.png} | 66 | 66 | %\includegraphics[scale=0.5]{./Figures/ELearningLevels.png} | |
%\caption{Niveaux du système de recommandation dans le travail \cite{EZALDEEN2022100700}} | 67 | 67 | %\caption{Niveaux du système de recommandation dans le travail \cite{EZALDEEN2022100700}} | |
%\label{figLevels} | 68 | 68 | %\label{figLevels} | |
%\end{figure} | 69 | 69 | %\end{figure} | |
70 | 70 | |||
Le tableau \ref{tabArts} présente un récapitulatif des articles analysés dans l'état de l'art des EIAH. Les articles apparaissent dans l'ordre de citation dans le chapitre. Les limites décrites correspondent au temps de calcul, quantité de données d'entraînement, complexité de définitions ou des règles et la quantité de variables subjectives. | 71 | 71 | Le tableau \ref{tabArts} présente un récapitulatif des articles analysés dans l'état de l'art des EIAH. Les articles apparaissent dans l'ordre de citation dans le chapitre. Les limites décrites correspondent au temps de calcul, quantité de données d'entraînement, complexité de définitions ou des règles et la quantité de variables subjectives. | |
72 | 72 | |||
Une limitation générale que présentent les algorithmes d'IA dans les EIAH est que ce type d'algorithmes ne permet pas d'oublier l'information avec laquelle ils ont été entraînés. Cette propriété est parfois nécessaire pour les EIAH quand un dysfonctionnement du système se produit, pour la réévaluation d'un apprenant ou la restructuration d'un cours. Par ailleurs, les représentations et algorithmes peuvent changer et évoluer. Aujourd'hui il existe encore beaucoup de potentiel pour développer les capacités de calcul et d'adaptation. | 73 | 73 | Une limitation générale que présentent les algorithmes d'IA dans les EIAH est que ce type d'algorithmes ne permet pas d'oublier l'information avec laquelle ils ont été entraînés. Cette propriété est parfois nécessaire pour les EIAH quand un dysfonctionnement du système se produit, pour la réévaluation d'un apprenant ou la restructuration d'un cours. Par ailleurs, les représentations et algorithmes peuvent changer et évoluer. Aujourd'hui il existe encore beaucoup de potentiel pour développer les capacités de calcul et d'adaptation. | |
74 | 74 | |||
\begin{table} | 75 | 75 | \begin{table} | |
\footnotesize | 76 | 76 | \footnotesize | |
\begin{tabular}{p{4.2cm}p{10cm}} | 77 | 77 | \begin{tabular}{p{4.2cm}p{10cm}} | |
Référence&Limites\\ | 78 | 78 | Référence&Limites\\ | |
\hline | 79 | 79 | \hline | |
\cite{ZHANG2021100025}&Niveau global d'application de EIAH. Analyse des effets de l'IA\\ | 80 | 80 | \cite{ZHANG2021100025}&Niveau global d'application de EIAH. Analyse des effets de l'IA\\ | |
\cite{CHIU2023100118}&Aspects non cognitifs en IA. Motivation des apprenants\\ | 81 | 81 | \cite{CHIU2023100118}&Aspects non cognitifs en IA. Motivation des apprenants\\ | |
\cite{Robertson2014ARO}&Peu de test. Pas de standard d'évaluation\\ | 82 | 82 | \cite{Robertson2014ARO}&Peu de test. Pas de standard d'évaluation\\ | |
\cite{HUANG2023104684}&Recommandation en fonction de la motivation seulement. N'est pas général pour tous les apprenants\\ | 83 | 83 | \cite{HUANG2023104684}&Recommandation en fonction de la motivation seulement. N'est pas général pour tous les apprenants\\ | |
\cite{pmlr-v108-seznec20a}&Le modèle n'a pas été testé avec données d'étudiants. UCB prend beaucoup de temps pour explorer les alternatives\\ | 84 | 84 | \cite{pmlr-v108-seznec20a}&Le modèle n'a pas été testé avec données d'étudiants. UCB prend beaucoup de temps pour explorer les alternatives\\ | |
\cite{INGKAVARA2022100086}&Modèle très complexe. Définition de constantes subjectif et beaucoup de variables.\\ | 85 | 85 | \cite{INGKAVARA2022100086}&Modèle très complexe. Définition de constantes subjectif et beaucoup de variables.\\ | |
\cite{LALITHA2020583}&A besoin de beaucoup de données pour entraînement. Ne marche pas dans le cas 'cold-start', n'est pas totalement automatisé\\ | 86 | 86 | \cite{LALITHA2020583}&A besoin de beaucoup de données pour entraînement. Ne marche pas dans le cas '\textit{cold-start}', n'est pas totalement automatisé\\ | |
\cite{SU2022109547}&Estimation de la connaissance de façon subjective. Une étape d'entraînement est nécessaire\\ | 87 | 87 | \cite{SU2022109547}&Estimation de la connaissance de façon subjective. Une étape d'entraînement est nécessaire\\ | |
\cite{MUANGPRATHUB2020e05227}&Structure des règles complexe. Définition de la connaissance de base complexe\\ | 88 | 88 | \cite{MUANGPRATHUB2020e05227}&Structure des règles complexe. Définition de la connaissance de base complexe\\ | |
\cite{Zhou2021}&Utilisation d'un filtre collaboratif sans stratification. Utilisation d'une seule métrique de distance\\ | 89 | 89 | \cite{Zhou2021}&Utilisation d'un filtre collaboratif sans stratification. Utilisation d'une seule métrique de distance\\ | |
\cite{EZALDEEN2022100700}&Il n'y a pas de comparaison avec d'autres modèles différents de CNN. Beaucoup de variables à valeurs subjectives\\ | 90 | 90 | \cite{EZALDEEN2022100700}&Il n'y a pas de comparaison avec d'autres modèles différents de CNN. Beaucoup de variables à valeurs subjectives\\ | |
91 | 91 | |||
\end{tabular} | 92 | 92 | \end{tabular} | |
\caption{Tableau de synthèse des articles analysés dans l'état de l'art des EIAH} | 93 | 93 | \caption{Tableau de synthèse des articles analysés dans l'état de l'art des EIAH} | |
\label{tabArts} | 94 | 94 | \label{tabArts} | |
\end{table} | 95 | 95 | \end{table} | |
96 | ||||
chapters/ESCBR.aux
View file @
4b1afa3
\relax | 1 | 1 | \relax | |
\providecommand\hyper@newdestlabel[2]{} | 2 | 2 | \providecommand\hyper@newdestlabel[2]{} | |
\citation{10.1007/978-3-031-63646-2_11} | 3 | 3 | \citation{10.1007/978-3-031-63646-2_11} | |
\citation{soto6} | 4 | 4 | \citation{soto6} | |
\citation{UCI} | 5 | 5 | \citation{UCI} | |
\@writefile{toc}{\contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}\protected@file@percent } | 6 | 6 | \@writefile{toc}{\contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}\protected@file@percent } | |
\@writefile{lof}{\addvspace {10\p@ }} | 7 | 7 | \@writefile{lof}{\addvspace {10\p@ }} | |
\@writefile{lot}{\addvspace {10\p@ }} | 8 | 8 | \@writefile{lot}{\addvspace {10\p@ }} | |
\newlabel{ChapESCBR}{{6}{51}{Le raisonnement à partir de cas (RàPC) pour la régression}{chapter.6}{}} | 9 | 9 | \newlabel{ChapESCBR}{{6}{51}{Le raisonnement à partir de cas (RàPC) pour la régression}{chapter.6}{}} | |
\@writefile{toc}{\contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}\protected@file@percent } | 10 | 10 | \@writefile{toc}{\contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}\protected@file@percent } | |
\citation{BAKUROV2021100913} | 11 | 11 | \citation{BAKUROV2021100913} | |
\citation{Liang} | 12 | 12 | \citation{Liang} | |
\citation{cmc.2023.033417} | 13 | 13 | \citation{cmc.2023.033417} | |
\citation{10.3389/fgene.2021.600040} | 14 | 14 | \citation{10.3389/fgene.2021.600040} | |
\citation{KAMALI2023110242} | 15 | 15 | \citation{KAMALI2023110242} | |
\citation{DIDDEN2023338} | 16 | 16 | \citation{DIDDEN2023338} | |
\citation{HIPOLITO2023103510} | 17 | 17 | \citation{HIPOLITO2023103510} | |
\citation{ZHANG2023110564} | 18 | 18 | \citation{ZHANG2023110564} | |
\@writefile{toc}{\contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}\protected@file@percent } | 19 | 19 | \@writefile{toc}{\contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.1}Algorithme Proposé}{53}{subsection.6.2.1}\protected@file@percent } | 20 | 20 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.1}Algorithme Proposé}{53}{subsection.6.2.1}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.1}{\ignorespaces Les deux cycles proposés pour le RàPC\relax }}{53}{figure.caption.22}\protected@file@percent } | 21 | 21 | \@writefile{lof}{\contentsline {figure}{\numberline {6.1}{\ignorespaces Les deux cycles proposés pour le RàPC\relax }}{53}{figure.caption.22}\protected@file@percent } | |
\newlabel{figNCBR1}{{6.1}{53}{Les deux cycles proposés pour le RàPC\relax }{figure.caption.22}{}} | 22 | 22 | \newlabel{figNCBR1}{{6.1}{53}{Les deux cycles proposés pour le RàPC\relax }{figure.caption.22}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.2}{\ignorespaces Flux du \textit {Stacking} RàPC\relax }}{54}{figure.caption.23}\protected@file@percent } | 23 | 23 | \@writefile{lof}{\contentsline {figure}{\numberline {6.2}{\ignorespaces Flux du \textit {Stacking} RàPC\relax }}{54}{figure.caption.23}\protected@file@percent } | |
\newlabel{figFlowCBR0}{{6.2}{54}{Flux du \textit {Stacking} RàPC\relax }{figure.caption.23}{}} | 24 | 24 | \newlabel{figFlowCBR0}{{6.2}{54}{Flux du \textit {Stacking} RàPC\relax }{figure.caption.23}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}\protected@file@percent } | 25 | 25 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}\protected@file@percent } | |
\@writefile{lot}{\contentsline {table}{\numberline {6.1}{\ignorespaces Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)\relax }}{55}{table.caption.24}\protected@file@percent } | 26 | 26 | \@writefile{lot}{\contentsline {table}{\numberline {6.1}{\ignorespaces Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)\relax }}{55}{table.caption.24}\protected@file@percent } | |
\newlabel{tabVarPar}{{6.1}{55}{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.24}{}} | 27 | 27 | \newlabel{tabVarPar}{{6.1}{55}{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.24}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}\protected@file@percent } | 28 | 28 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}\protected@file@percent } | |
29 | \newlabel{Ssec:ReutiliserESCBR}{{6.2.1.2}{55}{Réutiliser}{subsubsection.6.2.1.2}{}} | |||
\@writefile{lof}{\contentsline {figure}{\numberline {6.3}{\ignorespaces \textit {Stacking} pour chercher les plus proches voisins\relax }}{56}{figure.caption.25}\protected@file@percent } | 29 | 30 | \@writefile{lof}{\contentsline {figure}{\numberline {6.3}{\ignorespaces \textit {Stacking} pour chercher les plus proches voisins\relax }}{56}{figure.caption.25}\protected@file@percent } | |
\newlabel{figSta1}{{6.3}{56}{\textit {Stacking} pour chercher les plus proches voisins\relax }{figure.caption.25}{}} | 30 | 31 | \newlabel{figSta1}{{6.3}{56}{\textit {Stacking} pour chercher les plus proches voisins\relax }{figure.caption.25}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.4}{\ignorespaces Représentation des solutions connues et générées\relax }}{56}{figure.caption.26}\protected@file@percent } | 31 | 32 | \@writefile{lof}{\contentsline {figure}{\numberline {6.4}{\ignorespaces Représentation des solutions connues et générées\relax }}{56}{figure.caption.26}\protected@file@percent } | |
\newlabel{figSolRep}{{6.4}{56}{Représentation des solutions connues et générées\relax }{figure.caption.26}{}} | 32 | 33 | \newlabel{figSolRep}{{6.4}{56}{Représentation des solutions connues et générées\relax }{figure.caption.26}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.5}{\ignorespaces Génération et vérification automatique des solutions\relax }}{57}{figure.caption.27}\protected@file@percent } | 33 | 34 | \@writefile{lof}{\contentsline {figure}{\numberline {6.5}{\ignorespaces Génération et vérification automatique des solutions\relax }}{57}{figure.caption.27}\protected@file@percent } | |
\newlabel{figAuto}{{6.5}{57}{Génération et vérification automatique des solutions\relax }{figure.caption.27}{}} | 34 | 35 | \newlabel{figAuto}{{6.5}{57}{Génération et vérification automatique des solutions\relax }{figure.caption.27}{}} | |
\newlabel{gen00}{{6.1}{57}{Réutiliser}{equation.6.2.1}{}} | 35 | 36 | \newlabel{gen00}{{6.1}{57}{Réutiliser}{equation.6.2.1}{}} | |
\newlabel{gen01}{{6.2}{57}{Réutiliser}{equation.6.2.2}{}} | 36 | 37 | \newlabel{gen01}{{6.2}{57}{Réutiliser}{equation.6.2.2}{}} | |
\newlabel{gen2}{{6.3}{57}{Réutiliser}{equation.6.2.3}{}} | 37 | 38 | \newlabel{gen2}{{6.3}{57}{Réutiliser}{equation.6.2.3}{}} | |
\newlabel{eqgen3}{{6.4}{58}{Réutiliser}{equation.6.2.4}{}} | 38 | 39 | \newlabel{eqgen3}{{6.4}{58}{Réutiliser}{equation.6.2.4}{}} | |
\newlabel{eqgen4}{{6.5}{58}{Réutiliser}{equation.6.2.5}{}} | 39 | 40 | \newlabel{eqgen4}{{6.5}{58}{Réutiliser}{equation.6.2.5}{}} | |
\newlabel{eqgen5}{{6.6}{58}{Réutiliser}{equation.6.2.6}{}} | 40 | 41 | \newlabel{eqgen5}{{6.6}{58}{Réutiliser}{equation.6.2.6}{}} | |
\newlabel{eqgen6}{{6.7}{58}{Réutiliser}{equation.6.2.7}{}} | 41 | 42 | \newlabel{eqgen6}{{6.7}{58}{Réutiliser}{equation.6.2.7}{}} | |
\newlabel{eqgen7}{{6.8}{58}{Réutiliser}{equation.6.2.8}{}} | 42 | 43 | \newlabel{eqgen7}{{6.8}{58}{Réutiliser}{equation.6.2.8}{}} | |
\newlabel{eqma1}{{6.9}{58}{Réutiliser}{equation.6.2.9}{}} | 43 | 44 | \newlabel{eqma1}{{6.9}{58}{Réutiliser}{equation.6.2.9}{}} | |
\citation{doi:10.1137/23M1592420} | 44 | 45 | \citation{doi:10.1137/23M1592420} | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.6}{\ignorespaces \textit {Stacking} pour la génération de solutions\relax }}{59}{figure.caption.28}\protected@file@percent } | 45 | 46 | \@writefile{lof}{\contentsline {figure}{\numberline {6.6}{\ignorespaces \textit {Stacking} pour la génération de solutions\relax }}{59}{figure.caption.28}\protected@file@percent } | |
\newlabel{figSta2}{{6.6}{59}{\textit {Stacking} pour la génération de solutions\relax }{figure.caption.28}{}} | 46 | 47 | \newlabel{figSta2}{{6.6}{59}{\textit {Stacking} pour la génération de solutions\relax }{figure.caption.28}{}} | |
\newlabel{eqma2}{{6.10}{59}{Réutiliser}{equation.6.2.10}{}} | 47 | 48 | \newlabel{eqma2}{{6.10}{59}{Réutiliser}{equation.6.2.10}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}\protected@file@percent } | 48 | 49 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}\protected@file@percent } | |
\newlabel{eqOpt0}{{6.11}{60}{Révision}{equation.6.2.11}{}} | 49 | 50 | \newlabel{eqOpt0}{{6.11}{60}{Révision}{equation.6.2.11}{}} | |
\newlabel{eqOpt}{{6.12}{60}{Révision}{equation.6.2.12}{}} | 50 | 51 | \newlabel{eqOpt}{{6.12}{60}{Révision}{equation.6.2.12}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.7}{\ignorespaces Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }}{60}{figure.caption.29}\protected@file@percent } | 51 | 52 | \@writefile{lof}{\contentsline {figure}{\numberline {6.7}{\ignorespaces Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }}{60}{figure.caption.29}\protected@file@percent } | |
\newlabel{fig:FW}{{6.7}{60}{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }{figure.caption.29}{}} | 52 | 53 | \newlabel{fig:FW}{{6.7}{60}{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda _1,..,\lambda _7$) et point rouge solution au problème)\relax }{figure.caption.29}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}\protected@file@percent } | 53 | 54 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}\protected@file@percent } | 54 | 55 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}\protected@file@percent } | |
\@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de données évalués\relax }}{61}{table.caption.30}\protected@file@percent } | 55 | 56 | \@writefile{lot}{\contentsline {table}{\numberline {6.2}{\ignorespaces Description des jeux de données évalués\relax }}{61}{table.caption.30}\protected@file@percent } | |
\newlabel{tabBases2}{{6.2}{61}{Description des jeux de données évalués\relax }{table.caption.30}{}} | 56 | 57 | \newlabel{tabBases2}{{6.2}{61}{Description des jeux de données évalués\relax }{table.caption.30}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {6.3}{\ignorespaces Liste des algorithmes évalués\relax }}{61}{table.caption.31}\protected@file@percent } | 57 | 58 | \@writefile{lot}{\contentsline {table}{\numberline {6.3}{\ignorespaces Liste des algorithmes évalués\relax }}{61}{table.caption.31}\protected@file@percent } | |
\newlabel{tabAlgs2}{{6.3}{61}{Liste des algorithmes évalués\relax }{table.caption.31}{}} | 58 | 59 | \newlabel{tabAlgs2}{{6.3}{61}{Liste des algorithmes évalués\relax }{table.caption.31}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{61}{table.caption.32}\protected@file@percent } | 59 | 60 | \@writefile{lot}{\contentsline {table}{\numberline {6.4}{\ignorespaces RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{61}{table.caption.32}\protected@file@percent } | |
\newlabel{tabRes1_2}{{6.4}{61}{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.32}{}} | 60 | 61 | \newlabel{tabRes1_2}{{6.4}{61}{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.32}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {6.5}{\ignorespaces MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{62}{table.caption.33}\protected@file@percent } | 61 | 62 | \@writefile{lot}{\contentsline {table}{\numberline {6.5}{\ignorespaces MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }}{62}{table.caption.33}\protected@file@percent } | |
\newlabel{tabRes2_2}{{6.5}{62}{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.33}{}} | 62 | 63 | \newlabel{tabRes2_2}{{6.5}{62}{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés\relax }{table.caption.33}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}\protected@file@percent } | 63 | 64 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.8}{\ignorespaces Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }}{63}{figure.caption.34}\protected@file@percent } | 64 | 65 | \@writefile{lof}{\contentsline {figure}{\numberline {6.8}{\ignorespaces Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }}{63}{figure.caption.34}\protected@file@percent } | |
\newlabel{figBox2}{{6.8}{63}{Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }{figure.caption.34}{}} | 65 | 66 | \newlabel{figBox2}{{6.8}{63}{Résultats de la métrique MAE (\textit {Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives\relax }{figure.caption.34}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}\protected@file@percent } | 66 | 67 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}\protected@file@percent } | |
\@writefile{toc}{\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}\protected@file@percent } | 67 | 68 | \@writefile{toc}{\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {6.3.1}Algorithme Proposé}{64}{subsection.6.3.1}\protected@file@percent } | 68 | 69 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.1}Algorithme Proposé}{64}{subsection.6.3.1}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.9}{\ignorespaces Deux cycles du système ESCBR-SMA proposé\relax }}{64}{figure.caption.35}\protected@file@percent } | 69 | 70 | \@writefile{lof}{\contentsline {figure}{\numberline {6.9}{\ignorespaces Deux cycles du système ESCBR-SMA proposé\relax }}{64}{figure.caption.35}\protected@file@percent } | |
\newlabel{figNCBR}{{6.9}{64}{Deux cycles du système ESCBR-SMA proposé\relax }{figure.caption.35}{}} | 70 | 71 | \newlabel{figNCBR}{{6.9}{64}{Deux cycles du système ESCBR-SMA proposé\relax }{figure.caption.35}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {6.6}{\ignorespaces Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)\relax }}{65}{table.caption.37}\protected@file@percent } | 71 | 72 | \@writefile{lot}{\contentsline {table}{\numberline {6.6}{\ignorespaces Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)\relax }}{65}{table.caption.37}\protected@file@percent } | |
\newlabel{tabVarPar2}{{6.6}{65}{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.37}{}} | 72 | 73 | \newlabel{tabVarPar2}{{6.6}{65}{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)\relax }{table.caption.37}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{65}{subsubsection.6.3.1.1}\protected@file@percent } | 73 | 74 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes suivis par ESCBR-SMA}{65}{subsubsection.6.3.1.1}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.10}{\ignorespaces Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)\relax }}{66}{figure.caption.36}\protected@file@percent } | 74 | 75 | \@writefile{lof}{\contentsline {figure}{\numberline {6.10}{\ignorespaces Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)\relax }}{66}{figure.caption.36}\protected@file@percent } | |
\newlabel{figFlowCBR}{{6.10}{66}{Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)\relax }{figure.caption.36}{}} | 75 | 76 | \newlabel{figFlowCBR}{{6.10}{66}{Flux du \textit {Stacking} du RàPC (* : tâche effectuée par chaque agent)\relax }{figure.caption.36}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}\protected@file@percent } | 76 | 77 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}\protected@file@percent } | |
\newlabel{eqOpt1}{{6.13}{67}{Structure des agents}{equation.6.3.13}{}} | 77 | 78 | \newlabel{eqOpt1}{{6.13}{67}{Structure des agents}{equation.6.3.13}{}} | |
\newlabel{eqOpt2}{{6.14}{67}{Structure des agents}{equation.6.3.14}{}} | 78 | 79 | \newlabel{eqOpt2}{{6.14}{67}{Structure des agents}{equation.6.3.14}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}\protected@file@percent } | 79 | 80 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.11}{\ignorespaces Structure interne des agents\relax }}{68}{figure.caption.38}\protected@file@percent } | 80 | 81 | \@writefile{lof}{\contentsline {figure}{\numberline {6.11}{\ignorespaces Structure interne des agents\relax }}{68}{figure.caption.38}\protected@file@percent } | |
\newlabel{figAgent}{{6.11}{68}{Structure interne des agents\relax }{figure.caption.38}{}} | 81 | 82 | \newlabel{figAgent}{{6.11}{68}{Structure interne des agents\relax }{figure.caption.38}{}} | |
\newlabel{eqBay}{{6.15}{68}{Apprentissage des agents}{equation.6.3.15}{}} | 82 | 83 | \newlabel{eqBay}{{6.15}{68}{Apprentissage des agents}{equation.6.3.15}{}} | |
\newlabel{eqRta}{{6.16}{68}{Apprentissage des agents}{equation.6.3.16}{}} | 83 | 84 | \newlabel{eqRta}{{6.16}{68}{Apprentissage des agents}{equation.6.3.16}{}} | |
\newlabel{eqRsa}{{6.17}{68}{Apprentissage des agents}{equation.6.3.17}{}} | 84 | 85 | \newlabel{eqRsa}{{6.17}{68}{Apprentissage des agents}{equation.6.3.17}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser\relax }}{69}{figure.caption.39}\protected@file@percent } | 85 | 86 | \@writefile{lof}{\contentsline {figure}{\numberline {6.12}{\ignorespaces Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser\relax }}{69}{figure.caption.39}\protected@file@percent } | |
\newlabel{fig:bayev}{{6.12}{69}{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser\relax }{figure.caption.39}{}} | 86 | 87 | \newlabel{fig:bayev}{{6.12}{69}{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser\relax }{figure.caption.39}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}\protected@file@percent } | 87 | 88 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}\protected@file@percent } | 88 | 89 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}\protected@file@percent } | |
\@writefile{lot}{\contentsline {table}{\numberline {6.7}{\ignorespaces Description des jeux de données évalués.\relax }}{70}{table.caption.40}\protected@file@percent } | 89 | 90 | \@writefile{lot}{\contentsline {table}{\numberline {6.7}{\ignorespaces Description des jeux de données évalués.\relax }}{70}{table.caption.40}\protected@file@percent } | |
\newlabel{tabBases}{{6.7}{70}{Description des jeux de données évalués.\relax }{table.caption.40}{}} | 90 | 91 | \newlabel{tabBases}{{6.7}{70}{Description des jeux de données évalués.\relax }{table.caption.40}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {6.8}{\ignorespaces Paramètres de tous les algorithmes comparés\relax }}{70}{table.caption.41}\protected@file@percent } | 91 | 92 | \@writefile{lot}{\contentsline {table}{\numberline {6.8}{\ignorespaces Paramètres de tous les algorithmes comparés\relax }}{70}{table.caption.41}\protected@file@percent } | |
\newlabel{AlgsPar}{{6.8}{70}{Paramètres de tous les algorithmes comparés\relax }{table.caption.41}{}} | 92 | 93 | \newlabel{AlgsPar}{{6.8}{70}{Paramètres de tous les algorithmes comparés\relax }{table.caption.41}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }}{71}{table.caption.42}\protected@file@percent } | 93 | 94 | \@writefile{lot}{\contentsline {table}{\numberline {6.9}{\ignorespaces Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }}{71}{table.caption.42}\protected@file@percent } | |
\newlabel{tabRes1}{{6.9}{71}{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }{table.caption.42}{}} | 94 | 95 | \newlabel{tabRes1}{{6.9}{71}{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }{table.caption.42}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {6.10}{\ignorespaces Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression\relax }}{71}{table.caption.43}\protected@file@percent } | 95 | 96 | \@writefile{lot}{\contentsline {table}{\numberline {6.10}{\ignorespaces Comparaison des résultats MAE (Median Absolute Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }}{71}{table.caption.43}\protected@file@percent } | |
\newlabel{tabRes2}{{6.10}{71}{Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression\relax }{table.caption.43}{}} | 96 | 97 | \newlabel{tabRes2}{{6.10}{71}{Comparaison des résultats MAE (Median Absolute Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.\relax }{table.caption.43}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {6.13}{\ignorespaces Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés\relax }}{71}{figure.caption.44}\protected@file@percent } | 97 | 98 | \@writefile{lof}{\contentsline {figure}{\numberline {6.13}{\ignorespaces Erreurs médianes absolues (MAE - Median Absolute Error) obtenues pour les dix algorithmes testés.\relax }}{71}{figure.caption.44}\protected@file@percent } | |
\newlabel{figBox}{{6.13}{71}{Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés\relax }{figure.caption.44}{}} | 98 | 99 | \newlabel{figBox}{{6.13}{71}{Erreurs médianes absolues (MAE - Median Absolute Error) obtenues pour les dix algorithmes testés.\relax }{figure.caption.44}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}\protected@file@percent } | 99 | 100 | \@writefile{toc}{\contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}\protected@file@percent } | |
\@setckpt{./chapters/ESCBR}{ | 100 | 101 | \@setckpt{./chapters/ESCBR}{ | |
\setcounter{page}{73} | 101 | 102 | \setcounter{page}{73} | |
\setcounter{equation}{17} | 102 | 103 | \setcounter{equation}{17} | |
\setcounter{enumi}{0} | 103 | 104 | \setcounter{enumi}{0} | |
\setcounter{enumii}{0} | 104 | 105 | \setcounter{enumii}{0} | |
\setcounter{enumiii}{0} | 105 | 106 | \setcounter{enumiii}{0} | |
\setcounter{enumiv}{0} | 106 | 107 | \setcounter{enumiv}{0} | |
\setcounter{footnote}{0} | 107 | 108 | \setcounter{footnote}{0} | |
\setcounter{mpfootnote}{0} | 108 | 109 | \setcounter{mpfootnote}{0} | |
\setcounter{part}{3} | 109 | 110 | \setcounter{part}{3} | |
\setcounter{chapter}{6} | 110 | 111 | \setcounter{chapter}{6} | |
\setcounter{section}{3} | 111 | 112 | \setcounter{section}{3} | |
\setcounter{subsection}{3} | 112 | 113 | \setcounter{subsection}{3} | |
\setcounter{subsubsection}{0} | 113 | 114 | \setcounter{subsubsection}{0} | |
\setcounter{paragraph}{0} | 114 | 115 | \setcounter{paragraph}{0} | |
\setcounter{subparagraph}{0} | 115 | 116 | \setcounter{subparagraph}{0} | |
\setcounter{figure}{13} | 116 | 117 | \setcounter{figure}{13} | |
\setcounter{table}{10} | 117 | 118 | \setcounter{table}{10} | |
\setcounter{caption@flags}{2} | 118 | 119 | \setcounter{caption@flags}{2} | |
\setcounter{continuedfloat}{0} | 119 | 120 | \setcounter{continuedfloat}{0} | |
\setcounter{subfigure}{0} | 120 | 121 | \setcounter{subfigure}{0} | |
\setcounter{subtable}{0} | 121 | 122 | \setcounter{subtable}{0} | |
\setcounter{parentequation}{0} | 122 | 123 | \setcounter{parentequation}{0} | |
\setcounter{thmt@dummyctr}{0} | 123 | 124 | \setcounter{thmt@dummyctr}{0} | |
\setcounter{vrcnt}{0} | 124 | 125 | \setcounter{vrcnt}{0} | |
\setcounter{upm@subfigure@count}{0} | 125 | 126 | \setcounter{upm@subfigure@count}{0} | |
\setcounter{upm@fmt@mtabular@columnnumber}{0} | 126 | 127 | \setcounter{upm@fmt@mtabular@columnnumber}{0} | |
\setcounter{upm@format@section@sectionlevel}{2} | 127 | 128 | \setcounter{upm@format@section@sectionlevel}{2} | |
\setcounter{upm@fmt@savedcounter}{0} | 128 | 129 | \setcounter{upm@fmt@savedcounter}{0} | |
\setcounter{@@upm@fmt@inlineenumeration}{0} | 129 | 130 | \setcounter{@@upm@fmt@inlineenumeration}{0} | |
\setcounter{@upm@fmt@enumdescription@cnt@}{0} | 130 | 131 | \setcounter{@upm@fmt@enumdescription@cnt@}{0} | |
\setcounter{upmdefinition}{0} | 131 | 132 | \setcounter{upmdefinition}{0} | |
\setcounter{section@level}{2} | 132 | 133 | \setcounter{section@level}{2} | |
\setcounter{Item}{0} | 133 | 134 | \setcounter{Item}{0} | |
\setcounter{Hfootnote}{0} | 134 | 135 | \setcounter{Hfootnote}{0} | |
\setcounter{bookmark@seq@number}{66} | 135 | 136 | \setcounter{bookmark@seq@number}{66} | |
\setcounter{DefaultLines}{2} | 136 | 137 | \setcounter{DefaultLines}{2} | |
\setcounter{DefaultDepth}{0} | 137 | 138 | \setcounter{DefaultDepth}{0} | |
\setcounter{L@lines}{3} | 138 | 139 | \setcounter{L@lines}{3} | |
\setcounter{L@depth}{0} | 139 | 140 | \setcounter{L@depth}{0} | |
\setcounter{float@type}{8} | 140 | 141 | \setcounter{float@type}{8} | |
\setcounter{algorithm}{0} | 141 | 142 | \setcounter{algorithm}{0} | |
\setcounter{ALG@line}{0} | 142 | 143 | \setcounter{ALG@line}{0} | |
\setcounter{ALG@rem}{0} | 143 | 144 | \setcounter{ALG@rem}{0} | |
\setcounter{ALG@nested}{0} | 144 | 145 | \setcounter{ALG@nested}{0} | |
\setcounter{ALG@Lnr}{2} | 145 | 146 | \setcounter{ALG@Lnr}{2} | |
\setcounter{ALG@blocknr}{10} | 146 | 147 | \setcounter{ALG@blocknr}{10} | |
\setcounter{ALG@storecount}{0} | 147 | 148 | \setcounter{ALG@storecount}{0} | |
\setcounter{ALG@tmpcounter}{0} | 148 | 149 | \setcounter{ALG@tmpcounter}{0} | |
} | 149 | 150 | } | |
150 | 151 | |||
chapters/ESCBR.tex
View file @
4b1afa3
\chapter{Le raisonnement à partir de cas (RàPC) pour la régression} | 1 | 1 | \chapter{Le raisonnement à partir de cas (RàPC) pour la régression} | |
\chaptermark{RàPC POUR RÉGRESSION} | 2 | 2 | \chaptermark{RàPC POUR RÉGRESSION} | |
\label{ChapESCBR} | 3 | 3 | \label{ChapESCBR} | |
4 | 4 | |||
\section{Introduction} | 5 | 5 | \section{Introduction} | |
6 | 6 | |||
Ce chapitre est divisé en deux parties. La première partie présente un algorithme fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression. | 7 | 7 | Ce chapitre est divisé en deux parties. La première partie présente un algorithme fondé sur le raisonnement à partir de cas et les méthodes d'ensemble avec un double empilement itératif. Nous l'avons baptisé \textit{ESCBR} (\textit{Ensemble Stacking Case Based Reasoning}). Ce processus se fait en deux étapes pour trouver des solutions approximatives à des problèmes de régression unidimensionnels et multidimensionnels. Une partie de cette proposition est publiée dans \cite{10.1007/978-3-031-63646-2_11}. La seconde partie montre la conception et l'implémentation d'un SMA intégré à l'ESCBR présenté dans la première partie. Nous considérons dans ce chapitre que le choix des exercices les plus adaptés revient à résoudre un problème de régression. C'est la raison pour laquelle nous testons notre approche sur des jeux de données classiques de régression. | |
L'algorithme présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{soto6}.\\ | 8 | 8 | L'algorithme présenté dans cette seconde partie associe un raisonnement à partir de cas à des systèmes multi-agents cognitifs implémentant un raisonnement bayésien. Cette association, combinant échange d'informations entre agents et apprentissage par renforcement, permet l'émergence de prédictions plus précises et améliore ainsi les performances d'ESCBR \cite{soto6}.\\ | |
9 | 9 | |||
Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche. | 10 | 10 | Avant de présenter nos propositions, rappelons quelques caractéristiques importantes des outils combinés dans notre approche. | |
11 | 11 | |||
Le système de raisonnement à partir de cas ne nécessite pas d'entraînement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement satisfaisants. | 12 | 12 | Le système de raisonnement à partir de cas ne nécessite pas d'entraînement, et peut fonctionner avec des données dynamiques au moment de l'exécution. Les solutions proposées par notre système de RàPC sont générées à l'aide d'algorithmes stochastiques guidant l'exploration de l'espace des solutions. L'évaluation des solutions possibles est effectuée en transformant le problème de régression en un problème d'optimisation avec une fonction objectif associée. La fonction objectif calcule un rapport de la distance entre la solution générée et les solutions connues avec les problèmes à résoudre et les problèmes connus. La définition formelle se trouve dans la section 6.2.1.3. Les prédictions de ce nouvel algorithme ont été comparées à celles de neuf algorithmes de régression classiques sur dix jeux de données pour la régression extraits du site de l'UCI \cite{UCI}. En évaluant les résultats obtenus selon la métrique RMSE (Erreur quadratique moyenne - \textit{Root Mean Squared Error}), ce nouvel algorithme se classe parmi les six meilleurs. Selon la métrique MAE (Erreur moyenne absolue - \textit{Mean Absolute Error}) il est le troisième meilleur algorithme des dix évalués, ce qui suggère que les résultats produits par ESCBR sont raisonnablement satisfaisants. | |
13 | 13 | |||
La technique d'ensemble permet de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs algorithmes exécutés indépendamment. Certaines de ces méthodes utilisent des algorithmes différents et des ensembles de données différents tandis que d'autres utilisent les mêmes algorithmes avec des paramètres différents. La combinaison des résultats provenant de multiples algorithmes peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette technique d'ensemble en la combinant à des outils d'apprentissage automatique. | 14 | 14 | La technique d'ensemble permet de résoudre des problèmes de classification et de régression en combinant les résultats de plusieurs algorithmes exécutés indépendamment. Certaines de ces méthodes utilisent des algorithmes différents et des ensembles de données différents tandis que d'autres utilisent les mêmes algorithmes avec des paramètres différents. La combinaison des résultats provenant de multiples algorithmes peut être réalisée selon différentes stratégies comme l'application de règles simples ou des approches plus complexes \cite{BAKUROV2021100913}. Plusieurs travaux de recherche explorent la possibilité d'utiliser cette technique d'ensemble en la combinant à des outils d'apprentissage automatique. | |
15 | 15 | |||
Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des algorithmes linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est une technique d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses algorithmes d'apprentissage automatique pour surmonter les limites des algorithmes individuels. Plusieurs études démontrent que l'association de ces algorithmes permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. | 16 | 16 | Les méthodes d'apprentissage automatique appliquées à la régression permettent quant à elles de prédire des valeurs pour différents types de problèmes en construisant, évaluant et formant des algorithmes linéaires et non linéaires complexes. Mais il est possible d'en améliorer la précision en les associant. Les stratégies d'intégration les plus courantes utilisées pour l'apprentissage d'ensemble sont le \textit{Stacking} (empilement), le \textit{Boosting} (stimulation) et le \textit{Bagging} (ensachage) \cite{Liang}. Le \textit{Stacking} est une technique d'apprentissage profond d'ensemble dont l'objectif est d'utiliser diverses algorithmes d'apprentissage automatique pour surmonter les limites des algorithmes individuels. Plusieurs études démontrent que l'association de ces algorithmes permet d'améliorer la précision des résultats \cite{cmc.2023.033417}. Dans ces méthodes d'empilement, les algorithmes de base sont appelés \textit{niveau-0}. Il s'agit généralement d'algorithmes d'apprentissage automatique hétérogènes qui travaillent tous avec les mêmes données. Le méta-algorithme (appelé \textit{niveau-1}) qui unifie les résultats peut être une autre technique d'apprentissage automatique ou un ensemble de règles qui reçoit en entrée les résultats des algorithmes de \textit{niveau-0} \cite{10.3389/fgene.2021.600040}. | |
17 | 17 | |||
La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. | 18 | 18 | La modélisation de systèmes implémentant différentes techniques d'apprentissage nous amène tout naturellement à considérer les avantages et inconvénients proposés par un système multi-agents. Un SMA est un système décentralisé composé de plusieurs entités appelées agents qui ont la capacité d'effectuer des actions spécifiques et de réagir à l'environnement en fonction des informations partielles à leur disposition. Ils peuvent également collaborer les uns avec les autres et coopérer pour atteindre un objectif spécifique. À partir des informations qu'ils perçoivent et échangent, les agents peuvent apprendre de manière autonome et atteindre leurs objectifs efficacement \cite{KAMALI2023110242}. Les actions d'un système multi-agents peuvent être exécutées en parallèle grâce à l'indépendance des agents. Ils sont également robustes aux problèmes présentant une incertitude \cite{DIDDEN2023338}. | |
19 | 19 | |||
Le raisonnement bayésien clôt ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. | 20 | 20 | Le raisonnement bayésien clôt ce premier tour d'horizon des techniques implémentées dans l'approche présentée dans ce chapitre. Celui-ci est fondé sur l'observation du raisonnement humain et la relation de l'humain avec l'environnement. Son principe repose sur le postulat que les expériences passées permettent de déduire les états futurs, guidant ainsi ses actions et ses décisions \cite{HIPOLITO2023103510}. Avec le raisonnement bayésien certaines informations peuvent également être déduites à partir d'informations incomplètes \cite{ZHANG2023110564}. | |
21 | 21 | |||
\section{Apprentissage par empilement et raisonnement à partir de cas} | 22 | 22 | \section{Apprentissage par empilement et raisonnement à partir de cas} | |
\sectionmark{Apprentissage par empilement et RàPC} | 23 | 23 | \sectionmark{Apprentissage par empilement et RàPC} | |
24 | 24 | |||
Cette section présente la première version de l'algorithme que nous avons conçu pour résoudre des problèmes de régression. Celui-ci est fondé sur le raisonnement à partir de cas et l'empilement. | 25 | 25 | Cette section présente la première version de l'algorithme que nous avons conçu pour résoudre des problèmes de régression. Celui-ci est fondé sur le raisonnement à partir de cas et l'empilement. | |
26 | 26 | |||
\subsection{Algorithme Proposé} | 27 | 27 | \subsection{Algorithme Proposé} | |
28 | 28 | |||
L'algorithme proposé, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondé sur le paradigme générique du RàPC combiné à plusieurs algorithmes de recherche de voisins et de génération de solutions. Ces algorithmes ont été intégrés selon une variation de l'empilement en deux étapes itératives. Cette intégration donne à l'algorithme la capacité de s'adapter à différents types de problèmes, d'éviter les biais et le surentraînement. Les résultats de l'exécution des niveaux d'empilement stockent dans la mémoire des conteneurs de connaissances du système de RàPC des informations qui aident non seulement à l'apprentissage de l'algorithme au fil des itérations, mais facilitent également la génération de solutions à divers problèmes sur différents ensembles de données sans nécessité d'entraînement préalable. La conception itérative en deux cycles améliore la capacité du système de RàPC à travailler et à s'adapter à des problèmes dynamiques en cours d'exécution, comme le montre la figure \ref{figNCBR1}. | 29 | 29 | L'algorithme proposé, ESCBR (\textit{Ensemble Stacking Case-Based Reasoning}), est fondé sur le paradigme générique du RàPC combiné à plusieurs algorithmes de recherche de voisins et de génération de solutions. Ces algorithmes ont été intégrés selon une variation de l'empilement en deux étapes itératives. Cette intégration donne à l'algorithme la capacité de s'adapter à différents types de problèmes, d'éviter les biais et le surentraînement. Les résultats de l'exécution des niveaux d'empilement stockent dans la mémoire des conteneurs de connaissances du système de RàPC des informations qui aident non seulement à l'apprentissage de l'algorithme au fil des itérations, mais facilitent également la génération de solutions à divers problèmes sur différents ensembles de données sans nécessité d'entraînement préalable. La conception itérative en deux cycles améliore la capacité du système de RàPC à travailler et à s'adapter à des problèmes dynamiques en cours d'exécution, comme le montre la figure \ref{figNCBR1}. | |
30 | 30 | |||
\begin{figure}[!ht] | 31 | 31 | \begin{figure}[!ht] | |
\centering | 32 | 32 | \centering | |
\includegraphics[width=\textwidth]{./Figures/NCBR0.png} | 33 | 33 | \includegraphics[width=\textwidth]{./Figures/NCBR0.png} | |
\caption{Les deux cycles proposés pour le RàPC} | 34 | 34 | \caption{Les deux cycles proposés pour le RàPC} | |
\label{figNCBR1} | 35 | 35 | \label{figNCBR1} | |
\end{figure} | 36 | 36 | \end{figure} | |
37 | 37 | |||
L'étape de récupération utilise les algorithmes de recherche et le jeu de données de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problème cible. Puis l'étape de réutilisation utilise les algorithmes de génération de solutions (conteneur $C2$). L'étape de révision évalue ensuite les solutions générées et permet d'en générer de nouvelles itérativement en fonction des paramètres stockés dans le conteneur $C4$. Vient ensuite l'étape de révision prenant en considération la solution sélectionnée. Faisant suite à cette révision, l'étape de renouvellement met à jour les paramètres et les données du conteneur. Enfin, dans l'étape de capitalisation, la base de cas est mise à jour avec l'intégration du nouveau cas. Les flux d'information de l'algorithme proposé sont présentés sur la figure~\ref{figFlowCBR0}, tandis que le tableau~\ref{tabVarPar} présente l'ensemble des variables et paramètres de l'algorithme proposé. | 38 | 38 | L'étape de récupération utilise les algorithmes de recherche et le jeu de données de cas (conteneurs $C1$ et $C3$ de la figure \ref{figNCBR1}) pour trouver les voisins les plus proches d'un problème cible. Puis l'étape de réutilisation utilise les algorithmes de génération de solutions (conteneur $C2$). L'étape de révision évalue ensuite les solutions générées et permet d'en générer de nouvelles itérativement en fonction des paramètres stockés dans le conteneur $C4$. Vient ensuite l'étape de révision prenant en considération la solution sélectionnée. Faisant suite à cette révision, l'étape de renouvellement met à jour les paramètres et les données du conteneur. Enfin, dans l'étape de capitalisation, la base de cas est mise à jour avec l'intégration du nouveau cas. Les flux d'information de l'algorithme proposé sont présentés sur la figure~\ref{figFlowCBR0}, tandis que le tableau~\ref{tabVarPar} présente l'ensemble des variables et paramètres de l'algorithme proposé. | |
39 | 39 | |||
\begin{figure}[!ht] | 40 | 40 | \begin{figure}[!ht] | |
\centering | 41 | 41 | \centering | |
\includegraphics[scale=0.6]{./Figures/FlowCBR0.png} | 42 | 42 | \includegraphics[scale=0.6]{./Figures/FlowCBR0.png} | |
\caption{Flux du \textit{Stacking} RàPC} | 43 | 43 | \caption{Flux du \textit{Stacking} RàPC} | |
\label{figFlowCBR0} | 44 | 44 | \label{figFlowCBR0} | |
\end{figure} | 45 | 45 | \end{figure} | |
46 | 46 | |||
\begin{table}[!ht] | 47 | 47 | \begin{table}[!ht] | |
\centering | 48 | 48 | \centering | |
\begin{tabular}{cccc} | 49 | 49 | \begin{tabular}{cccc} | |
ID&Type&Description&Domain\\ | 50 | 50 | ID&Type&Description&Domain\\ | |
\hline | 51 | 51 | \hline | |
$it$&p&Nombre d'itérations&$\mathbb{N}, it>0$\\ | 52 | 52 | $it$&p&Nombre d'itérations&$\mathbb{N}, it>0$\\ | |
$np$&p&Nombre de processus&$\mathbb{N}, np>2$\\ | 53 | 53 | $np$&p&Nombre de processus&$\mathbb{N}, np>2$\\ | |
$nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\ | 54 | 54 | $nl$&p&Nombre maximal de voisins locaux&$\mathbb{N}, nl>0$\\ | |
$ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\ | 55 | 55 | $ng$&p&Nombre de voisins globaux&$\mathbb{N}, ng>2$\\ | |
$n$&v&Dimension de l'espace du problème&$\mathbb{N}, n>0$\\ | 56 | 56 | $n$&v&Dimension de l'espace du problème&$\mathbb{N}, n>0$\\ | |
$m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\ | 57 | 57 | $m$&v&Dimension de l'espace de solution&$\mathbb{N}, m>0$\\ | |
$z$&v&Taille du jeu de données&$\mathbb{N}, z>0$\\ | 58 | 58 | $z$&v&Taille du jeu de données&$\mathbb{N}, z>0$\\ | |
$p$&v&Description du problème&$\mathbb{R} ^ n$\\ | 59 | 59 | $p$&v&Description du problème&$\mathbb{R} ^ n$\\ | |
$s$&v&Description de la solution&$\mathbb{R} ^ m$\\ | 60 | 60 | $s$&v&Description de la solution&$\mathbb{R} ^ m$\\ | |
$r_a$&v&Nombre d'algorithmes pour l'étape retrouver&$\mathbb{N}, r_a>2$\\ | 61 | 61 | $r_a$&v&Nombre d'algorithmes pour l'étape retrouver&$\mathbb{N}, r_a>2$\\ | |
$r_b$&v&Nombre d'algorithmes pour l'étape de réutilisation&$\mathbb{N}, r_b>2$\\ | 62 | 62 | $r_b$&v&Nombre d'algorithmes pour l'étape de réutilisation&$\mathbb{N}, r_b>2$\\ | |
$at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\ | 63 | 63 | $at$&v&Identificateur des actions&$[0,2] \in \mathbb{N}$\\ | |
$nl_i$&v&Nombre de voisins locaux pour l'algorithme $i$&$\mathbb{N}, nl_i \le nl$\\ | 64 | 64 | $nl_i$&v&Nombre de voisins locaux pour l'algorithme $i$&$\mathbb{N}, nl_i \le nl$\\ | |
$g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\ | 65 | 65 | $g$&v&Description de la meilleure solution globale&$\mathbb{R} ^ m$\\ | |
$v$&v&Évaluation de la meilleure solution globale&$\mathbb{R}$\\ | 66 | 66 | $v$&v&Évaluation de la meilleure solution globale&$\mathbb{R}$\\ | |
$d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\ | 67 | 67 | $d(x_1,x_2)$&f&Fonction de distance entre $x_1$ et $x_2$ &$\mathbb{R}$\\ | |
$MP(x_1^z,x_2,a)$&f&Fonction pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\ | 68 | 68 | $MP(x_1^z,x_2,a)$&f&Fonction pour retrouver entre $x_1$ et $x_2$&$\mathbb{R}^{a \times z}$\\ | |
$MS(x_1^m)$&f&Fonction pour réutiliser avec $x_1$ &$\mathbb{R}^m$\\ | 69 | 69 | $MS(x_1^m)$&f&Fonction pour réutiliser avec $x_1$ &$\mathbb{R}^m$\\ | |
$f_s(p^n,s^m)$&f&Évaluation des solutions&$\mathbb{R}$\\ | 70 | 70 | $f_s(p^n,s^m)$&f&Évaluation des solutions&$\mathbb{R}$\\ | |
\end{tabular} | 71 | 71 | \end{tabular} | |
\caption{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)} | 72 | 72 | \caption{Variables et paramètres de l'algorithme proposé (Type: p - paramètre, v - variable, f - fonction)} | |
\label{tabVarPar} | 73 | 73 | \label{tabVarPar} | |
\end{table} | 74 | 74 | \end{table} | |
75 | 75 | |||
\subsubsection{Rechercher} | 76 | 76 | \subsubsection{Rechercher} | |
La première étape de l'algorithme consiste à trouver les cas les plus similaires à un nouveau cas (appelé \textit{cas cible}). Pour ce faire, l'empilement de différents processus présenté sur la figure \ref{figSta1} est utilisé. Au niveau-0, chaque processus sélectionne et exécute un algorithme de recherche de voisins différents choisi parmi $r_a$ algorithmes dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi aléatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les résultats sont unifiés en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont été mis en œuvre pour l'étape de récupération : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation. | 77 | 77 | La première étape de l'algorithme consiste à trouver les cas les plus similaires à un nouveau cas (appelé \textit{cas cible}). Pour ce faire, l'empilement de différents processus présenté sur la figure \ref{figSta1} est utilisé. Au niveau-0, chaque processus sélectionne et exécute un algorithme de recherche de voisins différents choisi parmi $r_a$ algorithmes dans le conteneur $C3$, avec un nombre de voisins $nl_i$ choisi aléatoirement dans l'intervalle $[0,nl]$. Puis au niveau-1, les résultats sont unifiés en construisant un ensemble global de cas similaires. Cinq algorithmes pour le niveau-0 ont été mis en œuvre pour l'étape de récupération : KNN (\textit{K Nearest Neighbors} - K plus proches voisins), KMeans, GMM (\textit{Gaussian Mixture Model}), FuzzyC et KNN Ponderation. | |
78 | 78 | |||
\begin{figure} | 79 | 79 | \begin{figure} | |
\centering | 80 | 80 | \centering | |
\includegraphics[width=\textwidth]{./Figures/Stacking1.png} | 81 | 81 | \includegraphics[width=\textwidth]{./Figures/Stacking1.png} | |
\caption{\textit{Stacking} pour chercher les plus proches voisins} | 82 | 82 | \caption{\textit{Stacking} pour chercher les plus proches voisins} | |
\label{figSta1} | 83 | 83 | \label{figSta1} | |
\end{figure} | 84 | 84 | \end{figure} | |
85 | 85 | |||
Formellement, le premier empilement proposé fonctionne avec deux paramètres : %\textcolor{red}{quels sont les 2 paramètres?} | 86 | 86 | Formellement, le premier empilement proposé fonctionne avec deux paramètres : %\textcolor{red}{quels sont les 2 paramètres?} | |
un jeu de données de $z$ cas où un cas est composé de la description du problème et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de générer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exécuté, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est généré. Au niveau-1, un ensemble global est créé à l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le résultat du premier empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches. | 87 | 87 | un jeu de données de $z$ cas où un cas est composé de la description du problème et de la description de la solution ${(p^n,s^m)}^{z}$ et un nouveau cas sans solution $p_w^n$. Le but de tous les algorithmes de niveau-0 est de générer une liste locale de cas similaires au cas cible. Ainsi, pour chaque algorithme $j$ exécuté, l'ensemble $X_j=\{x_1,x_2,. ..,x_z \; | \; x_i=MP_i((p^n)^z, p_w^n,nl_i) \}$ est généré. Au niveau-1, un ensemble global est créé à l'aide de tous les ensembles locaux $j$ $X_g=\cup_{n=1}^{ng} min \ ; ((\cup_{j=1}^{np} X_j)-X_g)$. Le résultat du premier empilement est l'ensemble $X_g$ avec les $ng$ voisins les plus proches. | |
88 | 88 | |||
\subsubsection{Réutiliser} | 89 | 89 | \subsubsection{Réutiliser}\label{Ssec:ReutiliserESCBR} | |
90 | 90 | |||
Une fois la liste globale des cas similaires établie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisées pour générer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations représentés sur la figure \ref{figAuto}. La génération est effectuée avec un deuxième empilement de différents processus. Cet empilement est représenté sur la figure \ref{figSta2}. Au niveau-0, chaque processus sélectionne et exécute un algorithme de génération différent à partir des algorithmes $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions générées sont stockées dans une mémoire globale. Toutes les solutions connues et générées sont représentées avec la même structure comme le montre la figure \ref{figSolRep}. | 91 | 91 | Une fois la liste globale des cas similaires établie, les informations correspondant aux solutions de chacun de ces cas sont extraites et utilisées pour générer une nouvelle solution qui s'adapte au cas cible, en suivant le processus et les flux d'informations représentés sur la figure \ref{figAuto}. La génération est effectuée avec un deuxième empilement de différents processus. Cet empilement est représenté sur la figure \ref{figSta2}. Au niveau-0, chaque processus sélectionne et exécute un algorithme de génération différent à partir des algorithmes $r_b$ dans le conteneur $C2$. Au niveau-1, toutes les solutions générées sont stockées dans une mémoire globale. Toutes les solutions connues et générées sont représentées avec la même structure comme le montre la figure \ref{figSolRep}. | |
92 | 92 | |||
\begin{figure}[!ht] | 93 | 93 | \begin{figure}[!ht] | |
\centering | 94 | 94 | \centering | |
\includegraphics[scale=1]{./Figures/SolRep.png} | 95 | 95 | \includegraphics[scale=1]{./Figures/SolRep.png} | |
\caption{Représentation des solutions connues et générées} | 96 | 96 | \caption{Représentation des solutions connues et générées} | |
\label{figSolRep} | 97 | 97 | \label{figSolRep} | |
\end{figure} | 98 | 98 | \end{figure} | |
99 | 99 | |||
Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération. | 100 | 100 | Neuf algorithmes ont été mis en œuvre pour l'étape de réutilisation au niveau-0 : moyenne avec probabilité, moyenne sans probabilité, valeurs médianes, sélection aléatoire avec probabilité, copie et changement, vote, interpolation, PCA (analyse en composantes principales) et marche aléatoire. Tous les algorithmes proposés pour générer une nouvelle solution combinent et modifient l'ensemble de solutions construit dans l'étape de récupération. | |
101 | 101 | |||
\begin{figure}[!ht] | 102 | 102 | \begin{figure}[!ht] | |
\centering | 103 | 103 | \centering | |
\includegraphics[width=\textwidth]{./Figures/AutomaticS.png} | 104 | 104 | \includegraphics[width=\textwidth]{./Figures/AutomaticS.png} | |
\caption{Génération et vérification automatique des solutions} | 105 | 105 | \caption{Génération et vérification automatique des solutions} | |
\label{figAuto} | 106 | 106 | \label{figAuto} | |
\end{figure} | 107 | 107 | \end{figure} | |
108 | 108 | |||
La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}. | 109 | 109 | La moyenne pondérée avec probabilité est construite en considérant les $nl$ cas les plus proches du cas cible. Ces $nl$ cas sont les cas sélectionnés par le premier empilement. Pour chacun de ces $nl$ cas, un ratio $\alpha_j$ est calculé en considérant la distance entre celui-ci et le cas cible, selon l'équation \ref{gen00}. | |
Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. | 110 | 110 | Nous considérons alors l'ensemble de ces ratios comme une distribution de probabilité discrète. Chacune des composantes du vecteur solution est ensuite calculée selon l'équation \ref{gen01}. Cet algorithme permet de donner plus de poids aux solutions des cas les plus proches du cas cible. | |
111 | 111 | |||
\begin{equation} | 112 | 112 | \begin{equation} | |
\alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) | 113 | 113 | \alpha_j=1-\left(\frac{d(p_j^n,p_w^n)}{\sum_{i=0}^{nl} d(p_i^n,p_w^n)}\right) | |
\label{gen00} | 114 | 114 | \label{gen00} | |
\end{equation} | 115 | 115 | \end{equation} | |
116 | 116 | |||
\begin{equation} | 117 | 117 | \begin{equation} | |
s^m_{j,w}=\sum_{i=0}^{nl-1} \alpha_j s_{i,j} | 118 | 118 | s^m_{j,w}=\sum_{i=0}^{nl-1} \alpha_j s_{i,j} | |
\label{gen01} | 119 | 119 | \label{gen01} | |
\end{equation} | 120 | 120 | \end{equation} | |
121 | 121 | |||
La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}. | 122 | 122 | La moyenne sans probabilité génère la nouvelle solution où la valeur de chaque composante est la moyenne calculée avec une distribution de probabilité uniforme (attribuant la même probabilité à toutes les composantes de toutes les solutions associées aux cas les plus proches du cas cible). Formellement la génération de la solution est calculée selon l'équation \ref{gen2}. | |
123 | 123 | |||
\begin{equation} | 124 | 124 | \begin{equation} | |
s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl-1} s_{i,j} | 125 | 125 | s^m_{w,j}= \frac{1}{nl} \sum_{i=0}^{nl-1} s_{i,j} | |
\label{gen2} | 126 | 126 | \label{gen2} | |
\end{equation} | 127 | 127 | \end{equation} | |
128 | 128 | |||
La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$. | 129 | 129 | La génération par valeurs médianes (équation \ref{eqgen3}) construit la solution en utilisant la valeur médiane de toutes les solutions pour chaque composante $j$. $X_j$ représente l'ensemble des valeurs ordonnées des $j$-ièmes composantes de toutes solutions $S$. | |
130 | 130 | |||
\begin{equation} | 131 | 131 | \begin{equation} | |
s_{j,w}^m= | 132 | 132 | s_{j,w}^m= | |
\begin{cases} | 133 | 133 | \begin{cases} | |
x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\ | 134 | 134 | x_{j,\frac{m+1}{2}}, \; si \; m \in \{{2k+1 : k \in \mathbb{Z}}\}\\ | |
\frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\ | 135 | 135 | \frac{x_{j,\frac{m}{2}}+x_{j,\frac{m}{2}+1}}{2}, \; sinon\\ | |
\end{cases} | 136 | 136 | \end{cases} | |
\label{eqgen3} | 137 | 137 | \label{eqgen3} | |
\end{equation} | 138 | 138 | \end{equation} | |
139 | 139 | |||
La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité. | 140 | 140 | La sélection aléatoire avec probabilité (équation \ref{eqgen4}) génère une solution en copiant la $j$-ième composante de l'une des solutions tirée au sort. Le tirage au sort suit une loi donnée par une distribution de probabilité discrète. Cette distribution de probabilité est identique à celle de la moyenne pondérée avec probabilité. | |
141 | 141 | |||
\begin{equation} | 142 | 142 | \begin{equation} | |
s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right) | 143 | 143 | s_{j,w}^m=s_{j,k}^m; k \sim \left(1-\left(\frac{d(p_k,p_w)}{\sum_{i=1}^nl(p_k,p_i)} \right)\right) | |
\label{eqgen4} | 144 | 144 | \label{eqgen4} | |
\end{equation} | 145 | 145 | \end{equation} | |
146 | 146 | |||
"Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}. | 147 | 147 | "Copie/changement" copie les informations d'une solution aléatoire et en remplace une partie par celles d'une autre solution sélectionnée aléatoirement selon l'équation \ref{eqgen5}. | |
148 | 148 | |||
\begin{equation} | 149 | 149 | \begin{equation} | |
s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) | 150 | 150 | s_{j,w}^m=s_{j,k}^m; k \sim \left(\frac{1}{nl} \right) | |
\label{eqgen5} | 151 | 151 | \label{eqgen5} | |
\end{equation} | 152 | 152 | \end{equation} | |
153 | 153 | |||
Le vote permet de copier l'information la plus fréquente de toutes (équation \ref{eqgen6}). | 154 | 154 | Le vote permet de copier l'information la plus fréquente de toutes (équation \ref{eqgen6}). | |
155 | 155 | |||
\begin{equation} | 156 | 156 | \begin{equation} | |
s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl | 157 | 157 | s_{j,w}^m=s_{j,k}^m; k=argmax_i \; \mathbb{P}(X=s_{j,i}^m), 1\le i \le nl | |
\label{eqgen6} | 158 | 158 | \label{eqgen6} | |
\end{equation} | 159 | 159 | \end{equation} | |
160 | 160 | |||
L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}. | 161 | 161 | L'interpolation construit une distribution de probabilité continue pour chaque composante $j$. Chaque probabilité de ces distributions est le résultat d'une fonction d'interpolation linéaire à une composante. La valeur de la $j$-ième composante de la solution est calculée selon l'équation \ref{eqgen7}. | |
162 | 162 | |||
\begin{equation} | 163 | 163 | \begin{equation} | |
s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl | 164 | 164 | s_{w,j}^m \sim \left( \left( \frac{y_i-y_{i+1}}{x_i-x_{i+1}} \right) (x-x_i)+y_i \right), \forall i \; 0 \le i < nl | |
\label{eqgen7} | 165 | 165 | \label{eqgen7} | |
\end{equation} | 166 | 166 | \end{equation} | |
167 | 167 | |||
L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition. | 168 | 168 | L'analyse en composantes principales (PCA) consiste à établir une transformation de la description du problème en description de la solution associée. La moyenne de la distance entre toutes les paires problème-solution est calculée et permet de générer une solution par transposition. | |
169 | 169 | |||
La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. | 170 | 170 | La PCA permet donc de générer une matrice de transformation $\mathcal{M}$ d'un vecteur de l'espace des problèmes en vecteur de l'espace des solutions. Pour chaque cas source, la distance entre le vecteur solution obtenu et le vecteur solution stocké est calculée. Une moyenne de ces distances $md$ est ensuite considérée. | |
171 | 171 | |||
L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. | 172 | 172 | L'application de $\mathcal{M}$ au vecteur problème du cas cible donne donc dans un premier temps un vecteur solution. La solution cible est alors le vecteur $md \times \mathcal{M}$. | |
173 | 173 | |||
La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $k$ (équation \ref{eqma1}) et a sa valeur est ajouté à une valeur $X_1$. La valeur de $X_1$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$ (équation \ref{eqma2}). | 174 | 174 | La marche aléatoire consiste à choisir une solution et à changer la valeur de l'une de ses composantes. Cette composante est tirée au sort et un pas $k$ (équation \ref{eqma1}) et a sa valeur est ajouté à une valeur $X_1$. La valeur de $X_1$ est générée en suivant une distribution de probabilité normale de moyenne $0$ et de variance $1$ (équation \ref{eqma2}). | |
175 | 175 | |||
\begin{equation} | 176 | 176 | \begin{equation} | |
k \sim \left(\frac{1}{nl}\right) | 177 | 177 | k \sim \left(\frac{1}{nl}\right) | |
\label{eqma1} | 178 | 178 | \label{eqma1} | |
\end{equation} | 179 | 179 | \end{equation} | |
180 | 180 | |||
\begin{equation} | 181 | 181 | \begin{equation} | |
s_{w,j}^m=\begin{cases} | 182 | 182 | s_{w,j}^m=\begin{cases} | |
s_{j,k}^m+X_1& si \; (X_2)\%2=0\\ | 183 | 183 | s_{j,k}^m+X_1& si \; (X_2)\%2=0\\ | |
s_{j,k}^m-X_1&sinon | 184 | 184 | s_{j,k}^m-X_1&sinon | |
\end{cases};X_1 \sim \mathcal{N}(0,1), X_2 \sim \mathcal{U}_{int}(0,10) | 185 | 185 | \end{cases};X_1 \sim \mathcal{N}(0,1), X_2 \sim \mathcal{U}_{int}(0,10) | |
\label{eqma2} | 186 | 186 | \label{eqma2} | |
\end{equation} | 187 | 187 | \end{equation} | |
188 | 188 | |||
\begin{figure} | 189 | 189 | \begin{figure} | |
\centering | 190 | 190 | \centering | |
\includegraphics[width=\textwidth]{./Figures/Stacking2.png} | 191 | 191 | \includegraphics[width=\textwidth]{./Figures/Stacking2.png} | |
\caption{\textit{Stacking} pour la génération de solutions} | 192 | 192 | \caption{\textit{Stacking} pour la génération de solutions} | |
\label{figSta2} | 193 | 193 | \label{figSta2} | |
\end{figure} | 194 | 194 | \end{figure} | |
195 | 195 | |||
La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième empilement. Chaque algorithme décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution. | 196 | 196 | La description des solutions $s$ et l'ensemble $(s^m)^{ng}$ sont les paramètres du deuxième empilement. Chaque algorithme décrit ci-dessus génère une solution candidate $s_{i,c}=MS_i((s^m)^{ng})$. Vient ensuite la construction de l'ensemble d'unification de toutes les solutions candidates $Y_g= \cup_{i=1}^{np} s_{i,c}$ (niveau-1). Cet ensemble est évalué à l'aide d'une fonction permettant de déterminer la qualité de la solution. | |
197 | 197 | |||
\subsubsection{Révision} | 198 | 198 | \subsubsection{Révision} | |
199 | 199 | |||
Dans cette phase, le problème de l'évaluation automatique d'une solution candidate est transformé en un problème d'optimisation, où la fonction objectif est \ref{eqOpt}. Ce problème revient à calculer la moyenne géométrique ou encore à résoudre le problème de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, résoudre ce problème revient à calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problème en deux dimensions. Sur cette figure, le point rouge représente une solution possible minimisant la somme des distances entre ce point et tous les autres points définis dans l'espace. | 200 | 200 | Dans cette phase, le problème de l'évaluation automatique d'une solution candidate est transformé en un problème d'optimisation, où la fonction objectif est \ref{eqOpt}. Ce problème revient à calculer la moyenne géométrique ou encore à résoudre le problème de "Fermat-Weber". Dans le cas d'un espace multidimensionnel, résoudre ce problème revient à calculer la moyenne spatiale \cite{doi:10.1137/23M1592420}. La figure \ref{fig:FW} montre un exemple de la formulation du problème en deux dimensions. Sur cette figure, le point rouge représente une solution possible minimisant la somme des distances entre ce point et tous les autres points définis dans l'espace. | |
201 | 201 | |||
La fonction objectif (équations \ref{eqOpt0} et \ref{eqOpt}) établit un rapport entre la distance de la solution générée $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur aléatoire de \textit{drift} d'une part, et la distance entre le problème cible $p^n_w$ et les $x$ problèmes connus $p^n_x$ d'autre part. Ici, la difficulté à trouver le point optimal réside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dépend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problème et solution) pour valider et générer l'ensemble de solutions proposées.\\ | 202 | 202 | La fonction objectif (équations \ref{eqOpt0} et \ref{eqOpt}) établit un rapport entre la distance de la solution générée $s^m_w$ et les $x$ solutions connues $s^m_x$ avec un facteur aléatoire de \textit{drift} d'une part, et la distance entre le problème cible $p^n_w$ et les $x$ problèmes connus $p^n_x$ d'autre part. Ici, la difficulté à trouver le point optimal réside dans le fait que les points de l'espace ne peuvent pas tous convenir en tant que solution cible. La solution cible finale dépend donc des informations des solutions connues. L'objectif est d'utiliser les informations disponibles de chaque cas (problème et solution) pour valider et générer l'ensemble de solutions proposées.\\ | |
203 | 203 | |||
\begin{equation} | 204 | 204 | \begin{equation} | |
\lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+X)))}{d(p_w^n,p_x^n)^2} \right); \; X \sim \mathcal{N}(0,d(p_w^n, p_x^n) | 205 | 205 | \lambda_x(p_w, s_w) = \left( \frac{d(s_w^m,(s_x^m+X)))}{d(p_w^n,p_x^n)^2} \right); \; X \sim \mathcal{N}(0,d(p_w^n, p_x^n) | |
\label{eqOpt0} | 206 | 206 | \label{eqOpt0} | |
\end{equation} | 207 | 207 | \end{equation} | |
208 | 208 | |||
\begin{equation} | 209 | 209 | \begin{equation} | |
min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right) | 210 | 210 | min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \lambda_i (p_w, s_w) \right) | |
\label{eqOpt} | 211 | 211 | \label{eqOpt} | |
\end{equation} | 212 | 212 | \end{equation} | |
213 | 213 | |||
\begin{figure}[!ht] | 214 | 214 | \begin{figure}[!ht] | |
\centering | 215 | 215 | \centering | |
\includegraphics[width=\textwidth]{Figures/FW.png} | 216 | 216 | \includegraphics[width=\textwidth]{Figures/FW.png} | |
\caption{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda_1,..,\lambda_7$) et point rouge solution au problème)} | 217 | 217 | \caption{Représentation graphique en deux dimensions du problème de moyenne géométrique. (Points associés au problème ($\lambda_1,..,\lambda_7$) et point rouge solution au problème)} | |
\label{fig:FW} | 218 | 218 | \label{fig:FW} | |
\end{figure} | 219 | 219 | \end{figure} | |
220 | 220 | |||
Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée. | 221 | 221 | Le cycle d'optimisation permet d'exécuter les phases de récupération et de réutilisation en fonction de l'action sélectionnée selon une distribution de probabilité parmi $[0,at]$ à chaque itération $it$. À chaque itération, la valeur minimale évaluée par la fonction objectif est sauvegardée. | |
222 | 222 | |||
\subsubsection{Mémorisation} | 223 | 223 | \subsubsection{Mémorisation} | |
224 | 224 | |||
L'étape de mémorisation consiste simplement à prendre la meilleure solution proposée et à déterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrée dans la base de connaissances. | 225 | 225 | L'étape de mémorisation consiste simplement à prendre la meilleure solution proposée et à déterminer s'il s'agit d'une solution nouvelle ou existante. S'il s'agit d'une nouvelle solution, elle est enregistrée dans la base de connaissances. | |
226 | 226 | |||
\subsection{Résultats} | 227 | 227 | \subsection{Résultats} | |
228 | 228 | |||
Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | 229 | 229 | Les performances de prédiction de l'algorithme proposé ont été comparées à celles de neuf autres algorithmes sur dix jeux de données classiquement utilisés pour évaluer des méthodes de régression. Ces jeux de données présentent des caractéristiques différentes. Les jeux de données et leurs caractéristiques sont consignées dans le tableau \ref{tabBases2}. Les valeurs des paramètres de l'algorithme sont les suivantes : $it=100$, $np=50$, $nl=10$ et $ng=10$. | |
230 | 230 | |||
\begin{table}[!ht] | 231 | 231 | \begin{table}[!ht] | |
\tiny | 232 | 232 | \tiny | |
\centering | 233 | 233 | \centering | |
\begin{tabular}{llccccc} | 234 | 234 | \begin{tabular}{llccccc} | |
ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\ | 235 | 235 | ID&DataSet&Features&Instances&Output Dimension&Input Domain&Output Domain\\ | |
\hline | 236 | 236 | \hline | |
DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | 237 | 237 | DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | 238 | 238 | DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 239 | 239 | DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | 240 | 240 | DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | 241 | 241 | DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 242 | 242 | DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 243 | 243 | DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 244 | 244 | DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\ | 245 | 245 | DS9&Student Performace Portuguese&30&649&3&$\mathbb{N}$&$\mathbb{N}$\\ | |
DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\ | 246 | 246 | DS10&Student Performance Math&30&395&3&$\mathbb{N}$&$\mathbb{N}$\\ | |
\end{tabular} | 247 | 247 | \end{tabular} | |
\caption{Description des jeux de données évalués} | 248 | 248 | \caption{Description des jeux de données évalués} | |
\label{tabBases2} | 249 | 249 | \label{tabBases2} | |
\end{table} | 250 | 250 | \end{table} | |
251 | 251 | |||
L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs. | 252 | 252 | L'algorithme proposé est comparé à neuf algorithmes de régression largement utilisés dans divers travaux de recherche et problèmes appliqués. La liste des algorithmes est présentée dans le tableau \ref{tabAlgs2}. Tous les algorithmes ont été exécutés cent fois, et les algorithmes qui nécessitent un entraînement et des validations croisées sont exécutés avec $k=10$ blocs. | |
253 | 253 | |||
\begin{table}[!ht] | 254 | 254 | \begin{table}[!ht] | |
\centering | 255 | 255 | \centering | |
\footnotesize | 256 | 256 | \footnotesize | |
\begin{tabular}{ll|ll} | 257 | 257 | \begin{tabular}{ll|ll} | |
ID&Algorithme&ID&Algorithme\\ | 258 | 258 | ID&Algorithme&ID&Algorithme\\ | |
\hline | 259 | 259 | \hline | |
A1&Linear Regression&A6&Polinomial Regression\\ | 260 | 260 | A1&Linear Regression&A6&Polinomial Regression\\ | |
A2&K-Nearest Neighbor&A7&Ridge Regression\\ | 261 | 261 | A2&K-Nearest Neighbor&A7&Ridge Regression\\ | |
A3&Decision Tree&A8&Lasso Regression\\ | 262 | 262 | A3&Decision Tree&A8&Lasso Regression\\ | |
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | 263 | 263 | A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | |
A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\ | 264 | 264 | A5&Multi Layer Perceptron&A10&Proposed Case Based Reasoning\\ | |
\end{tabular} | 265 | 265 | \end{tabular} | |
\caption{Liste des algorithmes évalués} | 266 | 266 | \caption{Liste des algorithmes évalués} | |
\label{tabAlgs2} | 267 | 267 | \label{tabAlgs2} | |
\end{table} | 268 | 268 | \end{table} | |
269 | 269 | |||
Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données. | 270 | 270 | Le tableau \ref{tabRes1_2} présente l'erreur quadratique moyenne (RMSE) obtenue par chaque algorithme pour chaque jeu de données. Le tableau \ref{tabRes2_2} présente l'erreur absolue médiane (MAE) obtenue par chaque algorithme pour chaque jeu de données. | |
271 | 271 | |||
\begin{table}[!ht] | 272 | 272 | \begin{table}[!ht] | |
\footnotesize | 273 | 273 | \footnotesize | |
\centering | 274 | 274 | \centering | |
\begin{tabular}{c|ccccccccccc} | 275 | 275 | \begin{tabular}{c|ccccccccccc} | |
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | 276 | 276 | Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
\hline | 277 | 277 | \hline | |
DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\ | 278 | 278 | DS1&9.010&10.780&1.224&0.982&3.369&9.009&8.985&9.629&\textbf{0.668}&5.871\\ | |
DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\ | 279 | 279 | DS2&0.022&0.025&0.020&0.012&0.017&0.022&0.022&0.037&\textbf{0.011}&0.015\\ | |
DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\ | 280 | 280 | DS3&8.633&8.033&9.334&\textbf{7.203}&8.470&8.705&8.842&9.009&7.324&8.491\\ | |
DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\ | 281 | 281 | DS4&0.651&0.746&0.782&\textbf{0.571}&0.694&0.651&0.651&0.792&0.617&0.762\\ | |
DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\ | 282 | 282 | DS5&0.753&0.806&0.820&\textbf{0.599}&0.853&0.754&0.757&0.863&0.688&0.748\\ | |
DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\ | 283 | 283 | DS6&10.439&8.871&6.144&\textbf{4.738}&6.553&10.423&10.422&10.428&5.053&8.766\\ | |
DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\ | 284 | 284 | DS7&2.948&2.116&0.541&\textbf{0.465}&3.726&2.949&2.979&4.094&0.467&1.973\\ | |
DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\ | 285 | 285 | DS8&1.315&1.161&1.513&\textbf{1.109}&1.566&1.303&1.308&1.318&1.125&2.157\\ | |
DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\ | 286 | 286 | DS9&\textbf{2.304}&2.624&3.217&2.315&2.898&\textbf{2.304}&\textbf{2.304}&2.551&2.342&2.802\\ | |
DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\ | 287 | 287 | DS10&3.052&3.404&4.158&\textbf{3.014}&3.607&3.061&3.061&3.150&3.020&3.874\\ | |
\hline | 288 | 288 | \hline | |
Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\ | 289 | 289 | Avg. Rank&5.7&6.3&7.2&2.1&6.6&5.6&5.5&8.6&1.8&5.6\\ | |
\end{tabular} | 290 | 290 | \end{tabular} | |
\caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | 291 | 291 | \caption{RMSE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | |
\label{tabRes1_2} | 292 | 292 | \label{tabRes1_2} | |
\end{table} | 293 | 293 | \end{table} | |
294 | 294 | |||
\begin{table}[!ht] | 295 | 295 | \begin{table}[!ht] | |
\footnotesize | 296 | 296 | \footnotesize | |
\centering | 297 | 297 | \centering | |
\begin{tabular}{c|ccccccccccc} | 298 | 298 | \begin{tabular}{c|ccccccccccc} | |
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | 299 | 299 | Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
\hline | 300 | 300 | \hline | |
DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\ | 301 | 301 | DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&\textbf{0.162}&1.193\\ | |
DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\ | 302 | 302 | DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&\textbf{0.007}&0.011\\ | |
DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\ | 303 | 303 | DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&\textbf{3.504}&3.90\\ | |
DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\ | 304 | 304 | DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&\textbf{0.154}\\ | |
DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\ | 305 | 305 | DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&\textbf{0.113}\\ | |
DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\ | 306 | 306 | DS6&6.989&5.709&3.134&\textbf{2.839}&4.306&6.989&6.989&6.986&3.084&5.439\\ | |
DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\ | 307 | 307 | DS7&1.393&1.372&\textbf{0.217}&0.218&2.523&1.393&1.529&2.346&0.243&1.008\\ | |
DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\ | 308 | 308 | DS8&0.549&0.297&0.365&\textbf{0.289}&0.742&0.549&0.549&0.540&0.309&0.861\\ | |
DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\ | 309 | 309 | DS9&\textbf{1.496}&1.788&2.080&1.612&2.005&\textbf{1.496}&\textbf{1.496}&1.714&1.538&1.721\\ | |
DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\ | 310 | 310 | DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&\textbf{2.258}&2.602\\ | |
\hline | 311 | 311 | \hline | |
Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\ | 312 | 312 | Avg. Rank&6.45&6.4&4.35&2.3&7.35&6.55&6.6&7.9&2.4&4.7\\ | |
\end{tabular} | 313 | 313 | \end{tabular} | |
\caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | 314 | 314 | \caption{MAE calculée sur les dix jeux de données sélectionnés obtenue après exécution des dix algorithmes de régression considérés} | |
\label{tabRes2_2} | 315 | 315 | \label{tabRes2_2} | |
\end{table} | 316 | 316 | \end{table} | |
317 | 317 | |||
La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés. | 318 | 318 | La dispersion globale, la médiane et les valeurs aberrantes pour quatre jeux de données représentatifs sont présentées sur la figure \ref{figBox2}. Nous pouvons voir que l'algorithme ESCBR proposé génère plus de valeurs aberrantes que les autres algorithmes. Ceci peut être expliqué par le fait que les algorithmes de niveau-0 de ESCBR tendent à privilégier l'exploration de l'espace des solutions. Toutefois, nous pouvons observer que ESCBR est plus stable (la variance est plus faible) et converge mieux que la plupart des autres algorithmes testés. | |
319 | 319 | |||
\begin{figure} | 320 | 320 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/boxplot.png} | 321 | 321 | \includegraphics[width=\textwidth]{./Figures/boxplot.png} | |
\caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives} | 322 | 322 | \caption{Résultats de la métrique MAE (\textit{Median Absolute Error}) pour les dix algorithmes et quatre bases de données représentatives} | |
\label{figBox2} | 323 | 323 | \label{figBox2} | |
\end{figure} | 324 | 324 | \end{figure} | |
325 | 325 | |||
\subsection{Discussion} | 326 | 326 | \subsection{Discussion} | |
327 | 327 | |||
De par ses performances, ESCBR se révèle compétitif par rapport à certains des neuf autres algorithmes testés pour la prédiction dans les problèmes de régression. En particulier, dans ce travail, nous avons effectué les tests sur dix jeux de données aux caractéristiques variées, telles que le nombre d'instances, le nombre de caractéristiques, le domaine des variables d'entrée, les dimensions de la variable de sortie et le domaine d'application. Cela démontre la polyvalence de l'algorithme proposé et son applicabilité à différentes configurations. Étant donné la nature exploratoire et stochastique d'ESCBR, il présente une grande diversité de solutions générant plusieurs valeurs aberrantes. Malgré cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois élevées, mais celles de la médiane restent faibles, la médiane atténuant les disparités. | 328 | 328 | De par ses performances, ESCBR se révèle compétitif par rapport à certains des neuf autres algorithmes testés pour la prédiction dans les problèmes de régression. En particulier, dans ce travail, nous avons effectué les tests sur dix jeux de données aux caractéristiques variées, telles que le nombre d'instances, le nombre de caractéristiques, le domaine des variables d'entrée, les dimensions de la variable de sortie et le domaine d'application. Cela démontre la polyvalence de l'algorithme proposé et son applicabilité à différentes configurations. Étant donné la nature exploratoire et stochastique d'ESCBR, il présente une grande diversité de solutions générant plusieurs valeurs aberrantes. Malgré cela, dans la plupart des cas, il est possible d'atteindre une solution approximative convergeant vers la solution optimale. Pour cette raison, les valeurs de la moyenne sont parfois élevées, mais celles de la médiane restent faibles, la médiane atténuant les disparités. | |
329 | 329 | |||
On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire). | 330 | 330 | On constate également que l'intégration des algorithmes de recherche produit de meilleurs résultats que les algorithmes simples (tels que le KNN ou la régression linéaire). | |
331 | 331 | |||
Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place. | 332 | 332 | Globalement, si l'on observe les RMSE obtenues, les algorithmes d'ensemble (\textit{Random forest} et \textit{Gradient Boosting}) sont globalement plus performants que les algorithmes classiques, même si les performances sont variables. Les performances calculées selon la RMSE classent notre algorithme ESCBR à la sixième place. En revanche, en considérant les performances mesurées selon la MAE, ESCBR est classé en première place pour trois des dix jeux de données et il se classe globalement à la troisième place. | |
333 | 333 | |||
Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique. | 334 | 334 | Un aspect important de l'algorithme proposé est la fonction objectif, qui peut être modifiée dynamiquement en fonction des caractéristiques du problème évalué. L'une des perspectives envisagées serait de modifier le fonctionnement du paramètre de \textit{drift} dans la fonction objectif en rendant sa valeur dynamique. | |
335 | 335 | |||
De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certains problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables. | 336 | 336 | De plus, ESCBR peut intégrer des algorithmes différents et des règles spécifiques à certains problèmes dans chaque empilement et, grâce à la conception en deux cycles, il peut travailler avec des problèmes dynamiques en cours d'exécution. Par ailleurs, la variance faible obtenue lors des tests sur les dix jeux de données montrent qu'ESCBR fournit des résultats stables. | |
337 | 337 | |||
\subsection{Conclusion} | 338 | 338 | \subsection{Conclusion} | |
339 | 339 | |||
Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et une technique d'empilement que nous avons baptisé ESCBR. Cet algorithme ne nécessite pas d'entraînement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\ | 340 | 340 | Ce chapitre propose une technique de régression générique utilisant le raisonnement à partir de cas et une technique d'empilement que nous avons baptisée ESCBR. Cet algorithme ne nécessite pas d'entraînement préalable et grâce au cycle itératif interne, il peut s'adapter à des problèmes dynamiques en temps réel. Les résultats numériques obtenus lors des tests effectués montrent le potentiel de l'algorithme avec des données variées et des jeux de données de différentes tailles. Les tests effectués dans cette première partie de chapitre montrent ainsi la compétitivité d'ESCBR par rapport à d'autres algorithmes standards et robustes couramment utilisés pour résoudre des problèmes de régression.\\ | |
341 | 341 | |||
\section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR} | 342 | 342 | \section{ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR} | |
343 | 343 | |||
La méthode ESCBR que nous avons proposée dans la section précédente est fondée sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposées par des processus intelligents et concurrents pour en générer une, nous nous sommes tout naturellement tournés vers la possibilité d'inclure des agents dans le processus de décision. L'une des ambitions des systèmes multi-agents consiste en effet à faire émerger une intelligence collective capable de fournir une solution. Cette section présente donc l'évolution d'ESCBR en ESCBR-SMA. | 344 | 344 | La méthode ESCBR que nous avons proposée dans la section précédente est fondée sur une technique d'apprentissage d'ensemble par empilement. Cette technique mettant en oeuvre plusieurs solutions proposées par des processus intelligents et concurrents pour en générer une, nous nous sommes tout naturellement tournés vers la possibilité d'inclure des agents dans le processus de décision. L'une des ambitions des systèmes multi-agents consiste en effet à faire émerger une intelligence collective capable de fournir une solution. Cette section présente donc l'évolution d'ESCBR en ESCBR-SMA. | |
345 | 345 | |||
\subsection{Algorithme Proposé} | 346 | 346 | \subsection{Algorithme Proposé} | |
347 | 347 | |||
L'algorithme ESCBR-SMA est fondé sur le paradigme du RàPC et incorpore divers algorithmes de recherche de voisins et de génération de solutions. Ceux-ci sont intégrés à l'aide d'une variante de la technique d'empilement en deux étapes itératives, exécutées par des agents qui exploitent indépendamment les algorithmes définis dans les conteneurs de connaissances de la révision et de la réutilisation du cycle classique du RàPC. Les agents possèdent une mémoire locale qui leur permet d'ajuster et de développer leur recherche de voisins, en générant des solutions à chaque itération. Chaque agent a un comportement individuel autorisant l'échange d'informations avec les autres agents. La figure \ref{figNCBR} décrit le processus de décision et les comportements des agents au sein du système élargi. | 348 | 348 | L'algorithme ESCBR-SMA est fondé sur le paradigme du RàPC et incorpore divers algorithmes de recherche de voisins et de génération de solutions. Ceux-ci sont intégrés à l'aide d'une variante de la technique d'empilement en deux étapes itératives, exécutées par des agents qui exploitent indépendamment les algorithmes définis dans les conteneurs de connaissances de la révision et de la réutilisation du cycle classique du RàPC. Les agents possèdent une mémoire locale qui leur permet d'ajuster et de développer leur recherche de voisins, en générant des solutions à chaque itération. Chaque agent a un comportement individuel autorisant l'échange d'informations avec les autres agents. La figure \ref{figNCBR} décrit le processus de décision et les comportements des agents au sein du système élargi. | |
349 | 349 | |||
\begin{figure}[!ht] | 350 | 350 | \begin{figure}[!ht] | |
\centering | 351 | 351 | \centering | |
\includegraphics[width=\textwidth]{Figures/NCBR.png} | 352 | 352 | \includegraphics[width=\textwidth]{Figures/NCBR.png} | |
\caption{Deux cycles du système ESCBR-SMA proposé} | 353 | 353 | \caption{Deux cycles du système ESCBR-SMA proposé} | |
\label{figNCBR} | 354 | 354 | \label{figNCBR} | |
\end{figure} | 355 | 355 | \end{figure} | |
356 | 356 | |||
Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problème au cours de la première étape puis, au cours de la seconde, génère une solution en se référant à la liste des solutions obtenues au cours de la première étape. À chaque itération, les agents peuvent choisir parmi trois comportements programmés : la recherche de problèmes voisins, la génération de solutions ou l'échange d'informations avec un autre agent. L'exécution de ces trois comportements programmés est asynchrone. En revanche, la création et la sélection de la liste des voisins se font de manière synchronisée. | 357 | 357 | Dans ESCBR-SMA, chaque agent effectue un algorithme de recherche des voisins du problème au cours de la première étape puis, au cours de la seconde, génère une solution en se référant à la liste des solutions obtenues au cours de la première étape. À chaque itération, les agents peuvent choisir parmi trois comportements programmés : la recherche de problèmes voisins, la génération de solutions ou l'échange d'informations avec un autre agent. L'exécution de ces trois comportements programmés est asynchrone. En revanche, la création et la sélection de la liste des voisins se font de manière synchronisée. | |
358 | 358 | |||
Les étapes d'extraction, de réutilisation, de révision et de conservation restent conformes au RàPC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles étapes : | 359 | 359 | Les étapes d'extraction, de réutilisation, de révision et de conservation restent conformes au RàPC conventionnel. En revanche, ESCBR-SMA comprend trois nouvelles étapes : | |
\begin{itemize} | 360 | 360 | \begin{itemize} | |
\item durant la phase de reconfiguration, les agents mettent à jour les valeurs de leurs paramètres locaux afin d'améliorer la qualité de la solution proposée lors de l'itération suivante, | 361 | 361 | \item durant la phase de reconfiguration, les agents mettent à jour les valeurs de leurs paramètres locaux afin d'améliorer la qualité de la solution proposée lors de l'itération suivante, | |
\item durant la phase d'échange, les agents échangent des informations pour améliorer leurs processus internes de recherche et de génération, | 362 | 362 | \item durant la phase d'échange, les agents échangent des informations pour améliorer leurs processus internes de recherche et de génération, | |
\item enfin, l'étape de révision met à jour les valeurs des paramètres globaux de l'algorithme. | 363 | 363 | \item enfin, l'étape de révision met à jour les valeurs des paramètres globaux de l'algorithme. | |
\end{itemize} | 364 | 364 | \end{itemize} | |
365 | 365 | |||
Le flux complet de l'algorithme proposé est décrit sur la figure \ref{figFlowCBR}. | 366 | 366 | Le flux complet de l'algorithme proposé est décrit sur la figure \ref{figFlowCBR}. | |
367 | 367 | |||
En premier lieu, ESCBR-SMA crée $n$ agents. Lors de l'initialisation, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, et initialisent également les vecteurs bayésiens correspondants. Tous les agents travaillent avec le même ensemble de données. | 368 | 368 | En premier lieu, ESCBR-SMA crée $n$ agents. Lors de l'initialisation, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, et initialisent également les vecteurs bayésiens correspondants. Tous les agents travaillent avec le même ensemble de données. | |
369 | 369 | |||
Les agents exécutent en parallèle l'algorithme de récupération sélectionné, à partir des problèmes similaires trouvés ; chaque agent extrait les solutions et exécute l'algorithme spécifique de génération d'une nouvelle solution. | 370 | 370 | Les agents exécutent en parallèle l'algorithme de récupération sélectionné, à partir des problèmes similaires trouvés ; chaque agent extrait les solutions et exécute l'algorithme spécifique de génération d'une nouvelle solution. | |
Toutes les solutions proposées par les agents sont évaluées à l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvée à ce stade. | 371 | 371 | Toutes les solutions proposées par les agents sont évaluées à l'aide d'une fonction objectif : la solution qui minimise la fonction objectif est la meilleure solution trouvée à ce stade. | |
372 | 372 | |||
Au cours de l'étape suivante, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, puis ils mettent à jour les vecteurs bayésiens en fonction des résultats obtenus avec la fonction objectif. | 373 | 373 | Au cours de l'étape suivante, les agents sélectionnent au hasard un algorithme de récupération et un algorithme de réutilisation, puis ils mettent à jour les vecteurs bayésiens en fonction des résultats obtenus avec la fonction objectif. | |
374 | 374 | |||
Lors de l'itération suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de récupération et de réutilisation, ne changer que l'algorithme de réutilisation ou échanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit aléatoirement une action pour tenter d'améliorer la solution candidate. | 375 | 375 | Lors de l'itération suivante, chaque agent peut choisir l'une des trois actions possibles : changer les algorithmes de récupération et de réutilisation, ne changer que l'algorithme de réutilisation ou échanger des informations avec un autre agent choisi au hasard. De plus, l'agent choisit aléatoirement une action pour tenter d'améliorer la solution candidate. | |
376 | 376 | |||
ESCBR-SMA utilise l'ensemble des variables et paramètres du tableau \ref{tabVarPar} ainsi que ceux consignés dans le tableau \ref{tabVarPar2}. Le système multi-agents est composé d'un nombre variable d'agents, tous homogènes mais dotés de processus cognitifs internes indépendants et stochastiques. | 377 | 377 | ESCBR-SMA utilise l'ensemble des variables et paramètres du tableau \ref{tabVarPar} ainsi que ceux consignés dans le tableau \ref{tabVarPar2}. Le système multi-agents est composé d'un nombre variable d'agents, tous homogènes mais dotés de processus cognitifs internes indépendants et stochastiques. | |
378 | 378 | |||
\begin{figure}[!ht] | 379 | 379 | \begin{figure}[!ht] | |
\centering | 380 | 380 | \centering | |
\includegraphics[scale=0.6]{Figures/FlowCBR.png} | 381 | 381 | \includegraphics[scale=0.6]{Figures/FlowCBR.png} | |
\caption{Flux du \textit{Stacking} du RàPC (* : tâche effectuée par chaque agent)} | 382 | 382 | \caption{Flux du \textit{Stacking} du RàPC (* : tâche effectuée par chaque agent)} | |
\label{figFlowCBR} | 383 | 383 | \label{figFlowCBR} | |
\end{figure} | 384 | 384 | \end{figure} | |
385 | 385 | |||
\begin{table}[!ht] | 386 | 386 | \begin{table}[!ht] | |
\footnotesize | 387 | 387 | \footnotesize | |
\centering | 388 | 388 | \centering | |
\begin{tabular}{cccc} | 389 | 389 | \begin{tabular}{cccc} | |
ID&Type&Description&Domain\\ | 390 | 390 | ID&Type&Description&Domain\\ | |
\hline | 391 | 391 | \hline | |
$p_w$&v&Description du nouveau problème&$\mathbb{R} ^ n$\\ | 392 | 392 | $p_w$&v&Description du nouveau problème&$\mathbb{R} ^ n$\\ | |
$s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\ | 393 | 393 | $s_w$&v&Description de la nouvelle solution&$\mathbb{R} ^ m$\\ | |
$n_{rt}$&v&Nombre d'algorithmes pour l'étape de retrouver&$\mathbb{Z}$\\ | 394 | 394 | $n_{rt}$&v&Nombre d'algorithmes pour l'étape de retrouver&$\mathbb{Z}$\\ | |
$n_{rs}$&v&Nombre d'algorithmes de réutilisation&$\mathbb{Z}$\\ | 395 | 395 | $n_{rs}$&v&Nombre d'algorithmes de réutilisation&$\mathbb{Z}$\\ | |
$rn(x,y)$&f& | 396 | 396 | $rn(x,y)$&f& | |
397 | 397 | |||
\begin{tabular}{@{}c@{}}Valeur aléatoire avec distribution normale\\ $x$ moyenne, $y$ écart-type | 398 | 398 | \begin{tabular}{@{}c@{}}Valeur aléatoire avec distribution normale\\ $x$ moyenne, $y$ écart-type | |
\end{tabular} | 399 | 399 | \end{tabular} | |
400 | 400 | |||
&$\mathbb{R}_+$\\ | 401 | 401 | &$\mathbb{R}_+$\\ | |
$rnp(x,y)$&f& | 402 | 402 | $rnp(x,y)$&f& | |
403 | 403 | |||
\begin{tabular}{@{}c@{}}Valeur aléatoire discrète, $x$ nombre d'options \\ $y$ vecteur discret de probabilités | 404 | 404 | \begin{tabular}{@{}c@{}}Valeur aléatoire discrète, $x$ nombre d'options \\ $y$ vecteur discret de probabilités | |
\end{tabular} | 405 | 405 | \end{tabular} | |
&$\mathbb{Z}$\\ | 406 | 406 | &$\mathbb{Z}$\\ | |
\end{tabular} | 407 | 407 | \end{tabular} | |
\caption{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)} | 408 | 408 | \caption{Variables et paramètres supplémentaires du ESCBR-SMA (Type: p - paramètre, v - variable, f - fonction)} | |
\label{tabVarPar2} | 409 | 409 | \label{tabVarPar2} | |
\end{table} | 410 | 410 | \end{table} | |
411 | 411 | |||
\subsubsection{Algorithmes} | 412 | 412 | \subsubsection{Algorithmes suivis par ESCBR-SMA} | |
413 | 413 | |||
Cette section présente de manière plus détaillée les comportements des agents d'ESCBR-SMA. | 414 | 414 | Cette section présente de manière plus détaillée les comportements des agents d'ESCBR-SMA. | |
415 | 415 | |||
Lors de la première étape de l'empilement, chaque agent peut sélectionner l'un des algorithmes suivants pour rechercher des problèmes similaires au problème cible : KNN (\textit{K-Nearest Neighbor}), \textit{KMeans}, GMM (\textit{Gaussian Mixture Model}), \textit{FuzzyC} et KNN pondéré. | 416 | 416 | Lors de la première étape de l'empilement, chaque agent peut sélectionner l'un des algorithmes suivants pour rechercher des problèmes similaires au problème cible : KNN (\textit{K-Nearest Neighbor}), \textit{KMeans}, GMM (\textit{Gaussian Mixture Model}), \textit{FuzzyC} et KNN pondéré. | |
417 | 417 | |||
Lors de la deuxième étape de l'empilement, les agents peuvent choisir un algorithme parmi les algorithmes explicités dans la section 6.2.1.2. | 418 | 418 | Lors de la deuxième étape de l'empilement, les agents peuvent choisir un algorithme parmi les algorithmes explicités dans la section \ref{Ssec:ReutiliserESCBR}. | |
419 | 419 | |||
\subsubsection{Structure des agents} | 420 | 420 | \subsubsection{Structure des agents} | |
421 | 421 | |||
Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'adopter un comportement indépendant et différent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nécessaires à l'exécution de l'ensemble du processus. | 422 | 422 | Tous les agents ont une structure similaire, mais chaque agent suit un processus cognitif individuel qui lui permet d'adopter un comportement indépendant et différent de tous les autres. La figure \ref{figAgent} montre les actions et les variables nécessaires à l'exécution de l'ensemble du processus. | |
423 | 423 | |||
Chaque agent peut exécuter trois actions différentes : | 424 | 424 | Chaque agent peut exécuter trois actions différentes : | |
\begin{itemize} | 425 | 425 | \begin{itemize} | |
\item « Récupérer et réutiliser », | 426 | 426 | \item « Récupérer et réutiliser », | |
\item « Réutiliser » et | 427 | 427 | \item « Réutiliser » et | |
\item « Échanger ». | 428 | 428 | \item « Échanger ». | |
\end{itemize} | 429 | 429 | \end{itemize} | |
430 | 430 | |||
Chaque agent accède aux valeurs de huit variables qui lui sont propres : | 431 | 431 | Chaque agent accède aux valeurs de huit variables qui lui sont propres : | |
\begin{itemize} | 432 | 432 | \begin{itemize} | |
\item le nombre de voisins définissant le nombre de problèmes similaires au nouveau problème posé que l'agent doit rechercher dans la base de connaissances, | 433 | 433 | \item le nombre de voisins définissant le nombre de problèmes similaires au nouveau problème posé que l'agent doit rechercher dans la base de connaissances, | |
\item la liste des voisins les plus proches consigne les agents avec lesquels des informations peuvent être échangées, | 434 | 434 | \item la liste des voisins les plus proches consigne les agents avec lesquels des informations peuvent être échangées, | |
\item l'identifiant de l'algorithme de récupération que l'agent exécutera pour trouver les problèmes similaires au problème cible, | 435 | 435 | \item l'identifiant de l'algorithme de récupération que l'agent exécutera pour trouver les problèmes similaires au problème cible, | |
\item l'identifiant de l'algorithme de réutilisation que l'agent exécutera pour générer une solution candidate au cas cible, | 436 | 436 | \item l'identifiant de l'algorithme de réutilisation que l'agent exécutera pour générer une solution candidate au cas cible, | |
\item la description de la solution générée, | 437 | 437 | \item la description de la solution générée, | |
\item l'évaluation de la solution renseignant sur la qualité de la solution générée et calculée selon une fonction d'optimisation (équations \ref{eqOpt1} et \ref{eqOpt2}), | 438 | 438 | \item l'évaluation de la solution renseignant sur la qualité de la solution générée et calculée selon une fonction d'optimisation (équations \ref{eqOpt1} et \ref{eqOpt2}), | |
\item le vecteur bayésien nécessaire aux algorithmes de récupération contenant les valeurs de probabilité, et | 439 | 439 | \item le vecteur bayésien nécessaire aux algorithmes de récupération contenant les valeurs de probabilité, et | |
\item le vecteur bayésien nécessaire aux algorithmes de réutilisation contenant les valeurs de probabilité. | 440 | 440 | \item le vecteur bayésien nécessaire aux algorithmes de réutilisation contenant les valeurs de probabilité. | |
\end{itemize} | 441 | 441 | \end{itemize} | |
442 | 442 | |||
\begin{equation} | 443 | 443 | \begin{equation} | |
min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right) | 444 | 444 | min \; \left( f_s(p_w^n, s_w^m) \right) = min \left( \sum_{i=1}^{ng} \frac{d(s_w^m,s_i^t)}{d(p_w^n,p_i^n)^2} \right) | |
\label{eqOpt1} | 445 | 445 | \label{eqOpt1} | |
\end{equation} | 446 | 446 | \end{equation} | |
447 | 447 | |||
\begin{equation} | 448 | 448 | \begin{equation} | |
s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n)) | 449 | 449 | s_i^t=s_i^m+rn(0,d(p_w^n,p_i^n)) | |
\label{eqOpt2} | 450 | 450 | \label{eqOpt2} | |
\end{equation} | 451 | 451 | \end{equation} | |
452 | 452 | |||
\begin{figure}[!ht] | 453 | 453 | \begin{figure}[!ht] | |
\centering | 454 | 454 | \centering | |
\includegraphics[scale=0.7]{Figures/agent.png} | 455 | 455 | \includegraphics[scale=0.7]{Figures/agent.png} | |
\caption{Structure interne des agents} | 456 | 456 | \caption{Structure interne des agents} | |
\label{figAgent} | 457 | 457 | \label{figAgent} | |
\end{figure} | 458 | 458 | \end{figure} | |
459 | 459 | |||
\subsubsection{Apprentissage des agents} | 460 | 460 | \subsubsection{Apprentissage des agents} | |
461 | 461 | |||
Tous les agents considèrent un vecteur bayésien de probabilité pour la phase de récupération (conteneur $C3$ de la figure \ref{figNCBR}) et un vecteur bayésien de probabilité pour la phase de réutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurés avec une probabilité uniforme pour tous les algorithmes de récupération et de réutilisation (probabilité \textit{a priori}). À chaque itération, les vecteurs sont mis à jour selon l'équation bayésienne \ref{eqBay} en utilisant les meilleurs résultats du même agent comme paramètre de vraisemblance. L'agent apprend ainsi de son expérience et sélectionne les algorithmes les plus aptes à fournir les meilleures réponses au regard de l'objectif défini. | 462 | 462 | Tous les agents considèrent un vecteur bayésien de probabilité pour la phase de récupération (conteneur $C3$ de la figure \ref{figNCBR}) et un vecteur bayésien de probabilité pour la phase de réutilisation (conteneur $C2$). Initialement, ces vecteurs sont configurés avec une probabilité uniforme pour tous les algorithmes de récupération et de réutilisation (probabilité \textit{a priori}). À chaque itération, les vecteurs sont mis à jour selon l'équation bayésienne \ref{eqBay} en utilisant les meilleurs résultats du même agent comme paramètre de vraisemblance. L'agent apprend ainsi de son expérience et sélectionne les algorithmes les plus aptes à fournir les meilleures réponses au regard de l'objectif défini. | |
463 | 463 | |||
Par conséquent, d'un point de vue plus global au niveau du SMA, l'apprentissage est fondé sur un raisonnement bayésien où les vecteurs de récupération et de réutilisation évoluent. Un exemple d'évolution est présenté sur la figure \ref{fig:bayev}. Au cours d'une itération, si un algorithme a contribué à la construction de la meilleure solution, il reçoit un point pour chaque agent qui l'a utilisé. Ces informations sont stockées dans un vecteur normalisé qui est ensuite utilisé comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilités dans l'équation bayésienne \ref{eqBay} (dans cette équation, $P(B)$ est le terme de normalisation global). | 464 | 464 | Par conséquent, d'un point de vue plus global au niveau du SMA, l'apprentissage est fondé sur un raisonnement bayésien où les vecteurs de récupération et de réutilisation évoluent. Un exemple d'évolution est présenté sur la figure \ref{fig:bayev}. Au cours d'une itération, si un algorithme a contribué à la construction de la meilleure solution, il reçoit un point pour chaque agent qui l'a utilisé. Ces informations sont stockées dans un vecteur normalisé qui est ensuite utilisé comme vecteur de vraisemblance $P(A)$ pour calculer les nouvelles probabilités dans l'équation bayésienne \ref{eqBay} (dans cette équation, $P(B)$ est le terme de normalisation global). | |
465 | 465 | |||
\begin{figure} | 466 | 466 | \begin{figure} | |
\centering | 467 | 467 | \centering | |
\includegraphics[scale=0.5]{Figures/BayesianEvolution.png} | 468 | 468 | \includegraphics[scale=0.5]{Figures/BayesianEvolution.png} | |
\caption{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser} | 469 | 469 | \caption{Exemple d'évolution bayésienne des vecteurs pour un agent. a) Initialisation des probabilités $P(B|A)$ vecteurs pour rechercher et réutiliser, b) Probabilités après quelques itérations $P(A|B)$ vecteurs pour rechercher et réutiliser} | |
\label{fig:bayev} | 470 | 470 | \label{fig:bayev} | |
\end{figure} | 471 | 471 | \end{figure} | |
472 | 472 | |||
\begin{equation} | 473 | 473 | \begin{equation} | |
P(A|B)=\frac{P(B|A)P(A)}{P(B)} | 474 | 474 | P(A|B)=\frac{P(B|A)P(A)}{P(B)} | |
\label{eqBay} | 475 | 475 | \label{eqBay} | |
\end{equation} | 476 | 476 | \end{equation} | |
477 | 477 | |||
La fonction $rnp$ de l'équation \ref{eqRta} choisit l'algorithme de recherche $a_{rt}$ de l'étape $rt$. | 478 | 478 | La fonction $rnp$ de l'équation \ref{eqRta} choisit l'algorithme de recherche $a_{rt}$ de l'étape $rt$. | |
Cette fonction prend en paramètres l'ensemble des algorithmes possibles $n_{rt}$ et une probabilité associée $P(A|B)_{rt}$. $P(A|B)_{rt}$ représente la probabilité que l'algorithme de recherche associé fournisse la solution optimale à l'étape $rt$. | 479 | 479 | Cette fonction prend en paramètres l'ensemble des algorithmes possibles $n_{rt}$ et une probabilité associée $P(A|B)_{rt}$. $P(A|B)_{rt}$ représente la probabilité que l'algorithme de recherche associé fournisse la solution optimale à l'étape $rt$. | |
480 | 480 | |||
\begin{equation} | 481 | 481 | \begin{equation} | |
a_{rt}=rnp(n_{rt},P(A|B)_{rt}) | 482 | 482 | a_{rt}=rnp(n_{rt},P(A|B)_{rt}) | |
\label{eqRta} | 483 | 483 | \label{eqRta} | |
\end{equation} | 484 | 484 | \end{equation} | |
485 | 485 | |||
La fonction $rnp$ est de nouveau utilisée pour choisir l'algorithme de réutilisation $a_{rs}$ (équation \ref{eqRsa}). | 486 | 486 | La fonction $rnp$ est de nouveau utilisée pour choisir l'algorithme de réutilisation $a_{rs}$ (équation \ref{eqRsa}). | |
487 | 487 | |||
\begin{equation} | 488 | 488 | \begin{equation} | |
a_{rs}=rnp(n_{rs},P(A|B)_{rs}) | 489 | 489 | a_{rs}=rnp(n_{rs},P(A|B)_{rs}) | |
\label{eqRsa} | 490 | 490 | \label{eqRsa} | |
\end{equation} | 491 | 491 | \end{equation} | |
492 | 492 | |||
Le processus d'apprentissage est réalisé individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents échangent les informations qu'ils ont calculées, les optimisations locales qu'ils ont réalisées, ainsi que les algorithmes et les paramètres qu'ils ont utilisés. | 493 | 493 | Le processus d'apprentissage est réalisé individuellement par chaque agent, mais comporte un aspect collaboratif puisque les agents échangent les informations qu'ils ont calculées, les optimisations locales qu'ils ont réalisées, ainsi que les algorithmes et les paramètres qu'ils ont utilisés. | |
494 | 494 | |||
\subsubsection{Échanges entre les agents} | 495 | 495 | \subsubsection{Échanges entre les agents} | |
496 | 496 | |||
Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itération en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramètres menant aux meilleurs résultats et d'effectuer des actions rétrospectivement. Les informations modifiables sont choisies aléatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de récupération, de l'algorithme de réutilisation ou même des vecteurs bayésiens. | 497 | 497 | Un agent peut modifier ses informations et leur affecter les valeurs de celles d'un voisin au cours de chaque itération en choisissant au hasard un voisin dans sa liste de voisins les plus proches. L'ensemble de ces changements permet de propager les paramètres menant aux meilleurs résultats et d'effectuer des actions rétrospectivement. Les informations modifiables sont choisies aléatoirement : il peut s'agir du nombre de voisins, de la liste des voisins les plus proches, de l'algorithme de récupération, de l'algorithme de réutilisation ou même des vecteurs bayésiens. | |
498 | 498 | |||
\subsection{Résultats} | 499 | 499 | \subsection{Résultats} | |
500 | 500 | |||
Des expérimentations sur onze jeux de données relatifs à des problèmes de régression et présentant des caractéristiques différentes ont été réalisées. Les jeux de données et leurs caractéristiques sont consignés dans le tableau \ref{tabBases}. Les valeurs des paramètres d'ESCBR-SMA sont les suivantes : $it=100$ itérations, $np=50$ agents, $nl=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-0} et $ng=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-1}. | 501 | 501 | Des expérimentations sur onze jeux de données relatifs à des problèmes de régression et présentant des caractéristiques différentes ont été réalisées. Les jeux de données et leurs caractéristiques sont consignés dans le tableau \ref{tabBases}. Les valeurs des paramètres d'ESCBR-SMA sont les suivantes : $it=100$ itérations, $np=50$ agents, $nl=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-0} et $ng=10$ voisins par agent au maximum lors de l'étape de \textit{niveau-1}. | |
502 | 502 | |||
Le tableau \ref{AlgsPar} présente les valeurs des paramètres de tous les autres algorithmes. | 503 | 503 | Le tableau \ref{AlgsPar} présente les valeurs des paramètres de tous les autres algorithmes. | |
504 | 504 | |||
\begin{table}[!ht] | 505 | 505 | \begin{table}[!ht] | |
\scriptsize | 506 | 506 | \scriptsize | |
\centering | 507 | 507 | \centering | |
\begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}} | 508 | 508 | \begin{tabular}{llccp{1.4cm}p{1.2cm}p{1.2cm}} | |
ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\ | 509 | 509 | ID&DataSet&Features&Instances&Output. Dimension&Input. Domain&Output Domain\\ | |
\hline | 510 | 510 | \hline | |
DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | 511 | 511 | DS1&Yatch Hydrodynamics&6&308&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | 512 | 512 | DS2&Electrical Grid Stability&12&10000&1&$\mathbb{R}$&$\mathbb{R}$\\ | |
DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 513 | 513 | DS3&Real State Valuation&6&414&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | 514 | 514 | DS4&Wine Quality (Red)&11&1598&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | 515 | 515 | DS5&Wine Quality (White)&11&4897&1&$\mathbb{R_+}$&$\mathbb{N}$\\ | |
DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 516 | 516 | DS6&Concrete Compressive Strength&8&1030&1&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 517 | 517 | DS7&Energy Efficiency&8&768&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | 518 | 518 | DS8&Gas Turbine CO, NOx Emission (2015)&9&7384&2&$\mathbb{R_+}$&$\mathbb{R_+}$\\ | |
DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ | 519 | 519 | DS9&Student Performace Portuguese&30&649&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ | 520 | 520 | DS10&Student Performance Math&30&395&3&$\mathbb{N*}$&$\mathbb{N}$\\ | |
DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\ | 521 | 521 | DS11&Generated Student Performance&5&1000&1&$\mathbb{R}_+$&$\mathbb{R}_+$\\ | |
\end{tabular} | 522 | 522 | \end{tabular} | |
\caption{Description des jeux de données évalués.} | 523 | 523 | \caption{Description des jeux de données évalués.} | |
\label{tabBases} | 524 | 524 | \label{tabBases} | |
\end{table} | 525 | 525 | \end{table} | |
526 | 526 | |||
\begin{table}[!ht] | 527 | 527 | \begin{table}[!ht] | |
\centering | 528 | 528 | \centering | |
\begin{tabular}{ccc|ccc} | 529 | 529 | \begin{tabular}{ccc|ccc} | |
ID&Parameter&Value&ID&Parameter&Value\\ | 530 | 530 | ID&Parameter&Value&ID&Parameter&Value\\ | |
\hline | 531 | 531 | \hline | |
A1&Intercept&True&A6&Degree&4\\ | 532 | 532 | A1&Intercept&True&A6&Degree&4\\ | |
&Positive&True&&Bias&True\\ | 533 | 533 | &Positive&True&&Bias&True\\ | |
\hline | 534 | 534 | \hline | |
A2&Neighbors&5&A7&Fit Intercept&True\\ | 535 | 535 | A2&Neighbors&5&A7&Fit Intercept&True\\ | |
&Weights&Uniform&&alpha&0.2\\ | 536 | 536 | &Weights&Uniform&&alpha&0.2\\ | |
&Metric&Minkowsky&&tol&1e-4\\ | 537 | 537 | &Metric&Minkowsky&&tol&1e-4\\ | |
&Power Minkowsky&2\\ | 538 | 538 | &Power Minkowsky&2\\ | |
\hline | 539 | 539 | \hline | |
A3&Error&Squared Error&A8&Fit Intercept&True\\ | 540 | 540 | A3&Error&Squared Error&A8&Fit Intercept&True\\ | |
&Min samples split&2&&alpha&[0.00001, 0.4]\\ | 541 | 541 | &Min samples split&2&&alpha&[0.00001, 0.4]\\ | |
&&&&Max iter&1000\\ | 542 | 542 | &&&&Max iter&1000\\ | |
&&&&tol&1e-4\\ | 543 | 543 | &&&&tol&1e-4\\ | |
\hline | 544 | 544 | \hline | |
A4&Estimators&10&A9&Error&Squarred Error\\ | 545 | 545 | A4&Estimators&10&A9&Error&Squarred Error\\ | |
&Error&Squared Error&&Learning Rate&0.1\\ | 546 | 546 | &Error&Squared Error&&Learning Rate&0.1\\ | |
&Min samples split&2&&Estimators&100\\ | 547 | 547 | &Min samples split&2&&Estimators&100\\ | |
&Bootstrap&True&&Min Split&2\\ | 548 | 548 | &Bootstrap&True&&Min Split&2\\ | |
\hline | 549 | 549 | \hline | |
A5&Hidden Layers&100\\ | 550 | 550 | A5&Hidden Layers&100\\ | |
&Activation&Relu\\ | 551 | 551 | &Activation&Relu\\ | |
&Solver&Adam\\ | 552 | 552 | &Solver&Adam\\ | |
&alpha&0.0001\\ | 553 | 553 | &alpha&0.0001\\ | |
&Learning Rate&0.001\\ | 554 | 554 | &Learning Rate&0.001\\ | |
&Max Iter&200\\ | 555 | 555 | &Max Iter&200\\ | |
&beta1&0.9\\ | 556 | 556 | &beta1&0.9\\ | |
&beta2&0.999\\ | 557 | 557 | &beta2&0.999\\ | |
&epsilon&1e-8\\ | 558 | 558 | &epsilon&1e-8\\ | |
\end{tabular} | 559 | 559 | \end{tabular} | |
\caption{Paramètres de tous les algorithmes comparés} | 560 | 560 | \caption{Paramètres de tous les algorithmes comparés} | |
\label{AlgsPar} | 561 | 561 | \label{AlgsPar} | |
\end{table} | 562 | 562 | \end{table} | |
563 | 563 | |||
\begin{table}[!ht] | 564 | 564 | \begin{table}[!ht] | |
\scriptsize | 565 | 565 | \scriptsize | |
\centering | 566 | 566 | \centering | |
\begin{tabular}{c|ccccccccccc} | 567 | 567 | \begin{tabular}{c|ccccccccccc} | |
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\ | 568 | 568 | Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\ | |
\hline | 569 | 569 | \hline | |
DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&5.871&4.777\\ | 570 | 570 | DS1&9.081&12.301&1.228&1.066&7.763&9.081&9.078&9.764&0.750&5.871&4.777\\ | |
DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.015&0.015\\DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.491&7.991\\ | 571 | 571 | DS2&0.022&0.025&0.019&0.013&0.017&0.022&0.022&0.037&0.011&0.015&0.015\\DS3&8.756&8.465&9.656&7.665&8.716&8.756&9.005&9.177&7.369&8.491&7.991\\ | |
DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.762&0.607\\ | 572 | 572 | DS4&0.647&0.752&0.794&0.602&0.688&0.647&0.646&0.798&0.616&0.762&0.607\\ | |
DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.748&0.662\\ | 573 | 573 | DS5&0.767&0.824&0.877&0.66&0.826&0.767&0.775&0.87&0.703&0.748&0.662\\ | |
DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&8.766&9.070\\ | 574 | 574 | DS6&10.525&9.174&6.93&5.372&6.662&10.525&10.525&10.527&5.131&8.766&9.070\\ | |
DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&1.973&2.424\\ | 575 | 575 | DS7&2.961&2.451&0.589&0.528&3.955&2.961&3.009&4.083&0.490&1.973&2.424\\ | |
DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.157&2.553\\ | 576 | 576 | DS8&1.298&1.125&1.360&1.197&1.486&1.298&1.298&1.306&1.128&2.157&2.553\\ | |
DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.802&2.468\\ | 577 | 577 | DS9&2.256&2.565&3.174&2.377&2.817&2.256&2.255&2.468&2.293&2.802&2.468\\ | |
DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.874&3.621\\ | 578 | 578 | DS10&3.136&3.415&4.173&3.165&3.710&3.136&3.135&3.161&3.108&3.874&3.621\\ | |
DS11&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681& | 579 | 579 | DS11&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681& | |
0.541&0.55&0.54\\ | 580 | 580 | 0.541&0.55&0.54\\ | |
\hline | 581 | 581 | \hline | |
Avg. Rank&6.32&6.73&8.09&2.73&7.27&6.45&6.32&9.36&1.82&6.14&4.77\\ | 582 | 582 | Avg. Rank&6.32&6.73&8.09&2.73&7.27&6.45&6.32&9.36&1.82&6.14&4.77\\ | |
\end{tabular} | 583 | 583 | \end{tabular} | |
\caption{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.} | 584 | 584 | \caption{Résultats selon la métrique RMSE (Root Mean Squared Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.} | |
\label{tabRes1} | 585 | 585 | \label{tabRes1} | |
\end{table} | 586 | 586 | \end{table} | |
587 | 587 | |||
\begin{table}[!ht] | 588 | 588 | \begin{table}[!ht] | |
\scriptsize | 589 | 589 | \scriptsize | |
\centering | 590 | 590 | \centering | |
\begin{tabular}{c|ccccccccccc} | 591 | 591 | \begin{tabular}{c|ccccccccccc} | |
Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\ | 592 | 592 | Dataset&A1&A2&A3&A4&A5&A6&A7&A8&A9&A10&A11\\ | |
\hline | 593 | 593 | \hline | |
DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.1\\ | 594 | 594 | DS1&6.776&2.385&0.231&0.207&3.632&6.778&6.307&5.186&0.162&1.193&1.1\\ | |
DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\ | 595 | 595 | DS2&0.015&0.017&0.012&0.008&0.012&0.015&0.015&0.030&0.007&0.011&0.010\\ | |
DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.9&3.771\\ | 596 | 596 | DS3&5.092&4.320&4.1&3.632&4.435&5.092&5.20&5.132&3.504&3.9&3.771\\ | |
DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\ | 597 | 597 | DS4&0.413&0.495&0.18&0.325&0.451&0.413&0.412&0.544&0.387&0.154&0.135\\ | |
DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\ | 598 | 598 | DS5&0.509&0.548&0.285&0.374&0.550&0.509&0.509&0.633&0.456&0.113&0.085\\ | |
DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\ | 599 | 599 | DS6&6.989&5.709&3.134&2.839&4.306&6.989&6.989&6.986&3.084&5.439&5.072\\ | |
DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\ | 600 | 600 | DS7&1.393&1.372&0.217&0.218&2.523&1.393&1.529&2.346&0.243&1.008&1.006\\ | |
DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\ | 601 | 601 | DS8&0.549&0.297&0.365&0.289&0.742&0.549&0.549&0.540&0.309&0.861&0.794\\ | |
DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\ | 602 | 602 | DS9&1.496&1.788&2.080&1.612&2.005&1.496&1.496&1.714&1.538&1.721&1.556\\ | |
DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\ | 603 | 603 | DS10&2.344&2.534&2.910&2.331&2.543&2.344&2.344&2.481&2.258&2.602&2.371\\ | |
DS11&0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453& | 604 | 604 | DS11&0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453& | |
0.327&0.35&0.347\\ | 605 | 605 | 0.327&0.35&0.347\\ | |
\hline | 606 | 606 | \hline | |
Avg. Rank&7.22&7.05&5.5&2.55&7.95&7.32&7.36&8.90&2.45 | 607 | 607 | Avg. Rank&7.22&7.05&5.5&2.55&7.95&7.32&7.36&8.90&2.45 | |
&5.51&4.72\\ | 608 | 608 | &5.51&4.72\\ | |
\end{tabular} | 609 | 609 | \end{tabular} | |
\caption{Comparaison des résultats MAE (Median Absolute Error) pour les bases de données évaluées avec des algorithmes de régression} | 610 | 610 | \caption{Comparaison des résultats MAE (Median Absolute Error) pour les jeux de données évalués avec les différents algorithmes de régression considérés.} | |
\label{tabRes2} | 611 | 611 | \label{tabRes2} | |
\end{table} | 612 | 612 | \end{table} | |
613 | 613 | |||
Les tableaux \ref{tabRes1} et \ref{tabRes2} présentent respectivement les RMSE et les MAE obtenues pour chaque jeu de données et chaque algorithme testé. | 614 | 614 | Les tableaux \ref{tabRes1} et \ref{tabRes2} présentent respectivement les RMSE et les MAE obtenues pour chaque jeu de données et chaque algorithme testé. | |
615 | 615 | |||
La figure \ref{figBox} représente graphiquement la dispersion globale, la médiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA génère parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est très faible. De plus, la convergence est proche de la valeur réelle et même meilleure que celle de la plupart des autres algorithmes testés. Il est également possible de remarquer que les valeurs aberrantes sont plus nombreuses que les valeurs réelles. | 616 | 616 | La figure \ref{figBox} représente graphiquement la dispersion globale, la médiane et les valeurs aberrantes obtenues durant ces tests. Cette figure montre qu'ESCBR-SMA génère parfois plus de valeurs aberrantes que d'autres algorithmes. Toutefois, la variance est très faible. De plus, la convergence est proche de la valeur réelle et même meilleure que celle de la plupart des autres algorithmes testés. Il est également possible de remarquer que les valeurs aberrantes sont plus nombreuses que les valeurs réelles. | |
617 | 617 | |||
\begin{figure}[!ht] | 618 | 618 | \begin{figure}[!ht] | |
\includegraphics[width=\textwidth]{Figures/boxplot2.png} | 619 | 619 | \includegraphics[width=\textwidth]{Figures/boxplot2.png} | |
\caption{Résultats selon la métrique MAE (Median Absolute Error) pour les dix algorithmes testés} | 620 | 620 | \caption{Erreurs médianes absolues (MAE - Median Absolute Error) obtenues pour les dix algorithmes testés.} | |
\label{figBox} | 621 | 621 | \label{figBox} | |
\end{figure} | 622 | 622 | \end{figure} | |
623 | 623 | |||
Les résultats montrent que l'algorithme ESCBR-SMA est compétitif pour la plupart des jeux de données considérés dans cette étude. Il obtient en effet les meilleurs résultats sur $DS2$, $DS4$, $DS5$ et $DS9$. Globalement, ESCBR-SMA est le troisième meilleur algorithme. Ses performances sont donc comparables à celles des autres algorithmes d'ensemble testés. Par rapport à ESCBR, une amélioration des résultats et une réduction de la variance ont été obtenues, démontrant ainsi que les systèmes multi-agents et le raisonnement stochastique bayésien contribuent à l'apprentissage et à la convergence vers des solutions plus proches de la solution réelle. | 624 | 624 | Les résultats montrent que l'algorithme ESCBR-SMA est compétitif pour la plupart des jeux de données considérés dans cette étude. Il obtient en effet les meilleurs résultats sur $DS2$, $DS4$, $DS5$ et $DS9$. Globalement, ESCBR-SMA est le troisième meilleur algorithme. Ses performances sont donc comparables à celles des autres algorithmes d'ensemble testés. Par rapport à ESCBR, une amélioration des résultats et une réduction de la variance ont été obtenues, démontrant ainsi que les systèmes multi-agents et le raisonnement stochastique bayésien contribuent à l'apprentissage et à la convergence vers des solutions plus proches de la solution réelle. | |
625 | 625 | |||
\subsection{Conclusion} | 626 | 626 | \subsection{Conclusion} | |
Cette version d'ECBR intégrant un SMA propose d'utiliser les avantages des systèmes multi-agents pour améliorer la qualité des solutions proposées et également le processus d'apprentissage global en couvrant un plus large spectre de possibilités et en le couvrant de manière intelligente à l'aide d'un raisonnement bayésien. ESCBR-SMA permet ainsi d'obtenir de bonnes approximations avec peu de données. | 627 | 627 | Cette version d'ESCBR intégrant un SMA propose d'utiliser les avantages des systèmes multi-agents pour améliorer la qualité des solutions proposées et également le processus d'apprentissage global en couvrant un plus large spectre de possibilités et en le couvrant de manière intelligente à l'aide d'un raisonnement bayésien. ESCBR-SMA permet ainsi d'obtenir de bonnes approximations avec peu de données. | |
628 | 628 | |||
Ce travail a démontré la capacité d'ESCBR-SMA à trouver des solutions proches de l'optimum global pour la majorité des ensembles de données analysés. Ces jeux de données présentent une certaine diversité, ils peuvent être déséquilibrés et ils sont de tailles différentes. Grâce aux caractéristiques inhérentes aux systèmes multi-agents (possibilités de rétroactions, d'échanges d'informations, l'émergence d'une intelligence collective, l'utilisation de raisonnements cognitifs), les performances d'ESCBR-SMA sont meilleures que celles d'ESCBR. | 629 | 629 | Ce travail a démontré la capacité d'ESCBR-SMA à trouver des solutions proches de l'optimum global pour la majorité des ensembles de données analysés. Ces jeux de données présentent une certaine diversité, ils peuvent être déséquilibrés et ils sont de tailles différentes. Grâce aux caractéristiques inhérentes aux systèmes multi-agents (possibilités de rétroactions, d'échanges d'informations, l'émergence d'une intelligence collective, l'utilisation de raisonnements cognitifs), les performances d'ESCBR-SMA sont meilleures que celles d'ESCBR. | |
630 | 630 | |||
Dans le chapitre suivant, nous explorons la possibilité d'intégrer de nouveaux outils à ESCBR-SMA pour la recommandation d'exercices en cours de séance d'entraînement dans l'EIAH AI-VT. | 631 | 631 | Dans le chapitre suivant, nous explorons la possibilité d'intégrer de nouveaux outils à ESCBR-SMA pour la recommandation d'exercices en cours de séance d'entraînement dans l'EIAH AI-VT. | |
chapters/Publications.aux
View file @
4b1afa3
\relax | 1 | 1 | \relax | |
\providecommand\hyper@newdestlabel[2]{} | 2 | 2 | \providecommand\hyper@newdestlabel[2]{} | |
\@writefile{toc}{\contentsline {chapter}{\numberline {9}Publications}{107}{chapter.9}\protected@file@percent } | 3 | 3 | \@writefile{toc}{\contentsline {chapter}{\numberline {9}Publications}{107}{chapter.9}\protected@file@percent } | |
\@writefile{lof}{\addvspace {10\p@ }} | 4 | 4 | \@writefile{lof}{\addvspace {10\p@ }} | |
\@writefile{lot}{\addvspace {10\p@ }} | 5 | 5 | \@writefile{lot}{\addvspace {10\p@ }} | |
\@writefile{toc}{\contentsline {section}{\numberline {9.1}Publications liées au sujet de thèse}{107}{section.9.1}\protected@file@percent } | 6 | 6 | \@writefile{toc}{\contentsline {section}{\numberline {9.1}Publications liées au sujet de thèse}{107}{section.9.1}\protected@file@percent } | |
\@writefile{toc}{\contentsline {section}{\numberline {9.2}Autres publications}{108}{section.9.2}\protected@file@percent } | 7 | 7 | \@writefile{toc}{\contentsline {section}{\numberline {9.2}Autres publications}{108}{section.9.2}\protected@file@percent } | |
\@setckpt{./chapters/Publications}{ | 8 | 8 | \@setckpt{./chapters/Publications}{ | |
\setcounter{page}{109} | 9 | 9 | \setcounter{page}{109} | |
\setcounter{equation}{0} | 10 | 10 | \setcounter{equation}{0} | |
\setcounter{enumi}{0} | 11 | 11 | \setcounter{enumi}{0} | |
\setcounter{enumii}{0} | 12 | 12 | \setcounter{enumii}{0} | |
\setcounter{enumiii}{0} | 13 | 13 | \setcounter{enumiii}{0} | |
\setcounter{enumiv}{0} | 14 | 14 | \setcounter{enumiv}{0} | |
\setcounter{footnote}{0} | 15 | 15 | \setcounter{footnote}{0} | |
\setcounter{mpfootnote}{0} | 16 | 16 | \setcounter{mpfootnote}{0} | |
\setcounter{part}{3} | 17 | 17 | \setcounter{part}{3} | |
\setcounter{chapter}{9} | 18 | 18 | \setcounter{chapter}{9} | |
\setcounter{section}{2} | 19 | 19 | \setcounter{section}{2} | |
\setcounter{subsection}{0} | 20 | 20 | \setcounter{subsection}{0} | |
\setcounter{subsubsection}{0} | 21 | 21 | \setcounter{subsubsection}{0} | |
\setcounter{paragraph}{0} | 22 | 22 | \setcounter{paragraph}{0} | |
\setcounter{subparagraph}{0} | 23 | 23 | \setcounter{subparagraph}{0} | |
\setcounter{figure}{0} | 24 | 24 | \setcounter{figure}{0} | |
\setcounter{table}{0} | 25 | 25 | \setcounter{table}{0} | |
\setcounter{caption@flags}{2} | 26 | 26 | \setcounter{caption@flags}{2} | |
\setcounter{continuedfloat}{0} | 27 | 27 | \setcounter{continuedfloat}{0} | |
\setcounter{subfigure}{0} | 28 | 28 | \setcounter{subfigure}{0} | |
\setcounter{subtable}{0} | 29 | 29 | \setcounter{subtable}{0} | |
\setcounter{parentequation}{0} | 30 | 30 | \setcounter{parentequation}{0} | |
\setcounter{thmt@dummyctr}{0} | 31 | 31 | \setcounter{thmt@dummyctr}{0} | |
\setcounter{vrcnt}{0} | 32 | 32 | \setcounter{vrcnt}{0} | |
\setcounter{upm@subfigure@count}{0} | 33 | 33 | \setcounter{upm@subfigure@count}{0} | |
\setcounter{upm@fmt@mtabular@columnnumber}{0} | 34 | 34 | \setcounter{upm@fmt@mtabular@columnnumber}{0} | |
\setcounter{upm@format@section@sectionlevel}{1} | 35 | 35 | \setcounter{upm@format@section@sectionlevel}{1} | |
\setcounter{upm@fmt@savedcounter}{0} | 36 | 36 | \setcounter{upm@fmt@savedcounter}{0} | |
\setcounter{@@upm@fmt@inlineenumeration}{0} | 37 | 37 | \setcounter{@@upm@fmt@inlineenumeration}{0} | |
\setcounter{@upm@fmt@enumdescription@cnt@}{0} | 38 | 38 | \setcounter{@upm@fmt@enumdescription@cnt@}{0} | |
\setcounter{upmdefinition}{0} | 39 | 39 | \setcounter{upmdefinition}{0} | |
\setcounter{section@level}{1} | 40 | 40 | \setcounter{section@level}{1} | |
\setcounter{Item}{0} | 41 | 41 | \setcounter{Item}{0} | |
\setcounter{Hfootnote}{0} | 42 | 42 | \setcounter{Hfootnote}{0} | |
\setcounter{bookmark@seq@number}{95} | 43 | 43 | \setcounter{bookmark@seq@number}{93} | |
\setcounter{DefaultLines}{2} | 44 | 44 | \setcounter{DefaultLines}{2} | |
\setcounter{DefaultDepth}{0} | 45 | 45 | \setcounter{DefaultDepth}{0} | |
\setcounter{L@lines}{3} | 46 | 46 | \setcounter{L@lines}{3} | |
\setcounter{L@depth}{0} | 47 | 47 | \setcounter{L@depth}{0} | |
\setcounter{float@type}{8} | 48 | 48 | \setcounter{float@type}{8} | |
\setcounter{algorithm}{1} | 49 | 49 | \setcounter{algorithm}{1} | |
\setcounter{ALG@line}{8} | 50 | 50 | \setcounter{ALG@line}{8} | |
\setcounter{ALG@rem}{8} | 51 | 51 | \setcounter{ALG@rem}{8} | |
\setcounter{ALG@nested}{0} | 52 | 52 | \setcounter{ALG@nested}{0} | |
\setcounter{ALG@Lnr}{2} | 53 | 53 | \setcounter{ALG@Lnr}{2} | |
\setcounter{ALG@blocknr}{10} | 54 | 54 | \setcounter{ALG@blocknr}{10} | |
\setcounter{ALG@storecount}{0} | 55 | 55 | \setcounter{ALG@storecount}{0} | |
\setcounter{ALG@tmpcounter}{0} | 56 | 56 | \setcounter{ALG@tmpcounter}{0} | |
} | 57 | 57 | } | |
58 | 58 |
chapters/Publications.tex
View file @
4b1afa3
\chapter{Publications} | 1 | 1 | \chapter{Publications} | |
2 | 2 | |||
Pendant le travail de cette thèse, plusieurs articles ont été produits, explicitant les contributions réalisées. D'autres publications ont été produites en marge du sujet de cette thèse dans le cadre de la recherche en informatique.\\ | 3 | 3 | Pendant le travail de cette thèse, plusieurs articles ont été produits, explicitant les contributions réalisées. D'autres publications ont été produites en marge du sujet de cette thèse dans le cadre de la recherche en informatique.\\ | |
4 | 4 | |||
\section{Publications liées au sujet de thèse} | 5 | 5 | \section{Publications liées au sujet de thèse} | |
6 | 6 | |||
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Stochastic Recommendation and Case-Based Reasoning Model Applied to the Intelligent Tutoring System AI-VT. (En évaluation)\\ | 7 | 7 | Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Stochastic Recommendation and Case-Based Reasoning Model Applied to the Intelligent Tutoring System AI-VT. (En évaluation)\\ | |
8 | 8 | |||
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Integration of Stacking Case-Based Reasoning with a Multi-Agent System Applied to Regression Problems. (En évaluation).\\ | 9 | 9 | Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Integration of Stacking Case-Based Reasoning with a Multi-Agent System Applied to Regression Problems. (En évaluation).\\ | |
10 | 10 | |||
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Ensemble Stacking Case-Based Reasoning and a Stochastic Recommender Algorithm with the Hawkes Process Applied to ITS AI-VT. (ITS - International Conference on Intelligent Tutoring Systems) 2025.\\ | 11 | 11 | Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Ensemble Stacking Case-Based Reasoning and a Stochastic Recommender Algorithm with the Hawkes Process Applied to ITS AI-VT. (ITS - International Conference on Intelligent Tutoring Systems) 2025.\\ | |
12 | 12 | |||
Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Modèle de Recommandation Stochastique et de Raisonnement à Partir de Cas Appliqué à AI-VT. (EIAH - Conférence sur les Environnements Informatiques pour l'Apprentissage Humain) 2025.\\ | 13 | 13 | Daniel Soto Forero, Julien Henriet and Marie-Laure Betbeder. Modèle de Recommandation Stochastique et de Raisonnement à Partir de Cas Appliqué à AI-VT. (EIAH - Conférence sur les Environnements Informatiques pour l'Apprentissage Humain) 2025.\\ | |
14 | 14 | |||
Daniel Soto Forero, Simha Ackermann, Marie-Laure Betbeder and Julien Henriet. The Intelligent Tutoring System AI-VT with Case-Based Reasoning and Real Time Recommender Models. ICCBR - International Conference on Case-Based Reasoning. 2024.\\ | 15 | 15 | Daniel Soto Forero, Simha Ackermann, Marie-Laure Betbeder and Julien Henriet. The Intelligent Tutoring System AI-VT with Case-Based Reasoning and Real Time Recommender Models. ICCBR - International Conference on Case-Based Reasoning. 2024.\\ | |
16 | 16 | |||
Daniel Soto Forero, Marie-Laure Betbeder and Julien Henriet. Ensemble Stacking Case-Based Reasoning for Regression. ICCBR - International Conference on Case-Based Reasoning. 2024.\\ | 17 | 17 | Daniel Soto Forero, Marie-Laure Betbeder and Julien Henriet. Ensemble Stacking Case-Based Reasoning for Regression. ICCBR - International Conference on Case-Based Reasoning. 2024.\\ | |
18 | 18 |
chapters/TS.aux
View file @
4b1afa3
\relax | 1 | 1 | \relax | |
\providecommand\hyper@newdestlabel[2]{} | 2 | 2 | \providecommand\hyper@newdestlabel[2]{} | |
\citation{Liu2023} | 3 | 3 | \citation{Liu2023} | |
\citation{MUANGPRATHUB2020e05227} | 4 | 4 | \citation{MUANGPRATHUB2020e05227} | |
\citation{9870279} | 5 | 5 | \citation{9870279} | |
\citation{Soto2} | 6 | 6 | \citation{Soto2} | |
\@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent } | 7 | 7 | \@writefile{toc}{\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}\protected@file@percent } | |
\@writefile{lof}{\addvspace {10\p@ }} | 8 | 8 | \@writefile{lof}{\addvspace {10\p@ }} | |
\@writefile{lot}{\addvspace {10\p@ }} | 9 | 9 | \@writefile{lot}{\addvspace {10\p@ }} | |
10 | \newlabel{chap:RecommandationAIVT}{{7}{73}{Système de Recommandation dans AI-VT}{chapter.7}{}} | |||
\@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent } | 10 | 11 | \@writefile{toc}{\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}\protected@file@percent } | |
\citation{soto4} | 11 | 12 | \citation{soto4} | |
\citation{soto5} | 12 | 13 | \citation{soto5} | |
\@writefile{toc}{\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}\protected@file@percent } | 13 | 14 | \@writefile{toc}{\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Algorithme Proposé}{74}{subsection.7.2.1}\protected@file@percent } | 14 | 15 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.1}Algorithme Proposé}{74}{subsection.7.2.1}\protected@file@percent } | |
\newlabel{eqBeta}{{7.1}{74}{Algorithme Proposé}{equation.7.2.1}{}} | 15 | 16 | \newlabel{eqBeta}{{7.1}{74}{Algorithme Proposé}{equation.7.2.1}{}} | |
\citation{Arthurs} | 16 | 17 | \citation{Arthurs} | |
\@writefile{lot}{\contentsline {table}{\numberline {7.1}{\ignorespaces Variables et paramètres du système de recommandation proposé\relax }}{75}{table.caption.45}\protected@file@percent } | 17 | 18 | \@writefile{lot}{\contentsline {table}{\numberline {7.1}{\ignorespaces Variables et paramètres du système de recommandation proposé\relax }}{75}{table.caption.45}\protected@file@percent } | |
\newlabel{tabPar}{{7.1}{75}{Variables et paramètres du système de recommandation proposé\relax }{table.caption.45}{}} | 18 | 19 | \newlabel{tabPar}{{7.1}{75}{Variables et paramètres du système de recommandation proposé\relax }{table.caption.45}{}} | |
\newlabel{eqsGT}{{7.2}{75}{Algorithme Proposé}{equation.7.2.2}{}} | 19 | 20 | \newlabel{eqsGT}{{7.2}{75}{Algorithme Proposé}{equation.7.2.2}{}} | |
\newlabel{eqgtc}{{7.3}{75}{Algorithme Proposé}{equation.7.2.3}{}} | 20 | 21 | \newlabel{eqgtc}{{7.3}{75}{Algorithme Proposé}{equation.7.2.3}{}} | |
\newlabel{eqltc}{{7.4}{75}{Algorithme Proposé}{equation.7.2.4}{}} | 21 | 22 | \newlabel{eqltc}{{7.4}{75}{Algorithme Proposé}{equation.7.2.4}{}} | |
\@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Algorithme de recommandation stochastique\relax }}{76}{algorithm.1}\protected@file@percent } | 22 | 23 | \@writefile{loa}{\contentsline {algorithm}{\numberline {1}{\ignorespaces Algorithme de recommandation stochastique\relax }}{76}{algorithm.1}\protected@file@percent } | |
\newlabel{alg2}{{1}{76}{Algorithme de recommandation stochastique\relax }{algorithm.1}{}} | 23 | 24 | \newlabel{alg2}{{1}{76}{Algorithme de recommandation stochastique\relax }{algorithm.1}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent } | 24 | 25 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}\protected@file@percent } | |
\@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des données utilisées pour l'évaluation\relax }}{76}{table.caption.47}\protected@file@percent } | 25 | 26 | \@writefile{lot}{\contentsline {table}{\numberline {7.2}{\ignorespaces Description des données utilisées pour l'évaluation\relax }}{76}{table.caption.47}\protected@file@percent } | |
\newlabel{tabDataSet}{{7.2}{76}{Description des données utilisées pour l'évaluation\relax }{table.caption.47}{}} | 26 | 27 | \newlabel{tabDataSet}{{7.2}{76}{Description des données utilisées pour l'évaluation\relax }{table.caption.47}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios évalués\relax }}{76}{table.caption.48}\protected@file@percent } | 27 | 28 | \@writefile{lot}{\contentsline {table}{\numberline {7.3}{\ignorespaces Valeurs des paramètres pour les scénarios évalués\relax }}{76}{table.caption.48}\protected@file@percent } | |
\newlabel{tabgm1}{{7.3}{76}{Valeurs des paramètres pour les scénarios évalués\relax }{table.caption.48}{}} | 28 | 29 | \newlabel{tabgm1}{{7.3}{76}{Valeurs des paramètres pour les scénarios évalués\relax }{table.caption.48}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Répartition des notes générées selon le niveau de complexité.\relax }}{77}{figure.caption.46}\protected@file@percent } | 29 | 30 | \@writefile{lof}{\contentsline {figure}{\numberline {7.1}{\ignorespaces Répartition des notes générées selon le niveau de complexité.\relax }}{77}{figure.caption.46}\protected@file@percent } | |
\newlabel{figData}{{7.1}{77}{Répartition des notes générées selon le niveau de complexité.\relax }{figure.caption.46}{}} | 30 | 31 | \newlabel{figData}{{7.1}{77}{Répartition des notes générées selon le niveau de complexité.\relax }{figure.caption.46}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.2}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{78}{figure.caption.49}\protected@file@percent } | 31 | 32 | \@writefile{lof}{\contentsline {figure}{\numberline {7.2}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{78}{figure.caption.49}\protected@file@percent } | |
\newlabel{figCmp2}{{7.2}{78}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.49}{}} | 32 | 33 | \newlabel{figCmp2}{{7.2}{78}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.49}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.3}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{79}{figure.caption.50}\protected@file@percent } | 33 | 34 | \@writefile{lof}{\contentsline {figure}{\numberline {7.3}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{79}{figure.caption.50}\protected@file@percent } | |
\newlabel{figCmp3}{{7.3}{79}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.50}{}} | 34 | 35 | \newlabel{figCmp3}{{7.3}{79}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.50}{}} | |
\newlabel{eqMetric1}{{7.5}{79}{Résultats}{equation.7.2.5}{}} | 35 | 36 | \newlabel{eqMetric1}{{7.5}{79}{Résultats}{equation.7.2.5}{}} | |
\newlabel{eqMetric2}{{7.6}{79}{Résultats}{equation.7.2.6}{}} | 36 | 37 | \newlabel{eqMetric2}{{7.6}{79}{Résultats}{equation.7.2.6}{}} | |
\newlabel{eqXc}{{7.7}{79}{Résultats}{equation.7.2.7}{}} | 37 | 38 | \newlabel{eqXc}{{7.7}{79}{Résultats}{equation.7.2.7}{}} | |
\newlabel{eqYc}{{7.8}{79}{Résultats}{equation.7.2.8}{}} | 38 | 39 | \newlabel{eqYc}{{7.8}{79}{Résultats}{equation.7.2.8}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.4}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{80}{figure.caption.51}\protected@file@percent } | 39 | 40 | \@writefile{lof}{\contentsline {figure}{\numberline {7.4}{\ignorespaces Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }}{80}{figure.caption.51}\protected@file@percent } | |
\newlabel{figCmp4}{{7.4}{80}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.51}{}} | 40 | 41 | \newlabel{figCmp4}{{7.4}{80}{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)\relax }{figure.caption.51}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)\relax }}{80}{table.caption.53}\protected@file@percent } | 41 | 42 | \@writefile{lot}{\contentsline {table}{\numberline {7.4}{\ignorespaces Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)\relax }}{80}{table.caption.53}\protected@file@percent } | |
\newlabel{tabRM}{{7.4}{80}{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)\relax }{table.caption.53}{}} | 42 | 43 | \newlabel{tabRM}{{7.4}{80}{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)\relax }{table.caption.53}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Fonction d'évaluation de la qualité de la recommandation pour un parcours standard\relax }}{81}{figure.caption.52}\protected@file@percent } | 43 | 44 | \@writefile{lof}{\contentsline {figure}{\numberline {7.5}{\ignorespaces Fonction d'évaluation de la qualité de la recommandation pour un parcours standard\relax }}{81}{figure.caption.52}\protected@file@percent } | |
\newlabel{figMetric}{{7.5}{81}{Fonction d'évaluation de la qualité de la recommandation pour un parcours standard\relax }{figure.caption.52}{}} | 44 | 45 | \newlabel{figMetric}{{7.5}{81}{Fonction d'évaluation de la qualité de la recommandation pour un parcours standard\relax }{figure.caption.52}{}} | |
\newlabel{eqMetricS1}{{7.9}{81}{Résultats}{equation.7.2.9}{}} | 45 | 46 | \newlabel{eqMetricS1}{{7.9}{81}{Résultats}{equation.7.2.9}{}} | |
\newlabel{eqMetricS2}{{7.10}{81}{Résultats}{equation.7.2.10}{}} | 46 | 47 | \newlabel{eqMetricS2}{{7.10}{81}{Résultats}{equation.7.2.10}{}} | |
\newlabel{eqCS}{{7.11}{81}{Résultats}{equation.7.2.11}{}} | 47 | 48 | \newlabel{eqCS}{{7.11}{81}{Résultats}{equation.7.2.11}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusion}{81}{subsection.7.2.3}\protected@file@percent } | 48 | 49 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusion}{81}{subsection.7.2.3}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.\relax }}{82}{figure.caption.54}\protected@file@percent } | 49 | 50 | \@writefile{lof}{\contentsline {figure}{\numberline {7.6}{\ignorespaces Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.\relax }}{82}{figure.caption.54}\protected@file@percent } | |
\newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.\relax }{figure.caption.54}{}} | 50 | 51 | \newlabel{figMetric2}{{7.6}{82}{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.\relax }{figure.caption.54}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }}{82}{table.caption.55}\protected@file@percent } | 51 | 52 | \@writefile{lot}{\contentsline {table}{\numberline {7.5}{\ignorespaces Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }}{82}{table.caption.55}\protected@file@percent } | |
\newlabel{tabRM2}{{7.5}{82}{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }{table.caption.55}{}} | 52 | 53 | \newlabel{tabRM2}{{7.5}{82}{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique\relax }{table.caption.55}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }}{82}{table.caption.56}\protected@file@percent } | 53 | 54 | \@writefile{lot}{\contentsline {table}{\numberline {7.6}{\ignorespaces Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }}{82}{table.caption.56}\protected@file@percent } | |
\newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }{table.caption.56}{}} | 54 | 55 | \newlabel{tabCS}{{7.6}{82}{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)\relax }{table.caption.56}{}} | |
\@writefile{toc}{\contentsline {section}{\numberline {7.3}ESCBR-SMA et échantillonnage de Thompson}{83}{section.7.3}\protected@file@percent } | 55 | 56 | \@writefile{toc}{\contentsline {section}{\numberline {7.3}ESCBR-SMA et échantillonnage de Thompson}{83}{section.7.3}\protected@file@percent } | |
\citation{jmse11050890} | 56 | 57 | \citation{jmse11050890} | |
\citation{ZHANG2018189} | 57 | 58 | \citation{ZHANG2018189} | |
\citation{NEURIPS2023_9d8cf124} | 58 | 59 | \citation{NEURIPS2023_9d8cf124} | |
\citation{pmlr-v238-ou24a} | 59 | 60 | \citation{pmlr-v238-ou24a} | |
\citation{math12111758} | 60 | 61 | \citation{math12111758} | |
\citation{NGUYEN2024111566} | 61 | 62 | \citation{NGUYEN2024111566} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}\protected@file@percent } | 62 | 63 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}\protected@file@percent } | |
\newlabel{eqbkt1}{{7.12}{84}{Concepts Associés}{equation.7.3.12}{}} | 63 | 64 | \newlabel{eqbkt1}{{7.12}{84}{Concepts Associés}{equation.7.3.12}{}} | |
\newlabel{eqbkt2}{{7.13}{84}{Concepts Associés}{equation.7.3.13}{}} | 64 | 65 | \newlabel{eqbkt2}{{7.13}{84}{Concepts Associés}{equation.7.3.13}{}} | |
\newlabel{eqbkt3}{{7.14}{84}{Concepts Associés}{equation.7.3.14}{}} | 65 | 66 | \newlabel{eqbkt3}{{7.14}{84}{Concepts Associés}{equation.7.3.14}{}} | |
\citation{Li_2024} | 66 | 67 | \citation{Li_2024} | |
\newlabel{fbeta}{{7.15}{85}{Concepts Associés}{equation.7.3.15}{}} | 67 | 68 | \newlabel{fbeta}{{7.15}{85}{Concepts Associés}{equation.7.3.15}{}} | |
\newlabel{eqGamma1}{{7.16}{85}{Concepts Associés}{equation.7.3.16}{}} | 68 | 69 | \newlabel{eqGamma1}{{7.16}{85}{Concepts Associés}{equation.7.3.16}{}} | |
\newlabel{f2beta}{{7.17}{85}{Concepts Associés}{equation.7.3.17}{}} | 69 | 70 | \newlabel{f2beta}{{7.17}{85}{Concepts Associés}{equation.7.3.17}{}} | |
\newlabel{f3Beta}{{7.18}{85}{Concepts Associés}{equation.7.3.18}{}} | 70 | 71 | \newlabel{f3Beta}{{7.18}{85}{Concepts Associés}{equation.7.3.18}{}} | |
\newlabel{eqJac}{{7.19}{85}{Concepts Associés}{equation.7.3.19}{}} | 71 | 72 | \newlabel{eqJac}{{7.19}{85}{Concepts Associés}{equation.7.3.19}{}} | |
\newlabel{f4Beta}{{7.20}{85}{Concepts Associés}{equation.7.3.20}{}} | 72 | 73 | \newlabel{f4Beta}{{7.20}{85}{Concepts Associés}{equation.7.3.20}{}} | |
\newlabel{f5Beta}{{7.21}{85}{Concepts Associés}{equation.7.3.21}{}} | 73 | 74 | \newlabel{f5Beta}{{7.21}{85}{Concepts Associés}{equation.7.3.21}{}} | |
\newlabel{f6Beta}{{7.22}{85}{Concepts Associés}{equation.7.3.22}{}} | 74 | 75 | \newlabel{f6Beta}{{7.22}{85}{Concepts Associés}{equation.7.3.22}{}} | |
\newlabel{f7Beta}{{7.23}{85}{Concepts Associés}{equation.7.3.23}{}} | 75 | 76 | \newlabel{f7Beta}{{7.23}{85}{Concepts Associés}{equation.7.3.23}{}} | |
\citation{Kim2024} | 76 | 77 | \citation{Kim2024} | |
\citation{10.1145/3578337.3605122} | 77 | 78 | \citation{10.1145/3578337.3605122} | |
\citation{lei2024analysis} | 78 | 79 | \citation{lei2024analysis} | |
\newlabel{dkl}{{7.24}{86}{Concepts Associés}{equation.7.3.24}{}} | 79 | 80 | \newlabel{dkl}{{7.24}{86}{Concepts Associés}{equation.7.3.24}{}} | |
\newlabel{djs}{{7.25}{86}{Concepts Associés}{equation.7.3.25}{}} | 80 | 81 | \newlabel{djs}{{7.25}{86}{Concepts Associés}{equation.7.3.25}{}} | |
\newlabel{djs2}{{7.26}{86}{Concepts Associés}{equation.7.3.26}{}} | 81 | 82 | \newlabel{djs2}{{7.26}{86}{Concepts Associés}{equation.7.3.26}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.2}Algorithme Proposé}{86}{subsection.7.3.2}\protected@file@percent } | 82 | 83 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.2}Algorithme Proposé}{86}{subsection.7.3.2}\protected@file@percent } | |
\newlabel{Sec:TS-ESCBR-SMA}{{7.3.2}{86}{Algorithme Proposé}{subsection.7.3.2}{}} | 83 | 84 | \newlabel{Sec:TS-ESCBR-SMA}{{7.3.2}{86}{Algorithme Proposé}{subsection.7.3.2}{}} | |
\citation{badier:hal-04092828} | 84 | 85 | \citation{badier:hal-04092828} | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.7}{\ignorespaces Schéma de l'architecture de l'algorithme proposé\relax }}{87}{figure.caption.57}\protected@file@percent } | 85 | 86 | \@writefile{lof}{\contentsline {figure}{\numberline {7.7}{\ignorespaces Schéma de l'architecture de l'algorithme proposé\relax }}{87}{figure.caption.57}\protected@file@percent } | |
\newlabel{fig:Amodel}{{7.7}{87}{Schéma de l'architecture de l'algorithme proposé\relax }{figure.caption.57}{}} | 86 | 87 | \newlabel{fig:Amodel}{{7.7}{87}{Schéma de l'architecture de l'algorithme proposé\relax }{figure.caption.57}{}} | |
\newlabel{IntEq1_}{{7.27}{87}{Algorithme Proposé}{equation.7.3.27}{}} | 87 | 88 | \newlabel{IntEq1_}{{7.27}{87}{Algorithme Proposé}{equation.7.3.27}{}} | |
\newlabel{IntEq2_}{{7.28}{87}{Algorithme Proposé}{equation.7.3.28}{}} | 88 | 89 | \newlabel{IntEq2_}{{7.28}{87}{Algorithme Proposé}{equation.7.3.28}{}} | |
\newlabel{eqMixModels_}{{7.29}{87}{Algorithme Proposé}{equation.7.3.29}{}} | 89 | 90 | \newlabel{eqMixModels_}{{7.29}{87}{Algorithme Proposé}{equation.7.3.29}{}} | |
\citation{Data} | 90 | 91 | \citation{Data} | |
\citation{doi:10.1137/23M1592420} | 91 | 92 | \citation{doi:10.1137/23M1592420} | |
\@writefile{lot}{\contentsline {table}{\numberline {7.7}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées\relax }}{88}{table.caption.58}\protected@file@percent } | 92 | 93 | \@writefile{lot}{\contentsline {table}{\numberline {7.7}{\ignorespaces Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées\relax }}{88}{table.caption.58}\protected@file@percent } | |
\newlabel{tabvp}{{7.7}{88}{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées\relax }{table.caption.58}{}} | 93 | 94 | \newlabel{tabvp}{{7.7}{88}{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées\relax }{table.caption.58}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}\protected@file@percent } | 94 | 95 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.1}Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}{88}{subsubsection.7.3.3.1}\protected@file@percent } | 95 | 96 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.1}Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}{88}{subsubsection.7.3.3.1}\protected@file@percent } | |
\@writefile{lot}{\contentsline {table}{\numberline {7.8}{\ignorespaces Description des scénarios\relax }}{89}{table.caption.59}\protected@file@percent } | 96 | 97 | \@writefile{lot}{\contentsline {table}{\numberline {7.8}{\ignorespaces Description des scénarios\relax }}{89}{table.caption.59}\protected@file@percent } | |
\newlabel{tab:scenarios}{{7.8}{89}{Description des scénarios\relax }{table.caption.59}{}} | 97 | 98 | \newlabel{tab:scenarios}{{7.8}{89}{Description des scénarios\relax }{table.caption.59}{}} | |
\@writefile{lot}{\contentsline {table}{\numberline {7.9}{\ignorespaces Liste des algorithmes évalués \relax }}{89}{table.caption.60}\protected@file@percent } | 98 | 99 | \@writefile{lot}{\contentsline {table}{\numberline {7.9}{\ignorespaces Liste des algorithmes évalués \relax }}{89}{table.caption.60}\protected@file@percent } | |
\newlabel{tabAlgs}{{7.9}{89}{Liste des algorithmes évalués \relax }{table.caption.60}{}} | 99 | 100 | \newlabel{tabAlgs}{{7.9}{89}{Liste des algorithmes évalués \relax }{table.caption.60}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{89}{subsubsection.7.3.3.2}\protected@file@percent } | 100 | 101 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{89}{subsubsection.7.3.3.2}\protected@file@percent } | |
\citation{Kuzilek2017} | 101 | 102 | \citation{Kuzilek2017} | |
\citation{Data} | 102 | 103 | \citation{Data} | |
\@writefile{lot}{\contentsline {table}{\numberline {7.10}{\ignorespaces Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.\relax }}{90}{table.caption.61}\protected@file@percent } | 103 | 104 | \@writefile{lot}{\contentsline {table}{\numberline {7.10}{\ignorespaces Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.\relax }}{90}{table.caption.61}\protected@file@percent } | |
\newlabel{tab:results}{{7.10}{90}{Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.\relax }{table.caption.61}{}} | 104 | 105 | \newlabel{tab:results}{{7.10}{90}{Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.\relax }{table.caption.61}{}} | |
\newlabel{eqprog1}{{7.30}{90}{Progression des connaissances}{equation.7.3.30}{}} | 105 | 106 | \newlabel{eqprog1}{{7.30}{90}{Progression des connaissances}{equation.7.3.30}{}} | |
\newlabel{eqprog2}{{7.31}{90}{Progression des connaissances}{equation.7.3.31}{}} | 106 | 107 | \newlabel{eqprog2}{{7.31}{90}{Progression des connaissances}{equation.7.3.31}{}} | |
\newlabel{eqVarP}{{7.32}{90}{Progression des connaissances}{equation.7.3.32}{}} | 107 | 108 | \newlabel{eqVarP}{{7.32}{90}{Progression des connaissances}{equation.7.3.32}{}} | |
\newlabel{eqTEK}{{7.33}{90}{Progression des connaissances}{equation.7.3.33}{}} | 108 | 109 | \newlabel{eqTEK}{{7.33}{90}{Progression des connaissances}{equation.7.3.33}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }}{91}{figure.caption.62}\protected@file@percent } | 109 | 110 | \@writefile{lof}{\contentsline {figure}{\numberline {7.8}{\ignorespaces Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }}{91}{figure.caption.62}\protected@file@percent } | |
\newlabel{fig:evolution}{{7.8}{91}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }{figure.caption.62}{}} | 110 | 111 | \newlabel{fig:evolution}{{7.8}{91}{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon\relax }{figure.caption.62}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'étudiants réels}{91}{subsubsection.7.3.3.3}\protected@file@percent } | 111 | 112 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'apprenants réels}{91}{subsubsection.7.3.3.3}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Nombre de recommandations par niveau de complexité\relax }}{92}{figure.caption.63}\protected@file@percent } | 112 | 113 | \@writefile{lof}{\contentsline {figure}{\numberline {7.9}{\ignorespaces Nombre de recommandations par niveau de complexité\relax }}{92}{figure.caption.63}\protected@file@percent } | |
\newlabel{fig:stabilityBP}{{7.9}{92}{Nombre de recommandations par niveau de complexité\relax }{figure.caption.63}{}} | 113 | 114 | \newlabel{fig:stabilityBP2}{{7.9}{92}{Nombre de recommandations par niveau de complexité\relax }{figure.caption.63}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}\protected@file@percent } | 114 | 115 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Précision de la recommandation\relax }}{93}{figure.caption.64}\protected@file@percent } | 115 | 116 | \@writefile{lof}{\contentsline {figure}{\numberline {7.10}{\ignorespaces Précision de la recommandation\relax }}{93}{figure.caption.64}\protected@file@percent } | |
\newlabel{fig:precision}{{7.10}{93}{Précision de la recommandation\relax }{figure.caption.64}{}} | 116 | 117 | \newlabel{fig:precision}{{7.10}{93}{Précision de la recommandation\relax }{figure.caption.64}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent } | 117 | 118 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}\protected@file@percent } | 118 | 119 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.\relax }}{94}{figure.caption.65}\protected@file@percent } | 119 | 120 | \@writefile{lof}{\contentsline {figure}{\numberline {7.11}{\ignorespaces Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.\relax }}{94}{figure.caption.65}\protected@file@percent } | |
\newlabel{fig:EvGrades}{{7.11}{94}{Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.\relax }{figure.caption.65}{}} | 120 | 121 | \newlabel{fig:EvGrades}{{7.11}{94}{Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.\relax }{figure.caption.65}{}} | |
\newlabel{eqjs4}{{7.34}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.34}{}} | 121 | 122 | \newlabel{eqjs4}{{7.34}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.34}{}} | |
\newlabel{eqjs5}{{7.35}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.35}{}} | 122 | 123 | \newlabel{eqjs5}{{7.35}{94}{Progression des connaissances TS vs TS et ESCBR-SMA}{equation.7.3.35}{}} | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS\relax }}{95}{figure.caption.66}\protected@file@percent } | 123 | 124 | \@writefile{lof}{\contentsline {figure}{\numberline {7.12}{\ignorespaces Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS\relax }}{95}{figure.caption.66}\protected@file@percent } | |
\newlabel{fig:EvCL}{{7.12}{95}{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS\relax }{figure.caption.66}{}} | 124 | 125 | \newlabel{fig:EvCL}{{7.12}{95}{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS\relax }{figure.caption.66}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}\protected@file@percent } | 125 | 126 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}\protected@file@percent } | |
\citation{10.1145/3578337.3605122} | 126 | 127 | \citation{10.1145/3578337.3605122} | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }}{96}{figure.caption.67}\protected@file@percent } | 127 | 128 | \@writefile{lof}{\contentsline {figure}{\numberline {7.13}{\ignorespaces Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }}{96}{figure.caption.67}\protected@file@percent } | |
\newlabel{fig_cmp2}{{7.13}{96}{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }{figure.caption.67}{}} | 128 | 129 | \newlabel{fig_cmp2}{{7.13}{96}{Différence normalisée entre la progression avec échantillonnage de Thompson seul et échantillonnage de Thompson associé à ESCBR-SMA pour 1000 apprenants\relax }{figure.caption.67}{}} | |
\@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}\protected@file@percent } | 129 | 130 | \@writefile{toc}{\contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}\protected@file@percent } | 130 | 131 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }}{97}{figure.caption.68}\protected@file@percent } | 131 | 132 | \@writefile{lof}{\contentsline {figure}{\numberline {7.14}{\ignorespaces Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }}{97}{figure.caption.68}\protected@file@percent } | |
\newlabel{fig:Amodel}{{7.14}{97}{Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }{figure.caption.68}{}} | 132 | 133 | \newlabel{fig:Amodel2}{{7.14}{97}{Organisation des modules TS, ESCBR-SMA et processus de Hawkes.\relax }{figure.caption.68}{}} | |
\newlabel{hp1}{{7.36}{97}{Algorithme Proposé}{equation.7.4.36}{}} | 133 | 134 | \newlabel{hp1}{{7.36}{97}{Algorithme Proposé}{equation.7.4.36}{}} | |
\newlabel{hp21}{{7.37}{97}{Algorithme Proposé}{equation.7.4.37}{}} | 134 | 135 | \newlabel{hp21}{{7.37}{97}{Algorithme Proposé}{equation.7.4.37}{}} | |
\citation{Kuzilek2017} | 135 | 136 | \citation{Kuzilek2017} | |
\citation{Data} | 136 | 137 | \citation{Data} | |
\newlabel{hp22}{{7.38}{98}{Algorithme Proposé}{equation.7.4.38}{}} | 137 | 138 | \newlabel{hp22}{{7.38}{98}{Algorithme Proposé}{equation.7.4.38}{}} | |
\newlabel{hp30}{{7.39}{98}{Algorithme Proposé}{equation.7.4.39}{}} | 138 | 139 | \newlabel{hp30}{{7.39}{98}{Algorithme Proposé}{equation.7.4.39}{}} | |
\newlabel{hp31}{{7.40}{98}{Algorithme Proposé}{equation.7.4.40}{}} | 139 | 140 | \newlabel{hp31}{{7.40}{98}{Algorithme Proposé}{equation.7.4.40}{}} | |
\newlabel{hpfa}{{7.41}{98}{Algorithme Proposé}{equation.7.4.41}{}} | 140 | 141 | \newlabel{hpfa}{{7.41}{98}{Algorithme Proposé}{equation.7.4.41}{}} | |
\newlabel{hpfb}{{7.42}{98}{Algorithme Proposé}{equation.7.4.42}{}} | 141 | 142 | \newlabel{hpfb}{{7.42}{98}{Algorithme Proposé}{equation.7.4.42}{}} | |
\newlabel{eqBetaH}{{7.43}{98}{Algorithme Proposé}{equation.7.4.43}{}} | 142 | 143 | \newlabel{eqBetaH}{{7.43}{98}{Algorithme Proposé}{equation.7.4.43}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}\protected@file@percent } | 143 | 144 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec un jeu de données d'étudiants réels (TS avec Hawkes)}{98}{subsubsection.7.4.2.1}\protected@file@percent } | 144 | |||
\@writefile{lof}{\contentsline {figure}{\numberline {7.15}{\ignorespaces Nombre de recommandations par niveau de complexité (processus d'apprentissage statique en haut, processus d'apprentissage dynamique avec processus de Hawkes en bas)\relax }}{99}{figure.caption.69}\protected@file@percent } | 145 | 145 | \@writefile{lof}{\contentsline {figure}{\numberline {7.15}{\ignorespaces Nombre de recommandations par niveau de complexité (processus d'apprentissage statique en haut, processus d'apprentissage dynamique avec processus de Hawkes en bas)\relax }}{99}{figure.caption.69}\protected@file@percent } | |
\newlabel{fig:stabilityBP}{{7.15}{99}{Nombre de recommandations par niveau de complexité (processus d'apprentissage statique en haut, processus d'apprentissage dynamique avec processus de Hawkes en bas)\relax }{figure.caption.69}{}} | 146 | 146 | \newlabel{fig:stabilityBP}{{7.15}{99}{Nombre de recommandations par niveau de complexité (processus d'apprentissage statique en haut, processus d'apprentissage dynamique avec processus de Hawkes en bas)\relax }{figure.caption.69}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {7.4.2.2}Mesures de performances}{100}{subsubsection.7.4.2.2}\protected@file@percent } | 147 | 147 | \newlabel{metric1}{{7.44}{100}{Résultats et Discussion}{equation.7.4.44}{}} | |
\newlabel{metric1}{{7.44}{100}{Mesures de performances}{equation.7.4.44}{}} | 148 | |||
\@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Comparaison entre ESCBR-TS et ESCBR-TS-Hawkes lors d'un démarrage à froid.\relax }}{100}{table.caption.70}\protected@file@percent } | 149 | 148 | \@writefile{lot}{\contentsline {table}{\numberline {7.11}{\ignorespaces Comparaison entre ESCBR-TS et ESCBR-TS-Hawkes lors d'un démarrage à froid.\relax }}{100}{table.caption.70}\protected@file@percent } | |
\newlabel{tab:my_label}{{7.11}{100}{Comparaison entre ESCBR-TS et ESCBR-TS-Hawkes lors d'un démarrage à froid.\relax }{table.caption.70}{}} | 150 | 149 | \newlabel{tab:my_label}{{7.11}{100}{Comparaison entre ESCBR-TS et ESCBR-TS-Hawkes lors d'un démarrage à froid.\relax }{table.caption.70}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}\protected@file@percent } | 151 | 150 | \@writefile{toc}{\contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {7.16}{\ignorespaces Variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{101}{figure.caption.71}\protected@file@percent } | 152 | 151 | \@writefile{lof}{\contentsline {figure}{\numberline {7.16}{\ignorespaces Variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }}{101}{figure.caption.71}\protected@file@percent } | |
\newlabel{fig:vars}{{7.16}{101}{Variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.71}{}} | 153 | 152 | \newlabel{fig:vars}{{7.16}{101}{Variance pour la distribution de probabilité bêta et tous les niveaux de complexité (en haut : processus d'apprentissage statique. En bas : processus d'apprentissage dynamique avec processus de Hawkes)\relax }{figure.caption.71}{}} | |
\@setckpt{./chapters/TS}{ | 154 | 153 | \@setckpt{./chapters/TS}{ | |
\setcounter{page}{103} | 155 | 154 | \setcounter{page}{102} | |
\setcounter{equation}{44} | 156 | 155 | \setcounter{equation}{44} | |
\setcounter{enumi}{0} | 157 | 156 | \setcounter{enumi}{0} | |
\setcounter{enumii}{0} | 158 | 157 | \setcounter{enumii}{0} | |
\setcounter{enumiii}{0} | 159 | 158 | \setcounter{enumiii}{0} | |
\setcounter{enumiv}{0} | 160 | 159 | \setcounter{enumiv}{0} | |
\setcounter{footnote}{0} | 161 | 160 | \setcounter{footnote}{0} | |
\setcounter{mpfootnote}{0} | 162 | 161 | \setcounter{mpfootnote}{0} | |
\setcounter{part}{3} | 163 | 162 | \setcounter{part}{3} | |
\setcounter{chapter}{7} | 164 | 163 | \setcounter{chapter}{7} | |
\setcounter{section}{4} | 165 | 164 | \setcounter{section}{4} | |
\setcounter{subsection}{3} | 166 | 165 | \setcounter{subsection}{3} | |
\setcounter{subsubsection}{0} | 167 | 166 | \setcounter{subsubsection}{0} | |
\setcounter{paragraph}{0} | 168 | 167 | \setcounter{paragraph}{0} | |
\setcounter{subparagraph}{0} | 169 | 168 | \setcounter{subparagraph}{0} | |
\setcounter{figure}{16} | 170 | 169 | \setcounter{figure}{16} | |
\setcounter{table}{11} | 171 | 170 | \setcounter{table}{11} | |
\setcounter{caption@flags}{2} | 172 | 171 | \setcounter{caption@flags}{2} | |
\setcounter{continuedfloat}{0} | 173 | 172 | \setcounter{continuedfloat}{0} | |
\setcounter{subfigure}{0} | 174 | 173 | \setcounter{subfigure}{0} | |
\setcounter{subtable}{0} | 175 | 174 | \setcounter{subtable}{0} | |
\setcounter{parentequation}{0} | 176 | 175 | \setcounter{parentequation}{0} | |
\setcounter{thmt@dummyctr}{0} | 177 | 176 | \setcounter{thmt@dummyctr}{0} | |
\setcounter{vrcnt}{0} | 178 | 177 | \setcounter{vrcnt}{0} | |
\setcounter{upm@subfigure@count}{0} | 179 | 178 | \setcounter{upm@subfigure@count}{0} | |
\setcounter{upm@fmt@mtabular@columnnumber}{0} | 180 | 179 | \setcounter{upm@fmt@mtabular@columnnumber}{0} | |
\setcounter{upm@format@section@sectionlevel}{2} | 181 | 180 | \setcounter{upm@format@section@sectionlevel}{2} | |
\setcounter{upm@fmt@savedcounter}{0} | 182 | 181 | \setcounter{upm@fmt@savedcounter}{0} | |
\setcounter{@@upm@fmt@inlineenumeration}{0} | 183 | 182 | \setcounter{@@upm@fmt@inlineenumeration}{0} | |
\setcounter{@upm@fmt@enumdescription@cnt@}{0} | 184 | 183 | \setcounter{@upm@fmt@enumdescription@cnt@}{0} | |
\setcounter{upmdefinition}{0} | 185 | 184 | \setcounter{upmdefinition}{0} | |
\setcounter{section@level}{2} | 186 | 185 | \setcounter{section@level}{2} | |
\setcounter{Item}{0} | 187 | 186 | \setcounter{Item}{0} | |
\setcounter{Hfootnote}{0} | 188 | 187 | \setcounter{Hfootnote}{0} | |
\setcounter{bookmark@seq@number}{89} | 189 | 188 | \setcounter{bookmark@seq@number}{87} | |
\setcounter{DefaultLines}{2} | 190 | 189 | \setcounter{DefaultLines}{2} | |
\setcounter{DefaultDepth}{0} | 191 | 190 | \setcounter{DefaultDepth}{0} | |
\setcounter{L@lines}{3} | 192 | 191 | \setcounter{L@lines}{3} | |
\setcounter{L@depth}{0} | 193 | 192 | \setcounter{L@depth}{0} | |
\setcounter{float@type}{8} | 194 | 193 | \setcounter{float@type}{8} | |
\setcounter{algorithm}{1} | 195 | 194 | \setcounter{algorithm}{1} | |
\setcounter{ALG@line}{8} | 196 | 195 | \setcounter{ALG@line}{8} | |
\setcounter{ALG@rem}{8} | 197 | 196 | \setcounter{ALG@rem}{8} | |
\setcounter{ALG@nested}{0} | 198 | 197 | \setcounter{ALG@nested}{0} | |
\setcounter{ALG@Lnr}{2} | 199 | 198 | \setcounter{ALG@Lnr}{2} | |
\setcounter{ALG@blocknr}{10} | 200 | 199 | \setcounter{ALG@blocknr}{10} | |
\setcounter{ALG@storecount}{0} | 201 | 200 | \setcounter{ALG@storecount}{0} | |
\setcounter{ALG@tmpcounter}{0} | 202 | 201 | \setcounter{ALG@tmpcounter}{0} | |
} | 203 | 202 | } | |
204 | 203 | |||
chapters/TS.tex
View file @
4b1afa3
\chapter{Système de Recommandation dans AI-VT} | 1 | 1 | \chapter{Système de Recommandation dans AI-VT}\label{chap:RecommandationAIVT} | |
2 | 2 | |||
\section{Introduction} | 3 | 3 | \section{Introduction} | |
4 | 4 | |||
L'un des principaux modules d'un EIAH est le système de recommandation visant à trouver les faiblesses et à réviser la séance d'entraînement proposée initialement par celui-ci. Ce type de module permet donc au système de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants. Certains auteurs n'hésitent pas à considérer que l'efficacité d'un EIAH dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce type de module fondé sur la recommandation \cite{Liu2023}. | 5 | 5 | L'un des principaux modules d'un EIAH est le système de recommandation visant à trouver les faiblesses et à réviser la séance d'entraînement proposée initialement par celui-ci. Ce type de module permet donc au système de personnaliser les contenus et les exercices en fonction des besoins et des résultats de chacun des apprenants. Certains auteurs n'hésitent pas à considérer que l'efficacité d'un EIAH dans l'acquisition des connaissances et l'adaptation aux différents types d'apprentissage dépend de ce type de module fondé sur la recommandation \cite{Liu2023}. | |
6 | 6 | |||
Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les acquis, compétences, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices. Dans ces systèmes, l'adaptation peut être de deux types : l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et/ou l'adaptation du parcours qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}. | 7 | 7 | Les systèmes de recommandation dans les environnements d'apprentissage prennent en compte les exigences, les besoins, le profil, les acquis, compétences, les intérêts et l'évolution de l'apprenant pour adapter et recommander des ressources ou des exercices. Dans ces systèmes, l'adaptation peut être de deux types : l'adaptation de la présentation qui montre aux apprenants des ressources d'étude en fonction de leurs faiblesses et/ou l'adaptation du parcours qui change la structure du cours en fonction du niveau et du style d'apprentissage de chaque apprenant \cite{MUANGPRATHUB2020e05227}. | |
8 | 8 | |||
Parmi les algorithmes les plus prometteurs pouvant aider à proposer des recommandations, nous avons identifié l'algorithme d'échantillonnage de Thompson (TS). Il s'agit d'un algorithme probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement. À l'instant $t$, TS choisit l'action $a_t$ d'un ensemble $A$ d'actions possibles, et obtient une récompense pour celle-ci. À $t+1$, une action $a_{t+1}$ est sélectionnée en tenant compte de la récompense précédente. L'objectif consiste à maximiser la récompense. Selon le principe bayésien, cette maximisation itérative est opérée en suivant une distribution de probabilité évoluant à chaque itération. Cette évolution peut être calculée selon la variante de Bernoulli où la récompense n'a que deux valeurs possibles 0 ou 1 (échec ou succès), ou selon une distribution \textit{Beta} définie sur l'intervalle $[0, 1]$ et calculée en fonction de deux valeurs $\alpha$ et $\beta$ \cite{9870279}. | 9 | 9 | Parmi les algorithmes les plus prometteurs pouvant aider à proposer des recommandations, nous avons identifié l'algorithme d'échantillonnage de Thompson (TS). Il s'agit d'un algorithme probabiliste appartenant à la catégorie des algorithmes d'apprentissage par renforcement. À l'instant $t$, TS choisit l'action $a_t$ d'un ensemble $A$ d'actions possibles, et obtient une récompense pour celle-ci. À $t+1$, une action $a_{t+1}$ est sélectionnée en tenant compte de la récompense précédente. L'objectif consiste à maximiser la récompense. Selon le principe bayésien, cette maximisation itérative est opérée en suivant une distribution de probabilité évoluant à chaque itération. Cette évolution peut être calculée selon la variante de Bernoulli où la récompense n'a que deux valeurs possibles 0 ou 1 (échec ou succès), ou selon une distribution \textit{Beta} définie sur l'intervalle $[0, 1]$ et calculée en fonction de deux valeurs $\alpha$ et $\beta$ \cite{9870279}. | |
10 | 10 | |||
Ce chapitre est divisé en trois parties, la première partie présente un algorithme délivrant des recommandations en fonction des résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans \cite{Soto2}. Cet algorithme permet l'adaptation automatique en temps réel d'une séance prédéterminée dans l'EIAH AI-VT. Nous considérons qu'elle intervient durant la phase de révision du cycle classique du raisonnement à partir de cas (RàPC). L'algorithme proposé est stochastique et il a été testé selon trois scénarios différents. Les résultats montrent de quelle manière AI-VT peut proposer des recommandations pertinentes selon les faiblesses identifiées de l'apprenant. | 11 | 11 | Ce chapitre est divisé en trois parties, la première partie présente un algorithme délivrant des recommandations en fonction des résultats produits par l'apprenant en temps réel. Une partie de cette proposition est publiée dans \cite{Soto2}. Cet algorithme permet l'adaptation automatique en temps réel d'une séance prédéterminée dans l'EIAH AI-VT. Nous considérons qu'elle intervient durant la phase de révision du cycle classique du raisonnement à partir de cas (RàPC). L'algorithme proposé est stochastique et il a été testé selon trois scénarios différents. Les résultats montrent de quelle manière AI-VT peut proposer des recommandations pertinentes selon les faiblesses identifiées de l'apprenant. | |
12 | 12 | |||
La deuxième partie de ce chapitre montre l'intégration de tous les algorithmes présentés dans les chapitres précédents à AI-VT, cette proposition est publié dans \cite{soto4}. L'algorithme intégré est appliqué au système AI-VT sur des données générées et des données réelles. Plusieurs types de test sont exécutés pour montrer que l'algorithme final permet en effet d'améliorer les capacités d'identification et d'adaptation. Les performances de ce nouveau algorithme sont comparées à celles d'autres algorithmes. Enfin, l'évolution de l'acquisition des connaissances induites par ces nouveaux algorithmes de recommandation stochastiques est analysée dans cette deuxième partie du présent chapitre. | 13 | 13 | La deuxième partie de ce chapitre montre l'intégration de tous les algorithmes présentés dans les chapitres précédents à AI-VT, cette proposition est publié dans \cite{soto4}. L'algorithme intégré est appliqué au système AI-VT sur des données générées et des données réelles. Plusieurs types de test sont exécutés pour montrer que l'algorithme final permet en effet d'améliorer les capacités d'identification et d'adaptation. Les performances de ce nouvel algorithme sont comparées à celles d'autres algorithmes. Enfin, l'évolution de l'acquisition des connaissances induites par ces nouveaux algorithmes de recommandation stochastiques est analysée dans cette deuxième partie du présent chapitre. | |
14 | 14 | |||
Pour terminer, dans la troisième partie de ce chapitre, nous présentons une évolution de ce système de recommandation intégrant le processus de Hawkes publié dans \cite{soto5}. L'intérêt de ce dernier réside dans le fait qu'il utilise une courbe d'oubli, nous permettant ainsi de tenir compte du fait que certaines connaissances et certains mécanismes doivent être rappelés aux apprenants. Cette troisième partie intègre une étude des performances du système de recommandation incluant ce processus stochastique de Hawkes. | 15 | 15 | Pour terminer, dans la troisième partie de ce chapitre, nous présentons une évolution de ce système de recommandation intégrant le processus de Hawkes publié dans \cite{soto5}. L'intérêt de ce dernier réside dans le fait qu'il utilise une courbe d'oubli, nous permettant ainsi de tenir compte du fait que certaines connaissances et certains mécanismes doivent être rappelés aux apprenants. Cette troisième partie intègre une étude des performances du système de recommandation incluant ce processus stochastique de Hawkes. | |
16 | 16 | |||
\section{Système de recommandation stochastique fondé sur l'échantillonnage de Thompson} | 17 | 17 | \section{Système de recommandation stochastique fondé sur l'échantillonnage de Thompson} | |
\sectionmark{Système de recommandation fondé sur TS} | 18 | 18 | \sectionmark{Système de recommandation fondé sur TS} | |
19 | 19 | |||
\subsection{Algorithme Proposé} | 20 | 20 | \subsection{Algorithme Proposé} | |
21 | 21 | |||
L'algorithme proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT. Puis il adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. | 22 | 22 | L'algorithme proposé, en tant que système de recommandation, prend en compte les notes antérieures des apprenants pour estimer leurs connaissances et leur maîtrise des différentes compétences, sous-compétences et niveaux de complexité au sein du système AI-VT. Puis il adapte les séances pour maximiser l'acquisition des connaissances et la maîtrise des différents domaines contenus dans la même compétence définie. | |
23 | 23 | |||
La famille de distributions de probabilité \textit{Beta} est utilisée pour définir dynamiquement le niveau de complexité (équation \ref{eqBeta}) à proposer à l'apprenant. Cet algorithme permet de recommander des niveaux de complexité non contigus et dans lesquels des lacunes ont été détectées. Les paramètres initiaux des distributions de probabilité peuvent forcer le système à recommander des niveaux de complexité contigus (juste inférieur ou supérieur). | 24 | 24 | La famille de distributions de probabilité \textit{Beta} est utilisée pour définir dynamiquement le niveau de complexité (équation \ref{eqBeta}) à proposer à l'apprenant. Cet algorithme permet de recommander des niveaux de complexité non contigus et dans lesquels des lacunes ont été détectées. Les paramètres initiaux des distributions de probabilité peuvent forcer le système à recommander des niveaux de complexité contigus (juste inférieur ou supérieur). | |
25 | 25 | |||
\begin{equation} | 26 | 26 | \begin{equation} | |
Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} | 27 | 27 | Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} | |
\label{eqBeta} | 28 | 28 | \label{eqBeta} | |
\end{equation} | 29 | 29 | \end{equation} | |
30 | 30 | |||
\begin{table}[!ht] | 31 | 31 | \begin{table}[!ht] | |
\centering | 32 | 32 | \centering | |
\begin{tabular}{ccc} | 33 | 33 | \begin{tabular}{ccc} | |
ID&Description&Domaine\\ | 34 | 34 | ID&Description&Domaine\\ | |
\hline | 35 | 35 | \hline | |
$c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\ | 36 | 36 | $c_n$&Niveaux de complexité&$\mathbb{N} \; | \; c_n>0$\\ | |
$g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\ | 37 | 37 | $g_m$&Valeur maximale dans l'échelle des notes& $\mathbb{N} \;|\; g_m>0$ \\ | |
$g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\ | 38 | 38 | $g_t$&Seuil de notation &$(0, g_m) \in \mathbb{R}$\\ | |
$s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\ | 39 | 39 | $s$&Nombre de parcours définis&$\mathbb{N} \; | \; s>0$\\ | |
$s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\ | 40 | 40 | $s_c$&Parcours courant fixe défini&$[1, s] \in \mathbb{N}$\\ | |
$\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\ | 41 | 41 | $\Delta s$&Pas pour les paramètres de la distribution bêta dans le parcours $s$ &$(0,1) \in \mathbb{R}$\\ | |
$t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\ | 42 | 42 | $t_m$&Valeur maximale du temps de réponse&$\mathbb{R} \; | \; t_m>0$\\ | |
$g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\ | 43 | 43 | $g_{c}$&Note de l'apprenant à une question de complexité $c$&$[0, g_m] \in \mathbb{R}$\\ | |
$ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\ | 44 | 44 | $ng_c$&Grade de l'apprenant avec pénalisation du temps &$[0, g_m] \in \mathbb{R}$\\ | |
$t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\ | 45 | 45 | $t_{c}$&Le temps de réponse à une question de complexité $c$&$[0, t_m] \in \mathbb{R}$\\ | |
$ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\ | 46 | 46 | $ncl$&Nouveau niveau de complexité calculé&$\mathbb{N}$\\ | |
$\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\ | 47 | 47 | $\alpha_{c}$&Valeur de $\alpha$ dans la complexité $c$&$\mathbb{R} \; | \; \alpha_{c}>0$\\ | |
$\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\ | 48 | 48 | $\beta_{c}$&Valeur de $\beta$ dans la complexité $c$&$\mathbb{R} \; | \; \beta_{c}>0$\\ | |
$\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\ | 49 | 49 | $\Delta \beta$&Pas initial du paramètre bêta&$\mathbb{N} \; | \; \Delta \beta >0$\\ | |
$\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\ | 50 | 50 | $\lambda$&Poids de la pénalisation temporelle&$(0,1) \in \mathbb{R}$\\ | |
$G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\ | 51 | 51 | $G_c$&Ensemble de $d$ notes dans le niveau de complexité $c$&$\mathbb{R}^d \;, d\in \mathbb{N} \; | \; d>0$\\ | |
$x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\ | 52 | 52 | $x_c$&Notes moyennes normalisées&$[0, 1] \in \mathbb{R}$\\ | |
$n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\\ | 53 | 53 | $n_c$&Nombre total de questions dans une séance&$\mathbb{N} \; | \; n_c>0$\\ | |
$ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\ | 54 | 54 | $ny_c$&Nombre de questions dans le niveau de complexité $c$&$\mathbb{N} \; | \; 0<ny_c \le n_c$\\ | |
$y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\ | 55 | 55 | $y_c$&Proportion de questions dans le niveau de complexité $c$&$[0, 1] \in \mathbb{R}$\\ | |
$r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\ | 56 | 56 | $r$&Valeur totale de la métrique définie pour l'adaptabilité&$[0, c_n] \in \mathbb{R}$\\ | |
$sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\ | 57 | 57 | $sc$&Valeur totale de la métrique de similarité cosinus&$[-1, 1] \in \mathbb{R}$\\ | |
\end{tabular} | 58 | 58 | \end{tabular} | |
\caption{Variables et paramètres du système de recommandation proposé} | 59 | 59 | \caption{Variables et paramètres du système de recommandation proposé} | |
\label{tabPar} | 60 | 60 | \label{tabPar} | |
\end{table} | 61 | 61 | \end{table} | |
62 | 62 | |||
Le tableau \ref{tabPar} présente les variables de l'algorithme de recommandation. Nous avons considéré que les notes $g_c$ obtenues au niveau de complexité $c$ tiennent compte du temps de réponse. C'est la raison pour laquelle, nous avons défini le grade de l'apprenant $ng_c$ au niveau de complexité $c$. Ce grade calculé selon l'équation \ref{eqsGT}, tient compte d'un poids de pénalisation temporelle $\lambda$. | 63 | 63 | Le tableau \ref{tabPar} présente les variables de l'algorithme de recommandation. Nous avons considéré que les notes $g_c$ obtenues au niveau de complexité $c$ tiennent compte du temps de réponse. C'est la raison pour laquelle, nous avons défini le grade de l'apprenant $ng_c$ au niveau de complexité $c$. Ce grade calculé selon l'équation \ref{eqsGT}, tient compte d'un poids de pénalisation temporelle $\lambda$. | |
64 | 64 | |||
\begin{equation} | 65 | 65 | \begin{equation} | |
ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right) | 66 | 66 | ng_c=g_c- \left(g_c * \lambda * \frac{t_c}{t_m} \right) | |
\label{eqsGT} | 67 | 67 | \label{eqsGT} | |
\end{equation} | 68 | 68 | \end{equation} | |
69 | 69 | |||
Dans cet algorithme, la variable de seuil de grade $g_t$ détermine la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les niveaux de complexité des exercices proposés à l'apprenant sont calculés par récompense inverse selon les équations \ref{eqgtc} et \ref{eqltc}. Chaque niveau de complexité est associé à une distribution de probabilité \textit{Beta} avec des valeurs initiales $\alpha$ et $\beta$ prédéfinies. | 70 | 70 | Dans cet algorithme, la variable de seuil de grade $g_t$ détermine la variabilité de la distribution de probabilité pour chaque niveau de complexité. Les niveaux de complexité des exercices proposés à l'apprenant sont calculés par récompense inverse selon les équations \ref{eqgtc} et \ref{eqltc}. Chaque niveau de complexité est associé à une distribution de probabilité \textit{Beta} avec des valeurs initiales $\alpha$ et $\beta$ prédéfinies. | |
71 | 71 | |||
\begin{equation} | 72 | 72 | \begin{equation} | |
ng_c \ge g_t \rightarrow | 73 | 73 | ng_c \ge g_t \rightarrow | |
\begin{cases} | 74 | 74 | \begin{cases} | |
\beta_c=\beta_c+\Delta_s\\ | 75 | 75 | \beta_c=\beta_c+\Delta_s\\ | |
\beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\ | 76 | 76 | \beta_{c-1}=\beta_{c-1} + \frac{\Delta_s}{2}\\ | |
\alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2} | 77 | 77 | \alpha_{c+1}=\alpha_{c+1} + \frac{\Delta_s}{2} | |
\end{cases} | 78 | 78 | \end{cases} | |
\label{eqgtc} | 79 | 79 | \label{eqgtc} | |
\end{equation} | 80 | 80 | \end{equation} | |
81 | 81 | |||
\begin{equation} | 82 | 82 | \begin{equation} | |
ng_c < g_t \rightarrow | 83 | 83 | ng_c < g_t \rightarrow | |
\begin{cases} | 84 | 84 | \begin{cases} | |
\alpha_c=\alpha_c+\Delta_s\\ | 85 | 85 | \alpha_c=\alpha_c+\Delta_s\\ | |
\alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\ | 86 | 86 | \alpha_{c-1}=\alpha_{c-1} + \frac{\Delta_s}{2}\\ | |
\beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2} | 87 | 87 | \beta_{c+1}=\beta_{c+1} + \frac{\Delta_s}{2} | |
\end{cases} | 88 | 88 | \end{cases} | |
\label{eqltc} | 89 | 89 | \label{eqltc} | |
\end{equation} | 90 | 90 | \end{equation} | |
91 | 91 | |||
Pour chaque niveau de complexité $c$, $Beta(\alpha_c, \beta_c)$ fournit une distribution de probabilité $\theta_c$ dont nous calculons l'espérance $\mathbb{E}[\theta_c]$. Le nouveau niveau de complexité $ncl$ correspond à l'espérance maximale obtenue. | 92 | 92 | Pour chaque niveau de complexité $c$, $Beta(\alpha_c, \beta_c)$ fournit une distribution de probabilité $\theta_c$ dont nous calculons l'espérance $\mathbb{E}[\theta_c]$. Le nouveau niveau de complexité $ncl$ correspond à l'espérance maximale obtenue. | |
93 | 93 | |||
Le détail des pas d'exécution de l'algorithme proposé sont dans l'algorithme \ref{alg2}. | 94 | 94 | Le détail des pas d'exécution de l'algorithme proposé sont dans l'algorithme \ref{alg2}. | |
95 | 95 | |||
\begin{algorithm} | 96 | 96 | \begin{algorithm} | |
\caption{Algorithme de recommandation stochastique} | 97 | 97 | \caption{Algorithme de recommandation stochastique} | |
\begin{algorithmic} | 98 | 98 | \begin{algorithmic} | |
\State Initialisation de la distribution de probabilité | 99 | 99 | \State Initialisation de la distribution de probabilité | |
\For {\textbf{each} question $q$} | 100 | 100 | \For {\textbf{each} question $q$} | |
\State Soit le niveau de complexité $i$ | 101 | 101 | \State Soit le niveau de complexité $i$ | |
\State $ng_i=g_i- \left(g_i * \lambda * \frac{t_i}{t_m} \right)$ \Comment{eq \ref{eqsGT}} | 102 | 102 | \State $ng_i=g_i- \left(g_i * \lambda * \frac{t_i}{t_m} \right)$ \Comment{eq \ref{eqsGT}} | |
\State Calculs des paramètres $\alpha_i$ et $\beta_i$ \Comment{eq \ref{eqgtc} et eq \ref{eqltc}} | 103 | 103 | \State Calculs des paramètres $\alpha_i$ et $\beta_i$ \Comment{eq \ref{eqgtc} et eq \ref{eqltc}} | |
\State Choisir $\theta_c$ selon la distribution de probabilité \textit{Beta} \Comment{$\forall c, \theta_c = Beta(\alpha_c, \beta_c)$} | 104 | 104 | \State Choisir $\theta_c$ selon la distribution de probabilité \textit{Beta} \Comment{$\forall c, \theta_c = Beta(\alpha_c, \beta_c)$} | |
\State $ncl = max(\mathbb{E}[\theta_c]), \forall c$ | 105 | 105 | \State $ncl = max(\mathbb{E}[\theta_c]), \forall c$ | |
\EndFor | 106 | 106 | \EndFor | |
\end{algorithmic} | 107 | 107 | \end{algorithmic} | |
\label{alg2} | 108 | 108 | \label{alg2} | |
\end{algorithm} | 109 | 109 | \end{algorithm} | |
110 | 110 | |||
\subsection{Résultats} | 111 | 111 | \subsection{Résultats} | |
112 | 112 | |||
Le comportement du module de recommandation a été testé avec des données générées contenant les notes et les temps de réponse de mille apprenants pour cinq niveaux de complexité différents. Ces données sont décrites dans le tableau \ref{tabDataSet}. Les notes des apprenants sont générées selon la loi de probabilité logit-normale considérée comme la plus fidèle dans ce contexte par \cite{Arthurs}. | 113 | 113 | Le comportement du module de recommandation a été testé avec des données générées contenant les notes et les temps de réponse de mille apprenants pour cinq niveaux de complexité différents. Ces données sont décrites dans le tableau \ref{tabDataSet}. Les notes des apprenants sont générées selon la loi de probabilité logit-normale considérée comme la plus fidèle dans ce contexte par \cite{Arthurs}. | |
114 | 114 | |||
L'ensemble de données générées résulte d'une simulation des notes obtenues par des apprenants virtuels ayant répondu à quinze questions réparties sur cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants sur les dix premières questions. La difficulté de la complexité est quant à elle simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la manière dont sont réparties les notes selon le niveau de complexité. | 115 | 115 | L'ensemble de données générées résulte d'une simulation des notes obtenues par des apprenants virtuels ayant répondu à quinze questions réparties sur cinq niveaux de complexité. L'ensemble de données simule, via la distribution de probabilité logit-normale, une faiblesse dans chaque niveau de complexité pour 70\% des apprenants sur les dix premières questions. La difficulté de la complexité est quant à elle simulée en réduisant le score moyen et en augmentant la variance. La figure \ref{figData} montre la manière dont sont réparties les notes selon le niveau de complexité. | |
116 | 116 | |||
\begin{figure} | 117 | 117 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/dataset.png} | 118 | 118 | \includegraphics[width=\textwidth]{./Figures/dataset.png} | |
\caption{Répartition des notes générées selon le niveau de complexité.} | 119 | 119 | \caption{Répartition des notes générées selon le niveau de complexité.} | |
\label{figData} | 120 | 120 | \label{figData} | |
\end{figure} | 121 | 121 | \end{figure} | |
122 | 122 | |||
\begin{table}[!ht] | 123 | 123 | \begin{table}[!ht] | |
\centering | 124 | 124 | \centering | |
\begin{tabular}{ccc} | 125 | 125 | \begin{tabular}{ccc} | |
ID&Description&Domaine\\ | 126 | 126 | ID&Description&Domaine\\ | |
\hline | 127 | 127 | \hline | |
$q_{c}$&Niveau de complexité de la question $q$&$[0, c_n] \in \mathbb{N}$\\ | 128 | 128 | $q_{c}$&Niveau de complexité de la question $q$&$[0, c_n] \in \mathbb{N}$\\ | |
$q_{g,c}$&Note obtenue $g$ pour la question $q$ avec une complexité $c$ &$[0,g_m] \in \mathbb{R}$\\ | 129 | 129 | $q_{g,c}$&Note obtenue $g$ pour la question $q$ avec une complexité $c$ &$[0,g_m] \in \mathbb{R}$\\ | |
$q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\ | 130 | 130 | $q_{t,c}$&Temps employé $t$ pour une question $q$ avec complexité $c$&$[0, t_m] \in \mathbb{R}$\\ | |
\end{tabular} | 131 | 131 | \end{tabular} | |
\caption{Description des données utilisées pour l'évaluation} | 132 | 132 | \caption{Description des données utilisées pour l'évaluation} | |
\label{tabDataSet} | 133 | 133 | \label{tabDataSet} | |
\end{table} | 134 | 134 | \end{table} | |
135 | 135 | |||
Toutes les valeurs des paramètres pour tester l'algorithme sont dans le tableau \ref{tabgm1}. | 136 | 136 | Toutes les valeurs des paramètres pour tester l'algorithme sont dans le tableau \ref{tabgm1}. | |
137 | 137 | |||
\begin{table}[!ht] | 138 | 138 | \begin{table}[!ht] | |
\centering | 139 | 139 | \centering | |
\begin{tabular}{c|cccccccccccccc} | 140 | 140 | \begin{tabular}{c|cccccccccccccc} | |
ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\ | 141 | 141 | ID&$c_n$&$g_m$&$t_m$&$s$&$s_c$&$\lambda$&$g_t$&$\alpha_{x,1}$&$\alpha_{x,y}$&$\beta_{x,1}$&$\Delta \beta_{x,y}$&$\Delta_1$&$\Delta_2$&$\Delta_3$\\ | |
\hline | 142 | 142 | \hline | |
Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\ | 143 | 143 | Valeur&5&10&120&3&2&0.25&6 & 2 & 1 & 1 & 1 & 0.3 & 0.5 & 0.7\\ | |
\end{tabular} | 144 | 144 | \end{tabular} | |
\caption{Valeurs des paramètres pour les scénarios évalués} | 145 | 145 | \caption{Valeurs des paramètres pour les scénarios évalués} | |
\label{tabgm1} | 146 | 146 | \label{tabgm1} | |
\end{table} | 147 | 147 | \end{table} | |
148 | 148 | |||
La figure \ref{figCmp2} permet de comparer les résultats obtenus par le module proposé, un système de recommandation déterministe et le système AI-VT initial lors d'un \textit{démarrage à froid} (c'est-à-dire sans données historiques ni informations préalables sur le profil de l'apprenant). Sur les graphiques de cette figure, les numéros des questions posées sont reportées en abscisse selon l'ordre chronologique d'apparition durant la séance d’entraînement, le niveau de complexité de chaque question posée est représenté par une couleur différente, et le nombre d'apprenants ayant eu des questions de ce niveau de complexité sont reportés en ordonnées. Ainsi, le système AI-VT initial (premier graphique de la figure) et le système de recommandation déterministe (deuxième graphique) ont tous deux proposé trois questions de niveau de complexité 0 (le plus faible) à tous les apprenants au démarrage de la séance d'entraînement. Nous pouvons remarquer que le système initial est resté sur ce niveau de complexité durant toute la séance (pour les 15 questions du test), tandis que le système de recommandation déterministe a progressivement mixé les complexités des questions posées. Le système de recommandation stochastique décrit dans ce chapitre a quant à lui mixé ces niveaux de complexité dès la première question. | 149 | 149 | La figure \ref{figCmp2} permet de comparer les résultats obtenus par le module proposé, un système de recommandation déterministe et le système AI-VT initial lors d'un \textit{démarrage à froid} (c'est-à-dire sans données historiques ni informations préalables sur le profil de l'apprenant). Sur les graphiques de cette figure, les numéros des questions posées sont reportées en abscisse selon l'ordre chronologique d'apparition durant la séance d’entraînement, le niveau de complexité de chaque question posée est représenté par une couleur différente, et le nombre d'apprenants ayant eu des questions de ce niveau de complexité sont reportés en ordonnées. Ainsi, le système AI-VT initial (premier graphique de la figure) et le système de recommandation déterministe (deuxième graphique) ont tous deux proposé trois questions de niveau de complexité 0 (le plus faible) à tous les apprenants au démarrage de la séance d'entraînement. Nous pouvons remarquer que le système initial est resté sur ce niveau de complexité durant toute la séance (pour les 15 questions du test), tandis que le système de recommandation déterministe a progressivement mixé les complexités des questions posées. Le système de recommandation stochastique décrit dans ce chapitre a quant à lui mixé ces niveaux de complexité dès la première question. | |
150 | 150 | |||
Ainsi, les systèmes de recommandation permettent de proposer une adaptation progressive du niveau de complexité en fonction des notes obtenues. L'algorithme déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus. La tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. L'algorithme stochastique commence par proposer tous les niveaux de complexité possibles tout en privilégiant le niveau 0. Avec ce système, les transitions sont constantes mais pour un petit nombre d'apprenants. La tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. | 151 | 151 | Ainsi, les systèmes de recommandation permettent de proposer une adaptation progressive du niveau de complexité en fonction des notes obtenues. L'algorithme déterministe génère quatre grandes transitions avec un grand nombre d'apprenants dans les questions 5, 6, 8 et 12, toutes entre des niveaux de complexité contigus. La tendance est à la baisse pour les niveaux 0, 1 et 2 après la huitième question et à la hausse pour les niveaux 1 et 3. L'algorithme stochastique commence par proposer tous les niveaux de complexité possibles tout en privilégiant le niveau 0. Avec ce système, les transitions sont constantes mais pour un petit nombre d'apprenants. La tendance après la dixième question est à la baisse pour les niveaux 0 et 4 et à la hausse pour les niveaux 1, 2 et 3. | |
152 | 152 | |||
\begin{figure} | 153 | 153 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/comp2.png} | 154 | 154 | \includegraphics[width=\textwidth]{./Figures/comp2.png} | |
\caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | 155 | 155 | \caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la première séance avec un démarrage à froid (sans données initiales sur les apprenants). Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | |
\label{figCmp2} | 156 | 156 | \label{figCmp2} | |
\end{figure} | 157 | 157 | \end{figure} | |
158 | 158 | |||
Après la génération de la première séance, le système peut continuer avec une deuxième liste d'exercices. Pour cette partie des tests, les trois algorithmes ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir que la première transition du système initial n'intervient qu'entre deux séances. Les transitions sont très lentes, et tous les apprenants doivent suivre un chemin identique même s'ils obtiennent des notes différentes au cours de celle-ci. | 159 | 159 | Après la génération de la première séance, le système peut continuer avec une deuxième liste d'exercices. Pour cette partie des tests, les trois algorithmes ont été initialisés avec les mêmes données, et des valeurs égales pour tous les apprenants. La figure \ref{figCmp3} permet de voir que la première transition du système initial n'intervient qu'entre deux séances. Les transitions sont très lentes, et tous les apprenants doivent suivre un chemin identique même s'ils obtiennent des notes différentes au cours de celle-ci. | |
160 | 160 | |||
Pour leur part, les deux autres systèmes de recommandation testés proposent un fonctionnement différent. L'algorithme déterministe présente trois transitions aux questions 3, 5 et 12. Les tendances sont y relativement homogènes et progressives pour le niveau 3, très variables pour le niveau 2 et fortement décroissantes pour le niveau 0. L'algorithme stochastique quant à lui, propose des transitions douces mais il a tendance à toujours privilégier le niveau le plus faible. Nous pouvons observer une prépondérance du niveau 1 avec ce système. Ici, les niveaux 0 et 1 sont décroissants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. | 161 | 161 | Pour leur part, les deux autres systèmes de recommandation testés proposent un fonctionnement différent. L'algorithme déterministe présente trois transitions aux questions 3, 5 et 12. Les tendances y sont relativement homogènes et progressives pour le niveau 3, très variables pour le niveau 2 et fortement décroissantes pour le niveau 0. L'algorithme stochastique quant à lui, propose des transitions douces mais il a tendance à toujours privilégier le niveau le plus faible. Nous pouvons observer une prépondérance du niveau 1 avec ce système. Ici, les niveaux 0 et 1 sont décroissants, le niveau 2 est statique et les niveaux 3 et 4 sont ascendants. | |
162 | 162 | |||
\begin{figure} | 163 | 163 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/comp3.png} | 164 | 164 | \includegraphics[width=\textwidth]{./Figures/comp3.png} | |
\caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | 165 | 165 | \caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la deuxième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | |
\label{figCmp3} | 166 | 166 | \label{figCmp3} | |
\end{figure} | 167 | 167 | \end{figure} | |
168 | 168 | |||
Les questions de la première et la deuxième séance étant de niveaux 0 et 1, le système a proposé des niveaux de complexité 1 ou 2 pour la troisième séance. La figure \ref{figCmp4} montre que le système initial est très lent à passer d'un niveau à l'autre. La figure \ref{figCmp3} permet de voir la première transition du système initial ne réagissant qu'aux notes obtenues dans les séances précédentes et non à celles de la séance en cours. Dans ce cas, l'algorithme de recommandation déterministe adopte la même stratégie et propose un changement brutal à tous les apprenants autour de la cinquième question. L'algorithme stochastique continue avec des changements progressifs tout en privilégiant le niveau 2. | 169 | 169 | Les questions de la première et la deuxième séance étant de niveaux 0 et 1, le système a proposé des niveaux de complexité 1 ou 2 pour la troisième séance. La figure \ref{figCmp4} montre que le système initial est très lent à passer d'un niveau à l'autre. La figure \ref{figCmp3} permet de voir la première transition du système initial ne réagissant qu'aux notes obtenues dans les séances précédentes et non à celles de la séance en cours. Dans ce cas, l'algorithme de recommandation déterministe adopte la même stratégie et propose un changement brutal à tous les apprenants autour de la cinquième question. L'algorithme stochastique continue avec des changements progressifs tout en privilégiant le niveau 2. | |
170 | 170 | |||
\begin{figure} | 171 | 171 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/comp4.png} | 172 | 172 | \includegraphics[width=\textwidth]{./Figures/comp4.png} | |
\caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | 173 | 173 | \caption{Niveaux de complexité des questions posées aux apprenants par les trois systèmes testés lors de la troisième séance. Gauche - RàPC, centre - recommandation déterministe (DM), droite - moyenne de 100 exécutions de recommandation stochastique (SM)} | |
\label{figCmp4} | 174 | 174 | \label{figCmp4} | |
\end{figure} | 175 | 175 | \end{figure} | |
176 | 176 | |||
Pour comparer numériquement le système initial, l'algorithme déterministe et l'algorithme de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}). Celles-ci permettent de décrire le système de recommandation idéal si l'objectif de l'apprenant est de suivre un apprentissage standard, c'est à dire le parcours où l'objectif est d'avancer dans l'acquisition de la connaissance et les niveaux de complexité. Une valeur est calculée pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette mesure est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, lui permettant ainsi de renforcer ses connaissances pour ce niveau de complexité. De la même manière, il est attendu que le système de recommandation propose moins d'exercices aux niveaux de complexité pour lesquels les notes moyennes sont élevées, l'étudiant ayant acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées. | 177 | 177 | Pour comparer numériquement le système initial, l'algorithme déterministe et l'algorithme de recommandation proposé, un ensemble d'équations a été défini (équation \ref{eqMetric1} et équation \ref{eqMetric2}). Celles-ci permettent de décrire le système de recommandation idéal si l'objectif de l'apprenant est de suivre un apprentissage standard, c'est à dire le parcours où l'objectif est d'avancer dans l'acquisition de la connaissance et les niveaux de complexité. Une valeur est calculée pour chaque niveau de complexité en fonction de la moyenne des notes et du nombre de questions recommandées dans ce niveau de complexité. L'objectif de cette mesure est d'attribuer un score élevé aux systèmes de recommandation qui proposent plus d'exercices au niveau de complexité où l'apprenant a obtenu une note moyenne plus basse, lui permettant ainsi de renforcer ses connaissances pour ce niveau de complexité. De la même manière, il est attendu que le système de recommandation propose moins d'exercices aux niveaux de complexité pour lesquels les notes moyennes sont élevées, l'apprenant ayant acquis des connaissances suffisantes à ces niveaux de complexité. Les scores faibles sont attribués aux systèmes qui recommandent peu d'exercices à des niveaux de complexité dont les notes moyennes sont faibles et, inversement, s'ils proposent beaucoup d'exercices à des niveaux de complexité dont les notes moyennes sont élevées. | |
178 | 178 | |||
\begin{equation} | 179 | 179 | \begin{equation} | |
%r_c=x+y-2xy | 180 | 180 | %r_c=x+y-2xy | |
%r_c=x^2+y^2-2x^2y^2 | 181 | 181 | %r_c=x^2+y^2-2x^2y^2 | |
rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} | 182 | 182 | rp_c(x)=e^{-2(x_{0,c}+x_{1,c}-1)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} | |
\label{eqMetric1} | 183 | 183 | \label{eqMetric1} | |
\end{equation} | 184 | 184 | \end{equation} | |
185 | 185 | |||
\begin{equation} | 186 | 186 | \begin{equation} | |
r=\sum_{c=0}^{c_n-1} rp_c | 187 | 187 | r=\sum_{c=0}^{c_n-1} rp_c | |
\label{eqMetric2} | 188 | 188 | \label{eqMetric2} | |
\end{equation} | 189 | 189 | \end{equation} | |
190 | 190 | |||
Les propriétés de la métrique sont : | 191 | 191 | Les propriétés de la métrique sont : | |
\begin{itemize} | 192 | 192 | \begin{itemize} | |
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$ | 193 | 193 | \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rp_c(x)>0$ | |
\item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$ | 194 | 194 | \item $max(rp_c(x))=1; \; if \; x_{0,c}+x_{1,c}=1$ | |
\item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\ | 195 | 195 | \item $min(rp_c(x))=0.1353; \; if \; \left ( \sum_{i=1}^2 x_{i,c}=0 \; \lor \; \sum_{i=1}^2 x_{i,c} = 2 \right )$\\ | |
\end{itemize} | 196 | 196 | \end{itemize} | |
197 | 197 | |||
Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions auxquelles des réponses ont été données dans le niveau de complexité $c$ (équation \ref{eqYc}). Ainsi, plus la valeur de $r$ est élevée, meilleure est la recommandation. | 198 | 198 | Dans l'équation \ref{eqMetric1}, $x_{0,c}$ est la moyenne normalisée des notes dans le niveau de complexité $c$ (équation \ref{eqXc}), et $x_{1,c}$ est le nombre normalisé de questions auxquelles des réponses ont été données dans le niveau de complexité $c$ (équation \ref{eqYc}). Ainsi, plus la valeur de $r$ est élevée, meilleure est la recommandation. | |
199 | 199 | |||
\begin{equation} | 200 | 200 | \begin{equation} | |
x_{0,c}=\frac{<g_c>_{G_c}}{g_m} | 201 | 201 | x_{0,c}=\frac{<g_c>_{G_c}}{g_m} | |
\label{eqXc} | 202 | 202 | \label{eqXc} | |
\end{equation} | 203 | 203 | \end{equation} | |
204 | 204 | |||
\begin{equation} | 205 | 205 | \begin{equation} | |
x_{1,c}=\frac{ny_c}{n_c} | 206 | 206 | x_{1,c}=\frac{ny_c}{n_c} | |
\label{eqYc} | 207 | 207 | \label{eqYc} | |
\end{equation} | 208 | 208 | \end{equation} | |
209 | 209 | |||
La figure \ref{figMetric} représente la fonction $rp_c(x)$. La valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5. | 210 | 210 | La figure \ref{figMetric} représente la fonction $rp_c(x)$. La valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5. | |
211 | 211 | |||
\begin{figure} | 212 | 212 | \begin{figure} | |
\includegraphics[width=\textwidth]{./Figures/metric.png} | 213 | 213 | \includegraphics[width=\textwidth]{./Figures/metric.png} | |
\caption{Fonction d'évaluation de la qualité de la recommandation pour un parcours standard} | 214 | 214 | \caption{Fonction d'évaluation de la qualité de la recommandation pour un parcours standard} | |
\label{figMetric} | 215 | 215 | \label{figMetric} | |
\end{figure} | 216 | 216 | \end{figure} | |
217 | 217 | |||
Les résultats des calculs de la métrique $rp_c(x)$ établie pour le système initial et les deux algorithmes dans les trois scénarios testés sont présentés dans le tableau \ref{tabRM}. | 218 | 218 | Les résultats des calculs de la métrique $rp_c(x)$ établie pour le système initial et les deux algorithmes dans les trois scénarios testés sont présentés dans le tableau \ref{tabRM}. | |
219 | 219 | |||
\begin{table}[!ht] | 220 | 220 | \begin{table}[!ht] | |
\centering | 221 | 221 | \centering | |
\begin{tabular}{cccccccc} | 222 | 222 | \begin{tabular}{cccccccc} | |
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ | 223 | 223 | &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ | |
\hline | 224 | 224 | \hline | |
Test 1\\ | 225 | 225 | Test 1\\ | |
\hline | 226 | 226 | \hline | |
RàPC&0.5388&-&-&-&-&0.5388&10.776\\ | 227 | 227 | RàPC&0.5388&-&-&-&-&0.5388&10.776\\ | |
DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\ | 228 | 228 | DM&0.8821&0.7282&\textbf{0.9072}&\textbf{0.8759}&-&3.3934&67.868\\ | |
SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\ | 229 | 229 | SM&\textbf{0.9463}&\textbf{0.8790}&0.7782&0.7108&0.6482&\textbf{3.9625}&\textbf{79.25}\\ | |
\hline | 230 | 230 | \hline | |
Test 2\\ | 231 | 231 | Test 2\\ | |
\hline | 232 | 232 | \hline | |
RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\ | 233 | 233 | RàPC&0.9445&\textbf{0.9991}&-&-&-&1.9436&38.872\\ | |
DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\ | 234 | 234 | DM&-&0.9443&\textbf{0.8208}&\textbf{0.9623}&-&2.7274&54.548\\ | |
SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\ | 235 | 235 | SM&\textbf{0.9688}&0.9861&0.8067&0.7161&0.6214&\textbf{4.0991}&\textbf{81.982}\\ | |
\hline | 236 | 236 | \hline | |
Test3\\ | 237 | 237 | Test3\\ | |
\hline | 238 | 238 | \hline | |
RàPC&-&0.8559&0.7377&-&-&1.5936&31.872 | 239 | 239 | RàPC&-&0.8559&0.7377&-&-&1.5936&31.872 | |
\\ | 240 | 240 | \\ | |
DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\ | 241 | 241 | DM&-&-&0.5538&\textbf{0.7980}&-&1.3518&27.036\\ | |
SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\ | 242 | 242 | SM&0.9089&\textbf{0.9072}&\textbf{0.9339}&0.7382&0.6544&\textbf{4.1426}&\textbf{82.852}\\ | |
\end{tabular} | 243 | 243 | \end{tabular} | |
\caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)} | 244 | 244 | \caption{Résultats de la métrique $rp_c(x)$ (RàPC - Système sans module de recommandation, DM - Module de recommandation déterministe, SM - Module de recommandation stochastique)} | |
\label{tabRM} | 245 | 245 | \label{tabRM} | |
\end{table} | 246 | 246 | \end{table} | |
247 | 247 | |||
Les équations \ref{eqMetricS1} et \ref{eqMetricS2} permettent de caractériser un apprentissage progressif ou de révision, où l'objectif est de renforcer la connaissance de chaque niveau de complexité avant d'avancer au suivant. Dans ce cas, un score élevé est attribué aux systèmes proposant plus d'exercices dans un niveau de complexité où les notes moyennes sont légèrement insuffisantes (4/10), plus flexibles avec des notes moyennes plus basses, et un petit nombre d'exercices pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent de nombreuses questions dans un niveau de complexité avec des notes moyennes élevées ou faibles. | 248 | 248 | Les équations \ref{eqMetricS1} et \ref{eqMetricS2} permettent de caractériser un apprentissage progressif ou de révision, où l'objectif est de renforcer la connaissance de chaque niveau de complexité avant d'avancer au suivant. Dans ce cas, un score élevé est attribué aux systèmes proposant plus d'exercices dans un niveau de complexité où les notes moyennes sont légèrement insuffisantes (4/10), plus flexibles avec des notes moyennes plus basses, et un petit nombre d'exercices pour des notes moyennes élevées. Les scores faibles sont attribués aux systèmes qui recommandent de nombreuses questions dans un niveau de complexité avec des notes moyennes élevées ou faibles. | |
249 | 249 | |||
\begin{equation} | 250 | 250 | \begin{equation} | |
rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} | 251 | 251 | rs_c(x)=e^{-\frac{2}{100}(32x_{0,c}^2-28x_{0,c}+10x_{1,c}-4)^2} ; \{x \in \mathbb{R}^2 | 0<=x<=1\} | |
\label{eqMetricS1} | 252 | 252 | \label{eqMetricS1} | |
\end{equation} | 253 | 253 | \end{equation} | |
254 | 254 | |||
\begin{equation} | 255 | 255 | \begin{equation} | |
r=\sum_{c=0}^{c_n-1} rs_c | 256 | 256 | r=\sum_{c=0}^{c_n-1} rs_c | |
\label{eqMetricS2} | 257 | 257 | \label{eqMetricS2} | |
\end{equation} | 258 | 258 | \end{equation} | |
259 | 259 | |||
Les propriétés de la métrique sont : | 260 | 260 | Les propriétés de la métrique sont : | |
\begin{itemize} | 261 | 261 | \begin{itemize} | |
\item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$ | 262 | 262 | \item $\{\forall x \in \mathbb{R}^2 | 0<=x<=1\}, rs_c(x)>0$ | |
\item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\ | 263 | 263 | \item $max(rs_c(x))=1; \; if \; 16x_{0,c}^2-14x_{0,c}+5x_{1,c}-2=0$\\ | |
\end{itemize} | 264 | 264 | \end{itemize} | |
265 | 265 | |||
La figure \ref{figMetric2} représente la fonction $rs_c(x)$. Comme pour $rp_c$, la valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5. | 266 | 266 | La figure \ref{figMetric2} représente la fonction $rs_c(x)$. Comme pour $rp_c$, la valeur maximale de $r$ dans un niveau de complexité spécifique étant égale à $1$, la valeur maximale globale pour les scénarios testés est égale à 5. | |
267 | 267 | |||
Les résultats du calcul des métriques pour le système initial et les deux algorithmes dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}. | 268 | 268 | Les résultats du calcul des métriques pour le système initial et les deux algorithmes dans les trois scénarios définis sont présentés dans le tableau \ref{tabRM2}. | |
269 | 269 | |||
\begin{figure}[!ht] | 270 | 270 | \begin{figure}[!ht] | |
\centering | 271 | 271 | \centering | |
\includegraphics[width=\textwidth]{./Figures/metric2.png} | 272 | 272 | \includegraphics[width=\textwidth]{./Figures/metric2.png} | |
\caption{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.} | 273 | 273 | \caption{Fonction d'évaluation de la qualité de la recommandation pour un apprentissage progressif.} | |
\label{figMetric2} | 274 | 274 | \label{figMetric2} | |
\end{figure} | 275 | 275 | \end{figure} | |
276 | 276 | |||
\begin{table}[!ht] | 277 | 277 | \begin{table}[!ht] | |
\centering | 278 | 278 | \centering | |
\begin{tabular}{cccccccc} | 279 | 279 | \begin{tabular}{cccccccc} | |
&$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ | 280 | 280 | &$c_0$&$c_1$&$c_2$&$c_3$&$c_4$&Total ($r$)&Total ($\%$)\\ | |
\hline | 281 | 281 | \hline | |
Séance 1\\ | 282 | 282 | Séance 1\\ | |
\hline | 283 | 283 | \hline | |
RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\\ | 284 | 284 | RàPC&\textbf{0.9979}&-&-&-&-&0.9979&19.96\\ | |
DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\ | 285 | 285 | DM&0.8994&0.1908&\textbf{0.3773}&\textbf{0.2990}&-&1.7665&35.33\\ | |
SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\ | 286 | 286 | SM&0.8447&\textbf{0.3012}&0.2536&0.2030&\textbf{0.1709}&\textbf{1.7734}&\textbf{35.47}\\ | |
\hline | 287 | 287 | \hline | |
Séance 2\\ | 288 | 288 | Séance 2\\ | |
\hline | 289 | 289 | \hline | |
RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\\ | 290 | 290 | RàPC&\textbf{0.4724}&\textbf{0.7125}&-&-&-&1.1849&23.70\\ | |
DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\ | 291 | 291 | DM&-&0.6310&\textbf{0.3901}&\textbf{0.4253}&-&1.4464&28.93\\ | |
SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\ | 292 | 292 | SM&0.2697&0.7089&0.2634&0.2026&\textbf{0.1683}&\textbf{1.6129}&\textbf{32.26}\\ | |
\hline | 293 | 293 | \hline | |
Séance 3\\ | 294 | 294 | Séance 3\\ | |
\hline | 295 | 295 | \hline | |
RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74 | 296 | 296 | RàPC&-&\textbf{0.9179}&0.2692&-&-&1.1871&23.74 | |
\\ | 297 | 297 | \\ | |
DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\ | 298 | 298 | DM&-&-&0.2236&\textbf{0.9674}&-&1.191&23.82\\ | |
SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\ | 299 | 299 | SM&0.1873&0.3038&\textbf{0.6345}&0.2394&\textbf{0.1726}&\textbf{1.5376}&\textbf{30.75}\\ | |
\end{tabular} | 300 | 300 | \end{tabular} | |
\caption{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique} | 301 | 301 | \caption{Évaluation des recommandations proposées selon $rs_c(x)$ par les différents systèmes de recommandation testés : RàPC - Système sans module de recommandation, DM - Algorithme deterministique, SM - Algorithme stochastique} | |
\label{tabRM2} | 302 | 302 | \label{tabRM2} | |
\end{table} | 303 | 303 | \end{table} | |
304 | 304 | |||
En complément, le tableau \ref{tabCS} présente les similarités entre toutes les recommandations faites aux apprenants par les trois systèmes et les trois séances d'entraînement. Pour ce faire, nous avons choisi d'appliquer l'équation \ref{eqCS} permettant de calculer une similarité cosinus entre deux vecteurs $A$ et $B$. | 305 | 305 | En complément, le tableau \ref{tabCS} présente les similarités entre toutes les recommandations faites aux apprenants par les trois systèmes et les trois séances d'entraînement. Pour ce faire, nous avons choisi d'appliquer l'équation \ref{eqCS} permettant de calculer une similarité cosinus entre deux vecteurs $A$ et $B$. | |
306 | 306 | |||
\begin{equation} | 307 | 307 | \begin{equation} | |
sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}} | 308 | 308 | sc=\frac{\sum_{i=1}^n A_i B_i}{\sqrt{\sum_{i=1}^n A_i^2} \sqrt{\sum_{i=1}^n B_i^2}} | |
\label{eqCS} | 309 | 309 | \label{eqCS} | |
\end{equation} | 310 | 310 | \end{equation} | |
311 | 311 | |||
\begin{table}[!ht] | 312 | 312 | \begin{table}[!ht] | |
\centering | 313 | 313 | \centering | |
\begin{tabular}{cccc} | 314 | 314 | \begin{tabular}{cccc} | |
Système de recommandation & Séance 1 & Séance 2 & Séance 3\\ | 315 | 315 | Système de recommandation & Séance 1 & Séance 2 & Séance 3\\ | |
\hline | 316 | 316 | \hline | |
RàPC&1&1&1\\ | 317 | 317 | RàPC&1&1&1\\ | |
DM&0.9540&0.9887&0.9989\\ | 318 | 318 | DM&0.9540&0.9887&0.9989\\ | |
SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\ | 319 | 319 | SM&\textbf{0.8124}&\textbf{0.8856}&\textbf{0.9244}\\ | |
\end{tabular} | 320 | 320 | \end{tabular} | |
\caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)} | 321 | 321 | \caption{Moyenne de la diversité des propositions pour tous les apprenants. Une valeur plus faible représente une plus grande diversité. (RàPC - Système sans module de recommandation, DM - Module déterministe, SM - Module stochastique)} | |
\label{tabCS} | 322 | 322 | \label{tabCS} | |
\end{table} | 323 | 323 | \end{table} | |
324 | 324 | |||
\subsection{Discussion et Conclusion} | 325 | 325 | \subsection{Discussion et Conclusion} | |
Avec la génération d'exercices par le système de RàPC initial, AI-VT propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, un changement toutes les trois ou quatre séances environ. En effet, le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes intégrant l'un des modules de recommandation testés sont plus dynamiques et les évolutions sont plus rapides. En considérant les notes des apprenants, l'algorithme déterministe suggère des changements de niveaux à un grand nombre d'apprenants de manière soudaine, tandis que l'algorithme stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modules de recommandation proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers. | 326 | 326 | Avec la génération d'exercices par le système de RàPC initial, AI-VT propose les mêmes exercices à tous les apprenants, et l'évolution des niveaux de complexité est très lente, un changement toutes les trois ou quatre séances environ. En effet, le système ne prend pas en compte les notes obtenues pendant la séance. Les systèmes intégrant l'un des modules de recommandation testés sont plus dynamiques et les évolutions sont plus rapides. En considérant les notes des apprenants, l'algorithme déterministe suggère des changements de niveaux à un grand nombre d'apprenants de manière soudaine, tandis que l'algorithme stochastique est plus axé sur la personnalisation individuelle et les changements de niveau de complexité sont produits pour un petit nombre d'apprenants. Les deux modules de recommandation proposés ont la capacité de détecter les faiblesses des apprenants et d'adapter la séance à leurs besoins particuliers. | |
327 | 327 | |||
Les données générées ont permis de simuler diverses situations avec les notes de mille apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations. | 328 | 328 | Les données générées ont permis de simuler diverses situations avec les notes de mille apprenants, permettant ainsi d'évaluer le comportement des systèmes de recommandation avec différentes configurations. | |
329 | 329 | |||
Les résultats numériques montrent que les distributions des questions dans une séance par les deux modules de recommandation sont différentes bien que la tendance générale soit similaire. Les modules de recommandation proposés tentent de répartir les questions dans tous les niveaux de complexité définis. Globalement, le module de recommandation stochastique a obtenu un meilleur score. En comparaison du système initial, les modules de recommandation (déterministe et stochastique) proposent 15\% à 68\% d'adaptations de la complexité pour tous les niveaux. Pour cette raison, l'approche stochastique sera préférée à l'approche déterministe dans la suite des travaux de recherche. | 330 | 330 | Les résultats numériques montrent que les distributions des questions dans une séance par les deux modules de recommandation sont différentes bien que la tendance générale soit similaire. Les modules de recommandation proposés tentent de répartir les questions dans tous les niveaux de complexité définis. Globalement, le module de recommandation stochastique a obtenu un meilleur score. En comparaison du système initial, les modules de recommandation (déterministe et stochastique) proposent 15\% à 68\% d'adaptations de la complexité pour tous les niveaux. Pour cette raison, l'approche stochastique sera préférée à l'approche déterministe dans la suite des travaux de recherche. | |
331 | 331 | |||
Selon la métrique de la similarité cosinus, le module de recommandation stochastique augmente la diversité des propositions par rapport au système initial dans les trois séances d'entraînement testées, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de progression des niveaux de compétence des apprenants. La diversité des propositions est une caractéristique essentielle de l'algorithme de recommandation dans ses deux versions. | 332 | 332 | Selon la métrique de la similarité cosinus, le module de recommandation stochastique augmente la diversité des propositions par rapport au système initial dans les trois séances d'entraînement testées, ce qui indique qu'en plus d'atteindre l'adaptabilité, des propositions personnalisées sont générées tout en maintenant l'objectif de progression des niveaux de compétence des apprenants. La diversité des propositions est une caractéristique essentielle de l'algorithme de recommandation dans ses deux versions. | |
333 | 333 | |||
Les modules de recommandation sont un élément essentiel pour certains EIAH car ils aident à guider le processus d'apprentissage individuel. Ils permettent également d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les deux modules de recommandation proposés peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le niveau de complexité le plus adapté. Même si l'ensemble des données générées est une simulation de temps de réponse et de notes fictives d'apprenants fictifs, les tests démontrent la flexibilité et la robustesse des modules de recommandation proposés : les données relatives aux apprenants présentent en effet une grande diversité et obligent le système à s'adapter à différents types de configuration. Par conséquent, il est possible de conclure que les modules de recommandation proposés ont la capacité de fonctionner dans différentes situations et de proposer des chemins alternatifs et personnalisés pour améliorer le processus d'apprentissage global. | 334 | 334 | Les modules de recommandation sont un élément essentiel pour certains EIAH car ils aident à guider le processus d'apprentissage individuel. Ils permettent également d'identifier les faiblesses et de réorienter le processus complet afin d'améliorer les connaissances et les compétences. Les deux modules de recommandation proposés peuvent détecter en temps réel les faiblesses de l'apprenant et tentent de réorienter la séance vers le niveau de complexité le plus adapté. Même si l'ensemble des données générées est une simulation de temps de réponse et de notes fictives d'apprenants fictifs, les tests démontrent la flexibilité et la robustesse des modules de recommandation proposés : les données relatives aux apprenants présentent en effet une grande diversité et obligent le système à s'adapter à différents types de configuration. Par conséquent, il est possible de conclure que les modules de recommandation proposés ont la capacité de fonctionner dans différentes situations et de proposer des chemins alternatifs et personnalisés pour améliorer le processus d'apprentissage global. | |
335 | 335 | |||
\section{ESCBR-SMA et échantillonnage de Thompson} | 336 | 336 | \section{ESCBR-SMA et échantillonnage de Thompson} | |
\sectionmark{ESCBR-SMA et TS} | 337 | 337 | \sectionmark{ESCBR-SMA et TS} | |
338 | 338 | |||
La section précédente a démontré l'intérêt de l'intégration d'un module de recommandation afin de proposer des exercices d'un niveau de difficulté adapté aux besoins de l'apprenant en fonction des difficultés décelées au cours de la séance d'entraînement. Le système AI-VT initial fondé sur le cycle du raisonnement à partir de cas et ne proposant que des adaptations entre deux séances d’entraînement consécutives, a été supplanté par l'intégration de modules de recommandation utilisés durant la phase de révision du cycle classique du RàPC. Les deux modules de recommandation testés dans la section précédente étaient l'un déterministe, l'autre stochastique. | 339 | 339 | La section précédente a démontré l'intérêt de l'intégration d'un module de recommandation afin de proposer des exercices d'un niveau de difficulté adapté aux besoins de l'apprenant en fonction des difficultés décelées au cours de la séance d'entraînement. Le système AI-VT initial fondé sur le cycle du raisonnement à partir de cas et ne proposant que des adaptations entre deux séances d’entraînement consécutives, a été supplanté par l'intégration de modules de recommandation utilisés durant la phase de révision du cycle classique du RàPC. Les deux modules de recommandation testés dans la section précédente étaient l'un déterministe, l'autre stochastique. | |
340 | 340 | |||
La section précédente a également démontré qu'il était possible et intéressant que les niveaux de complexité des exercices proposés puissent suivre des fonctions permettant de les faire fluctuer de manière progressive au cours de la séance, et ce afin que les apprenants ne soient pas confrontés à des difficultés changeant de manière trop abrupte durant l'entraînement. Cette étude nous amène donc à considérer la résolution de la génération d'une séance d'exercices sous l'angle de la régression. Nous proposons donc dans cette partie de montrer de quelle manière nous avons intégré et vérifié l'intérêt des outils définis dans le chapitre précédent dans l'EIAH AI-VT. | 341 | 341 | La section précédente a également démontré qu'il était possible et intéressant que les niveaux de complexité des exercices proposés puissent suivre des fonctions permettant de les faire fluctuer de manière progressive au cours de la séance, et ce afin que les apprenants ne soient pas confrontés à des difficultés changeant de manière trop abrupte durant l'entraînement. Cette étude nous amène donc à considérer la résolution de la génération d'une séance d'exercices sous l'angle de la régression. Nous proposons donc dans cette partie de montrer de quelle manière nous avons intégré et vérifié l'intérêt des outils définis dans le chapitre précédent dans l'EIAH AI-VT. | |
342 | 342 | |||
\subsection{Concepts Associés} | 343 | 343 | \subsection{Concepts Associés} | |
344 | 344 | |||
Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du module proposé. Le paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances acquises et l'expérience accumulée pour résoudre un problème spécifique. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC suit classiquement un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}. | 345 | 345 | Cette section présente les concepts, les définitions et les algorithmes nécessaires à la compréhension du module proposé. Le paradigme fondamental utilisé dans ce travail est le raisonnement à partir de cas (RàPC), qui permet d'exploiter les connaissances acquises et l'expérience accumulée pour résoudre un problème spécifique. L'idée principale est de rechercher des situations antérieures similaires et d'utiliser l'expérience acquise pour résoudre de nouveaux problèmes. Le RàPC suit classiquement un cycle de quatre étapes pour améliorer la solution d'inférence \cite{jmse11050890}. | |
346 | 346 | |||
L'un des algorithmes les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (\textit{Bayesian Knowledge Tracing}) \cite{ZHANG2018189}. Cet algorithme utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur. $P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour selon les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée. | 347 | 347 | L'un des algorithmes les plus couramment utilisés dans les EIAH pour adapter le contenu et estimer la progression du niveau de connaissance des apprenants est le BKT (\textit{Bayesian Knowledge Tracing}) \cite{ZHANG2018189}. Cet algorithme utilise quatre paramètres pour estimer la progression des connaissances. $P(k)$ estime la probabilité de connaissance dans une compétence spécifique. $P(w)$, est la probabilité que l'apprenant démontre ses connaissances. $P(s)$, est la probabilité que l'apprenant fasse une erreur. $P(g)$, est la probabilité que l'apprenant ait deviné une réponse. La valeur estimée de la connaissance est mise à jour selon les équations \ref{eqbkt1}, \ref{eqbkt2} et \ref{eqbkt3}. Si la réponse de l'apprenant est correcte, l'équation \ref{eqbkt1} est utilisée, mais si la réponse est incorrecte, l'équation \ref{eqbkt2} est utilisée. | |
348 | 348 | |||
\begin{equation} | 349 | 349 | \begin{equation} | |
P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)} | 350 | 350 | P(k_{t-1}|Correct_t)=\frac{P(k_{t-1})(1-P(s))}{P(k_{t-1})(1-P(s))+(1-P(k_{t-1}))P(g)} | |
\label{eqbkt1} | 351 | 351 | \label{eqbkt1} | |
\end{equation} | 352 | 352 | \end{equation} | |
353 | 353 | |||
\begin{equation} | 354 | 354 | \begin{equation} | |
P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))} | 355 | 355 | P(k_{t-1}|Incorrect_t)=\frac{P(k_{t-1})P(s)}{P(k_{t-1})(P(s))+(1-P(k_{t-1}))(1-P(g))} | |
\label{eqbkt2} | 356 | 356 | \label{eqbkt2} | |
\end{equation} | 357 | 357 | \end{equation} | |
358 | 358 | |||
\begin{equation} | 359 | 359 | \begin{equation} | |
P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w) | 360 | 360 | P(k_{t})=P(k_{t-1}|evidence_t)+(1-P(k_{t-1}|evidence_t))P(w) | |
\label{eqbkt3} | 361 | 361 | \label{eqbkt3} | |
\end{equation} | 362 | 362 | \end{equation} | |
363 | 363 | |||
Le module de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. Nous nous intéressons ici plus particulièrement à l'échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions \textit{Beta} (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}. | 364 | 364 | Le module de recommandation proposé, associé à AI-VT, est fondé sur le paradigme de l'apprentissage par renforcement. L'apprentissage par renforcement est une technique d'apprentissage automatique qui permet, par le biais d'actions et de récompenses, d'améliorer les connaissances du système sur une tâche spécifique \cite{NEURIPS2023_9d8cf124}. Nous nous intéressons ici plus particulièrement à l'échantillonnage de Thompson, qui, par le biais d'une distribution de probabilité initiale (distribution a priori) et d'un ensemble de règles de mise à jour prédéfinies, peut adapter et améliorer les estimations initiales d'un processus \cite{pmlr-v238-ou24a}. La distribution de probabilité initiale est généralement définie comme une distribution spécifique de la famille des distributions \textit{Beta} (équation \ref{fbeta}) avec des valeurs initiales prédéterminées pour $\alpha$ et $\beta$ \cite{math12111758}, \cite{NGUYEN2024111566}. | |
365 | 365 | |||
%\begin{equation} | 366 | 366 | %\begin{equation} | |
% Beta(x,\alpha,\beta)=\begin{cases} | 367 | 367 | % Beta(x,\alpha,\beta)=\begin{cases} | |
% \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\ | 368 | 368 | % \frac{(x^{\alpha -1})(1-x)^{\beta -1}}{\int_0^1(u^{\alpha -1})(1-u)^{\beta -1} du}&x \in [0, 1]\\ | |
% 0&otherwise | 369 | 369 | % 0&otherwise | |
% \end{cases} | 370 | 370 | % \end{cases} | |
%\end{equation} | 371 | 371 | %\end{equation} | |
372 | 372 | |||
\begin{equation} | 373 | 373 | \begin{equation} | |
Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} | 374 | 374 | Beta(\theta | \alpha, \beta) = \frac{\Gamma(\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1} | |
\label{fbeta} | 375 | 375 | \label{fbeta} | |
\end{equation} | 376 | 376 | \end{equation} | |
377 | 377 | |||
En utilisant la définition formelle de la fonction $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant certaines variables, une nouvelle expression de la fonction \textit{Beta} est obtenue (équation \ref{f2beta}). | 378 | 378 | En utilisant la définition formelle de la fonction $\Gamma$ (équation \ref{eqGamma1}) et en remplaçant certaines variables, une nouvelle expression de la fonction \textit{Beta} est obtenue (équation \ref{f2beta}). | |
379 | 379 | |||
\begin{equation} | 380 | 380 | \begin{equation} | |
\Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx | 381 | 381 | \Gamma(z)=\int_0^\infty e^{-x} x^{z-1} dx | |
\label{eqGamma1} | 382 | 382 | \label{eqGamma1} | |
\end{equation} | 383 | 383 | \end{equation} | |
384 | 384 | |||
\begin{equation} | 385 | 385 | \begin{equation} | |
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1} | 386 | 386 | Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_0^\infty e^{-u} u^{\alpha-1}du\int_0^\infty e^{-v} v^{\beta-1}dv}\theta^{\alpha-1}(1-\theta)^{\beta-1} | |
\label{f2beta} | 387 | 387 | \label{f2beta} | |
\end{equation} | 388 | 388 | \end{equation} | |
389 | 389 | |||
En exprimant les deux intégrales du dénominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue. | 390 | 390 | En exprimant les deux intégrales du dénominateur comme une seule intégrale, l'équation \ref{f3Beta} est obtenue. | |
391 | 391 | |||
\begin{equation} | 392 | 392 | \begin{equation} | |
\int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv | 393 | 393 | \int_{u=0}^{\infty}\int_{v=0}^\infty e^{-u-v} u^{\alpha-1} v^{\beta-1}du dv | |
\label{f3Beta} | 394 | 394 | \label{f3Beta} | |
\end{equation} | 395 | 395 | \end{equation} | |
396 | 396 | |||
$u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$ sont ensuite remplacées par le résultat du Jacobien \ref{eqJac}, menant ainsi à l'expression finale définie par l'équation \ref{f4Beta}. | 397 | 397 | $u=st$, $v=s(1-t)$, $s=u+v$ et $t=u/(u+v)$ sont ensuite remplacées par le résultat du Jacobien \ref{eqJac}, menant ainsi à l'expression finale définie par l'équation \ref{f4Beta}. | |
398 | 398 | |||
\begin{equation} | 399 | 399 | \begin{equation} | |
\left ( | 400 | 400 | \left ( | |
\begin{matrix} | 401 | 401 | \begin{matrix} | |
\frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\ | 402 | 402 | \frac{\partial u}{\partial t} & \frac{\partial u}{\partial s}\\ | |
\frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\ | 403 | 403 | \frac{\partial v}{\partial t} & \frac{\partial v}{\partial s}\\ | |
\end{matrix} | 404 | 404 | \end{matrix} | |
\right ) = | 405 | 405 | \right ) = | |
\left ( | 406 | 406 | \left ( | |
\begin{matrix} | 407 | 407 | \begin{matrix} | |
sdt & tds \\ | 408 | 408 | sdt & tds \\ | |
-sdt & (1-t)ds\\ | 409 | 409 | -sdt & (1-t)ds\\ | |
\end{matrix} | 410 | 410 | \end{matrix} | |
\right ) = s \; dtds | 411 | 411 | \right ) = s \; dtds | |
\label{eqJac} | 412 | 412 | \label{eqJac} | |
\end{equation} | 413 | 413 | \end{equation} | |
414 | 414 | |||
\begin{equation} | 415 | 415 | \begin{equation} | |
\int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt | 416 | 416 | \int_{s=0}^\infty \int_{t=0}^1 e^{-s}(st)^{\alpha-1}(s(1-t))^{\beta-1}s \; dsdt | |
\label{f4Beta} | 417 | 417 | \label{f4Beta} | |
\end{equation} | 418 | 418 | \end{equation} | |
419 | 419 | |||
Viennent ensuite les équations \ref{f5Beta} et \ref{f6Beta} en exprimant les intégrales en fonction des variables de substitution indépendantes $s$ et $t$. | 420 | 420 | Viennent ensuite les équations \ref{f5Beta} et \ref{f6Beta} en exprimant les intégrales en fonction des variables de substitution indépendantes $s$ et $t$. | |
421 | 421 | |||
\begin{equation} | 422 | 422 | \begin{equation} | |
\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | 423 | 423 | \int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | |
\label{f5Beta} | 424 | 424 | \label{f5Beta} | |
\end{equation} | 425 | 425 | \end{equation} | |
426 | 426 | |||
\begin{equation} | 427 | 427 | \begin{equation} | |
Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | 428 | 428 | Beta(\theta | \alpha, \beta) = \frac{\int_0^\infty e^{-s} s^{\alpha+\beta-1}ds}{\int_{s=0}^\infty e^{-s}s^{\alpha+\beta-1}ds \int_{t=0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | |
}\theta^{\alpha-1}(1-\theta)^{\beta-1} | 429 | 429 | }\theta^{\alpha-1}(1-\theta)^{\beta-1} | |
\label{f6Beta} | 430 | 430 | \label{f6Beta} | |
\end{equation} | 431 | 431 | \end{equation} | |
432 | 432 | |||
Finalement, la famille de fonctions de distribution \textit{Beta} peut être calculée selon l'équation \ref{f7Beta}. | 433 | 433 | Finalement, la famille de fonctions de distribution \textit{Beta} peut être calculée selon l'équation \ref{f7Beta}. | |
434 | 434 | |||
\begin{equation} | 435 | 435 | \begin{equation} | |
Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | 436 | 436 | Beta(\theta | \alpha, \beta) = \frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^1 t^{\alpha-1}(1-t)^{\beta-1}dt | |
} | 437 | 437 | } | |
\label{f7Beta} | 438 | 438 | \label{f7Beta} | |
\end{equation} | 439 | 439 | \end{equation} | |
440 | 440 | |||
L'évolution de l'algorithme de recommandation TS résulte du changement des distributions de probabilité. Il est à noter qu'au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude. | 441 | 441 | L'évolution de l'algorithme de recommandation TS résulte du changement des distributions de probabilité. Il est à noter qu'au moment de quantifier l'évolution, le changement et la variabilité doivent être calculés en fonction du temps. Les distributions de probabilités peuvent être comparées pour déterminer leur degré de similitude. | |
442 | 442 | |||
Par ailleurs, l'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'informations nécessaires pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. Bien que largement utilisée, la divergence de Kullback-Liebler (équation \ref{dkl}) présente toutefois l'inconvénient de ne pas être une mesure symétrique car elle ne satisfait pas à l'inégalité triangulaire et n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon. | 443 | 443 | Par ailleurs, l'apprentissage automatique utilise la divergence de Kullback-Liebler, qui décrit l'entropie relative de deux distributions de probabilités. Cette fonction est fondée sur le concept d'entropie et le résultat peut être interprété comme la quantité d'informations nécessaires pour obtenir la distribution de probabilité $q$ à partir de la distribution de probabilité $p$. Bien que largement utilisée, la divergence de Kullback-Liebler (équation \ref{dkl}) présente toutefois l'inconvénient de ne pas être une mesure symétrique car elle ne satisfait pas à l'inégalité triangulaire et n'est pas bornée \cite{Li_2024}. Pour remédier à cette difficulté, il est possible d'utiliser la divergence de Jensen-Shannon. | |
444 | 444 | |||
\begin{equation} | 445 | 445 | \begin{equation} | |
D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx | 446 | 446 | D_{KL}(p(x),q(x))=\int_{-\infty}^{\infty}p(x) log \left(\frac{p(x)}{q(x)} \right)dx | |
\label{dkl} | 447 | 447 | \label{dkl} | |
\end{equation} | 448 | 448 | \end{equation} | |
449 | 449 | |||
La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler. Une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$. Celle-ci est calculée selon l'équation \ref{djs2}. Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine. | 450 | 450 | La divergence de Jenser-Shannon est fondée sur la divergence de Kullback-Liebler. Une distribution de probabilité auxiliaire $m$ est créée dont la définition est fondée sur les distributions initiales $p$ et $q$ \cite{Kim2024}. L'équation \ref{djs} montre la définition formelle de la divergence de Jensen-Shannon, où $m(x)$ est une distribution de mélange de probabilités fondée sur $p(x)$ et $q(x)$. Celle-ci est calculée selon l'équation \ref{djs2}. Les distributions de probabilité à comparer doivent être continues et définies dans le même domaine. | |
451 | 451 | |||
%Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\ | 452 | 452 | %Jensen-Shannon Divergence (equations \ref{djs}, \ref{djs2}).\\ | |
453 | 453 | |||
\begin{equation} | 454 | 454 | \begin{equation} | |
D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x)) | 455 | 455 | D_{JS}(p(x),q(x))=\frac{1}{2}D_{KL}(p(x), m(x))+\frac{1}{2}D_{KL}(q(x), m(x)) | |
\label{djs} | 456 | 456 | \label{djs} | |
\end{equation} | 457 | 457 | \end{equation} | |
458 | 458 | |||
\begin{equation} | 459 | 459 | \begin{equation} | |
m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x) | 460 | 460 | m(x)=\frac{1}{2}p(x)+\frac{1}{2}q(x) | |
\label{djs2} | 461 | 461 | \label{djs2} | |
\end{equation} | 462 | 462 | \end{equation} | |
463 | 463 | |||
La prédiction utilisée dans le module proposé ici a été présentée dans le chapitre \ref{ChapESCBR}. Il s'agit d'un algorithme d'empilement de raisonnement à partir de cas mettant en œuvre deux niveaux d'intégration. Le module utilise globalement la stratégie d'empilement pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et générer des solutions à différents problèmes génériques. En outre une étape d'évaluation permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. | 464 | 464 | La prédiction utilisée dans le module proposé ici a été présentée dans le chapitre \ref{ChapESCBR}. Il s'agit d'un algorithme d'empilement de raisonnement à partir de cas mettant en œuvre deux niveaux d'intégration. Le module utilise globalement la stratégie d'empilement pour exécuter plusieurs algorithmes afin de rechercher des informations dans un ensemble de données et générer des solutions à différents problèmes génériques. En outre une étape d'évaluation permet de sélectionner la solution la plus optimale pour un problème donné en fonction d'une métrique adaptative définie pour les problèmes de régression. | |
465 | 465 | |||
\subsection{Algorithme Proposé} | 466 | 466 | \subsection{Algorithme Proposé} | |
\label{Sec:TS-ESCBR-SMA} | 467 | 467 | \label{Sec:TS-ESCBR-SMA} | |
468 | 468 | |||
Nous proposons ici une intégration de l'algorithme d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec ESCBR-SMA. Ainsi, le module de recommandation révise la séance en fonction des notes de l'apprenant et ESCBR-SMA effectue une prédiction pour valider l'adaptation générée. | 469 | 469 | Nous proposons ici une intégration de l'algorithme d'adaptation stochastique (fondé sur l'échantillonnage de Thompson) avec ESCBR-SMA. Ainsi, le module de recommandation révise la séance en fonction des notes de l'apprenant et ESCBR-SMA effectue une prédiction pour valider l'adaptation générée. | |
470 | 470 | |||
L'idée est d'unifier les deux modules en se fondant à la fois sur des informations locales (recommandation fondée sur l'échantillonnage de Thompson (TS) et les informations propres à l'apprenant), et sur des informations globales (cas similaires de la base de connaissances du système de RàPC en suivant le principe du paradoxe de Stein) car le RàPC combine différents observations pour réaliser une estimation. | 471 | 471 | L'idée est d'unifier les deux modules en se fondant à la fois sur des informations locales (recommandation fondée sur l'échantillonnage de Thompson (TS) et les informations propres à l'apprenant), et sur des informations globales (cas similaires de la base de connaissances du système de RàPC en suivant le principe du paradoxe de Stein) car le RàPC combine différents observations pour réaliser une estimation. | |
472 | 472 | |||
L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, où l'on peut voir que les deux algorithmes TS et RàPC sont exécutés en parallèle et indépendamment. Des synchronisations sont faites après obtention des résultats de chaque module. Ces résultats sont unifiés via d'une fonction de pondération. La recommandation finale est calculée selon l'équation \ref{eqMixModels_}. Le \textit{paradoxe de Simpson} est un paradoxe dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés \cite{10.1145/3578337.3605122}. L'unification d'ensembles de données différents peut atténuer ce paradoxe \cite{lei2024analysis}. | 473 | 473 | L'architecture de l'algorithme est présentée sur la figure \ref{fig:Amodel}, où l'on peut voir que les deux algorithmes TS et RàPC sont exécutés en parallèle et indépendamment. Des synchronisations sont faites après obtention des résultats de chaque module. Ces résultats sont unifiés via d'une fonction de pondération. La recommandation finale est calculée selon l'équation \ref{eqMixModels_}. Le \textit{paradoxe de Simpson} est un paradoxe dans lequel un phénomène observé dans plusieurs groupes s'inverse lorsque les groupes sont combinés \cite{10.1145/3578337.3605122}. L'unification d'ensembles de données différents peut atténuer ce paradoxe \cite{lei2024analysis}. | |
474 | 474 | |||
\begin{figure} | 475 | 475 | \begin{figure} | |
\centering | 476 | 476 | \centering | |
\includegraphics[width=0.7\linewidth]{Figures/Model.png} | 477 | 477 | \includegraphics[width=0.7\linewidth]{Figures/Model.png} | |
\caption{Schéma de l'architecture de l'algorithme proposé} | 478 | 478 | \caption{Schéma de l'architecture de l'algorithme proposé} | |
\label{fig:Amodel} | 479 | 479 | \label{fig:Amodel} | |
\end{figure} | 480 | 480 | \end{figure} | |
481 | 481 | |||
La première étape est l'adaptation avec l'échantillonnage de Thompson. Vient ensuite la prédiction via ECBR-SMA. Enfin, le processus se termine par la prise de décision concernant la suite de la séance à délivrer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé ainsi que les mesures employées. | 482 | 482 | La première étape est l'adaptation avec l'échantillonnage de Thompson. Vient ensuite la prédiction via ESCBR-SMA. Enfin, le processus se termine par la prise de décision concernant la suite de la séance à délivrer à l'apprenant. Le système de recommandation obtient une valeur de probabilité pour tous les niveaux de complexité et l'ECBR-SMA évalue la proposition avec une prédiction pour chaque niveau de complexité. Le tableau \ref{tabvp} présente les variables et les paramètres du module proposé ainsi que les mesures employées. | |
483 | 483 | |||
\begin{table}[!ht] | 484 | 484 | \begin{table}[!ht] | |
\centering | 485 | 485 | \centering | |
\footnotesize | 486 | 486 | \footnotesize | |
\begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c} | 487 | 487 | \begin{tabular}{c|c|>{\centering\arraybackslash}p{8cm}|c} | |
ID&Type&Description&Domaine\\ | 488 | 488 | ID&Type&Description&Domaine\\ | |
\hline | 489 | 489 | \hline | |
$\alpha$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\ | 490 | 490 | $\alpha$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\ | |
$\beta$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\ | 491 | 491 | $\beta$&p&Paramètre de la distribution \textit{Beta}&$[1, \infty] \in \mathbb{R}$\\ | |
$t$&p&Numéro de l'itération&$\mathbb{N}$\\ | 492 | 492 | $t$&p&Numéro de l'itération&$\mathbb{N}$\\ | |
$c$&p&Niveau de complexité&$\mathbb{N}$\\ | 493 | 493 | $c$&p&Niveau de complexité&$\mathbb{N}$\\ | |
$x_c$&p&Notes moyennes par niveau de complexité $c$&$\mathbb{R}$\\ | 494 | 494 | $x_c$&p&Notes moyennes par niveau de complexité $c$&$\mathbb{R}$\\ | |
$y_c$&p&Nombre de questions par niveau de complexité $c$&$\mathbb{N}$\\ | 495 | 495 | $y_c$&p&Nombre de questions par niveau de complexité $c$&$\mathbb{N}$\\ | |
$r$&f&Fonction suivie pour la recommandation&$[0,1] \in \mathbb{R}$\\ | 496 | 496 | $r$&f&Fonction suivie pour la recommandation&$[0,1] \in \mathbb{R}$\\ | |
$k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ | 497 | 497 | $k_{t,c}$&v&Évolution de la connaissance dans le temps $t$ pour le niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ | |
$vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\ | 498 | 498 | $vk_{t,c}$&v&Évolution de la connaissance pour chaque niveau de complexité $c$&$\mathbb{R}$\\ | |
$TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ | 499 | 499 | $TS_c$&v&Récompense d'échantillonnage de Thompson pour un niveau de complexité $c$&$[0,1] \in \mathbb{R}$\\ | |
$TSN_c$&v&Normalisation de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\ | 500 | 500 | $TSN_c$&v&Normalisation de $TS_c$ avec d'autres niveaux de complexité&$[0,1] \in \mathbb{R}$\\ | |
$ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\ | 501 | 501 | $ESCBR_c$&v&Prédiction de la note pour un niveau de complexité $c$&$\mathbb{R}_+$\\ | |
$p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\ | 502 | 502 | $p_c$&f&Fonction de densité de probabilité pour le niveau de complexité $c$&$\mathbb{R}_+$\\ | |
$D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\ | 503 | 503 | $D_{JS}$&f&Divergence de Jensen-Shannon&$[0,1] \in \mathbb{R}$\\ | |
504 | 504 | |||
\end{tabular} | 505 | 505 | \end{tabular} | |
\caption{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées} | 506 | 506 | \caption{Paramètres (p), variables (v) et fonctions (f) de l'algorithme proposé et des métriques utilisées} | |
\label{tabvp} | 507 | 507 | \label{tabvp} | |
\end{table} | 508 | 508 | \end{table} | |
509 | 509 | |||
Pour rappel, le processus de recommandation se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le algorithme TS (équation \ref{IntEq1_}). Une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée selon l'équation \ref{IntEq2_}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par ESCBR-SMA (équation \ref{eqMixModels_}). La recommandation finalement proposée est celle dont la valeur est la plus élevée. | 510 | 510 | Pour rappel, le processus de recommandation se fait en trois étapes. Tout d'abord, il est nécessaire d'avoir des valeurs aléatoires pour chaque niveau de complexité $c$ en utilisant les distributions de probabilité générées avec le algorithme TS (équation \ref{IntEq1_}). Une fois que toutes les valeurs de probabilité correspondant à tous les niveaux de complexité ont été obtenues, la normalisation de toutes ces valeurs est calculée selon l'équation \ref{IntEq2_}. Les valeurs de normalisation servent de paramètres de priorité pour les prédictions effectuées par ESCBR-SMA (équation \ref{eqMixModels_}). La recommandation finalement proposée est celle dont la valeur est la plus élevée. | |
511 | 511 | |||
\begin{equation} | 512 | 512 | \begin{equation} | |
TS_c \sim (Beta(\alpha_c, \beta_c)) | 513 | 513 | TS_c \sim (Beta(\alpha_c, \beta_c)) | |
\label{IntEq1_} | 514 | 514 | \label{IntEq1_} | |
\end{equation} | 515 | 515 | \end{equation} | |
516 | 516 | |||
\begin{equation} | 517 | 517 | \begin{equation} | |
TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i} | 518 | 518 | TSN_c=\frac{TS_c}{\sum_{i=0}^4TS_i} | |
\label{IntEq2_} | 519 | 519 | \label{IntEq2_} | |
\end{equation} | 520 | 520 | \end{equation} | |
521 | 521 | |||
\begin{equation} | 522 | 522 | \begin{equation} | |
n_c=argmax_c(TSN_c*ESCBR_c) | 523 | 523 | n_c=argmax_c(TSN_c*ESCBR_c) | |
\label{eqMixModels_} | 524 | 524 | \label{eqMixModels_} | |
\end{equation} | 525 | 525 | \end{equation} | |
526 | 526 | |||
\subsection{Résultats et Discussion} | 527 | 527 | \subsection{Résultats et Discussion} | |
528 | 528 | |||
Le principal inconvénient posé par la validation d'un tel système « en situation réelle » est la difficulté à collecter des données et à évaluer des systèmes différents dans des conditions strictement similaires. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulés, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment rendant ainsi les données incomplètes \cite{badier:hal-04092828}. | 529 | 529 | Le principal inconvénient posé par la validation d'un tel système « en situation réelle » est la difficulté à collecter des données et à évaluer des systèmes différents dans des conditions strictement similaires. Cette difficulté est accentuée dans les contextes d'apprentissage autorégulés, puisque les apprenants peuvent quitter la plateforme d'apprentissage à tout moment rendant ainsi les données incomplètes \cite{badier:hal-04092828}. | |
530 | 530 | |||
Pour cette raison, les différentes approches proposées ont été testées sur des données générées : les notes et les temps de réponse de 1000 apprenants fictifs et cinq questions par niveau de complexité. Les notes des apprenants ont été créées en suivant la loi de distribution \textit{logit-normale} que nous avons jugée proche de la réalité de la progression d'un apprentissage \cite{Data}. | 531 | 531 | Pour cette raison, les différentes approches proposées ont été testées sur des données générées : les notes et les temps de réponse de 1000 apprenants fictifs et cinq questions par niveau de complexité. Les notes des apprenants ont été créées en suivant la loi de distribution \textit{logit-normale} que nous avons jugée proche de la réalité de la progression d'un apprentissage \cite{Data}. | |
532 | 532 | |||
Quatre séries de tests ont été effectuées. La première série a été menée sur le système AI-VT intégrant le système de RàPC pour la régression afin de démontrer la capacité de l'algorithme à prédire les notes à différents niveaux de complexité. | 533 | 533 | Quatre séries de tests ont été effectuées. La première série a été menée sur le système AI-VT intégrant le système de RàPC pour la régression afin de démontrer la capacité de l'algorithme à prédire les notes à différents niveaux de complexité. | |
La deuxième série de tests a évalué la progression des connaissances avec TS afin d'analyser la capacité du module à proposer des recommandations personnalisées. Lors de la troisième série de tests, nous avons comparé les algorithmes de recommandation BKT et TS. Enfin, lors de la quatrième série de tests, nous avons comparé TS seul et TS avec ESCBR-SMA. | 534 | 534 | La deuxième série de tests a évalué la progression des connaissances avec TS afin d'analyser la capacité du module à proposer des recommandations personnalisées. Lors de la troisième série de tests, nous avons comparé les algorithmes de recommandation BKT et TS. Enfin, lors de la quatrième série de tests, nous avons comparé TS seul et TS avec ESCBR-SMA. | |
535 | 535 | |||
\subsubsection{Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain} | 536 | 536 | \subsubsection{Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain} | |
537 | 537 | |||
Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d’interagir au cours de l'exécution et de l'exploration. | 538 | 538 | Le SMA que nous avons implémenté utilise un raisonnement bayésien, ce qui permet aux agents d'apprendre des données et d’interagir au cours de l'exécution et de l'exploration. | |
539 | 539 | |||
ESCBR-SMA utilise une fonction noyau pour obtenir la meilleure approximation de la solution du problème cible. Dans notre cas, l'obtention de la meilleure solution est un problème NP-Difficile car la formulation est similaire au problème de Fermat-Weber à $N$ dimensions \cite{doi:10.1137/23M1592420}. | 540 | 540 | ESCBR-SMA utilise une fonction noyau pour obtenir la meilleure approximation de la solution du problème cible. Dans notre cas, l'obtention de la meilleure solution est un problème NP-Difficile car la formulation est similaire au problème de Fermat-Weber à $N$ dimensions \cite{doi:10.1137/23M1592420}. | |
541 | 541 | |||
Les différents scénarios du tableau \ref{tab:scenarios} ont été considérés dans un premier temps. Dans le scénario $E_1$, il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario $E_2$ considère les notes de 8 questions et l'objectif est de prédire la note de la neuvième question dans le même niveau de complexité. Le scénario $E_3$ interpole la neuvième note que l'apprenant obtiendrait si la neuvième question était de niveau de complexité supérieur à celui de la huitième question. Cette interpolation est faite sur la base des notes obtenues aux quatre questions précédentes. Le scénario $E_4$ considère 4 questions et le système doit interpoler 2 notes dans un niveau de complexité supérieur. | 542 | 542 | Les différents scénarios du tableau \ref{tab:scenarios} ont été considérés dans un premier temps. Dans le scénario $E_1$, il s'agit de prédire la note d'un apprenant au premier niveau de complexité, après 3 questions. Le scénario $E_2$ considère les notes de 8 questions et l'objectif est de prédire la note de la neuvième question dans le même niveau de complexité. Le scénario $E_3$ interpole la neuvième note que l'apprenant obtiendrait si la neuvième question était de niveau de complexité supérieur à celui de la huitième question. Cette interpolation est faite sur la base des notes obtenues aux quatre questions précédentes. Le scénario $E_4$ considère 4 questions et le système doit interpoler 2 notes dans un niveau de complexité supérieur. | |
543 | 543 | |||
\begin{table}[!ht] | 544 | 544 | \begin{table}[!ht] | |
\centering | 545 | 545 | \centering | |
\begin{tabular}{ccc} | 546 | 546 | \begin{tabular}{ccc} | |
Scenario&Caractéristiques du problème&Dimension de la solution\\ | 547 | 547 | Scenario&Caractéristiques du problème&Dimension de la solution\\ | |
\hline | 548 | 548 | \hline | |
$E_1$ & 5 & 1\\ | 549 | 549 | $E_1$ & 5 & 1\\ | |
$E_2$ & 15& 1\\ | 550 | 550 | $E_2$ & 15& 1\\ | |
$E_3$ & 9 & 1\\ | 551 | 551 | $E_3$ & 9 & 1\\ | |
$E_4$ & 9 & 2\\ | 552 | 552 | $E_4$ & 9 & 2\\ | |
\end{tabular} | 553 | 553 | \end{tabular} | |
\caption{Description des scénarios} | 554 | 554 | \caption{Description des scénarios} | |
\label{tab:scenarios} | 555 | 555 | \label{tab:scenarios} | |
\end{table} | 556 | 556 | \end{table} | |
557 | 557 | |||
ESCBR-SMA a été comparé aux neuf outils classiquement utilisés pour résoudre la régression consignés dans le tableau \ref{tabAlgs} et selon l'erreur quadratique moyenne (RMSE - \textit{Root Mean Squared Error}), l'erreur médiane absolue (MedAE - \textit{Median Absolute Error}) et l'erreur moyenne absolue (MAE - \textit{Mean Absolute Error}). | 558 | 558 | ESCBR-SMA a été comparé aux neuf outils classiquement utilisés pour résoudre la régression consignés dans le tableau \ref{tabAlgs} et selon l'erreur quadratique moyenne (RMSE - \textit{Root Mean Squared Error}), l'erreur médiane absolue (MedAE - \textit{Median Absolute Error}) et l'erreur moyenne absolue (MAE - \textit{Mean Absolute Error}). | |
559 | 559 | |||
\begin{table}[!ht] | 560 | 560 | \begin{table}[!ht] | |
\centering | 561 | 561 | \centering | |
\footnotesize | 562 | 562 | \footnotesize | |
\begin{tabular}{ll|ll} | 563 | 563 | \begin{tabular}{ll|ll} | |
ID&Algorithme&ID&Algorithme\\ | 564 | 564 | ID&Algorithme&ID&Algorithme\\ | |
\hline | 565 | 565 | \hline | |
A1&Linear Regression&A6&Polinomial Regression\\ | 566 | 566 | A1&Linear Regression&A6&Polinomial Regression\\ | |
A2&K-Nearest Neighbor&A7&Ridge Regression\\ | 567 | 567 | A2&K-Nearest Neighbor&A7&Ridge Regression\\ | |
A3&Decision Tree&A8&Lasso Regression\\ | 568 | 568 | A3&Decision Tree&A8&Lasso Regression\\ | |
A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | 569 | 569 | A4&Random Forest (Ensemble)&A9&Gradient Boosting (Ensemble)\\ | |
A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\\ | 570 | 570 | A5&Multi Layer Perceptron&A10&Proposed Ensemble Stacking RàPC\\ | |
\end{tabular} | 571 | 571 | \end{tabular} | |
\caption{Liste des algorithmes évalués } | 572 | 572 | \caption{Liste des algorithmes évalués } | |
\label{tabAlgs} | 573 | 573 | \label{tabAlgs} | |
\end{table} | 574 | 574 | \end{table} | |
575 | 575 | |||
Le tableau \ref{tab:results} présente les résultats obtenus par les 10 algorithmes sur les quatre scénarios. Ces résultats montrent qu'ESCBR-SMA (A10) et le \textit{Gradient Boosting} (A9) obtiennent toujours les deux meilleurs résultats. Si l'on considère uniquement la RMSE, ESCBR-SMA occupe toujours la première place sauf pour $E_3$ où il est deuxième. Inversement, en considérant l'erreur médiane absolue ou l'erreur moyenne absolue, A10 se classe juste après A9. ESCBR-SMA et le \textit{Gradient Boosting} sont donc efficaces pour interpoler les notes des apprenants. | 576 | 576 | Le tableau \ref{tab:results} présente les résultats obtenus par les 10 algorithmes sur les quatre scénarios. Ces résultats montrent qu'ESCBR-SMA (A10) et le \textit{Gradient Boosting} (A9) obtiennent toujours les deux meilleurs résultats. Si l'on considère uniquement la RMSE, ESCBR-SMA occupe toujours la première place sauf pour $E_3$ où il est deuxième. Inversement, en considérant l'erreur médiane absolue ou l'erreur moyenne absolue, A10 se classe juste après A9. ESCBR-SMA et le \textit{Gradient Boosting} sont donc efficaces pour interpoler les notes des apprenants. | |
577 | 577 | |||
\begin{table}[!ht] | 578 | 578 | \begin{table}[!ht] | |
\centering | 579 | 579 | \centering | |
\footnotesize | 580 | 580 | \footnotesize | |
\begin{tabular}{c|cccccccccc} | 581 | 581 | \begin{tabular}{c|cccccccccc} | |
&\multicolumn{10}{c}{\textbf{Algorithme}}\\ | 582 | 582 | &\multicolumn{10}{c}{\textbf{Algorithme}}\\ | |
\hline | 583 | 583 | \hline | |
& A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | 584 | 584 | & A1&A2&A3&A4&A5&A6&A7&A8&A9&A10\\ | |
\textbf{Scenario (Métrique)}\\ | 585 | 585 | \textbf{Scenario (Métrique)}\\ | |
\hline | 586 | 586 | \hline | |
$E_1$ (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\ | 587 | 587 | $E_1$ (RMSE)&0.625&0.565&0.741&0.56&0.606&0.626&0.626&0.681&0.541&\textbf{0.54}\\ | |
$E_1$ (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\ | 588 | 588 | $E_1$ (MedAE) & 0.387&0.35&0.46&0.338&0.384&0.387&0.387&0.453&\textbf{0.327}&0.347\\ | |
$E_1$ (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\ | 589 | 589 | $E_1$ (MAE) &0.485&0.436&0.572&0.429&0.47&0.485&0.485&0.544&\textbf{0.414}&0.417\\ | |
\hline | 590 | 590 | \hline | |
$E_2$ (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\ | 591 | 591 | $E_2$ (RMSE)& 0.562&0.588&0.78&0.571&0.61&0.562&0.562&0.622&0.557&\textbf{0.556}\\ | |
$E_2$ (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\ | 592 | 592 | $E_2$ (MedAE)&0.351&0.357&0.464&0.344&0.398&0.351&0.351&0.415&\textbf{0.334}&0.346\\ | |
$E_2$ (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\ | 593 | 593 | $E_2$ (MAE)&0.433&0.448&0.591&0.437&0.478&0.433&0.433&0.495&\textbf{0.422}&0.429\\ | |
\hline | 594 | 594 | \hline | |
$E_3$ (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\ | 595 | 595 | $E_3$ (RMSE)&0.591&0.59&0.79&0.57&0.632&0.591&0.591&0.644&\textbf{0.555}&0.558\\ | |
$E_3$ (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\ | 596 | 596 | $E_3$ (MedAE)&0.367&0.362&0.474&0.358&0.404&0.367&0.367&0.433&\textbf{0.336}&0.349\\ | |
$E_3$ (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\ | 597 | 597 | $E_3$ (MAE)&0.453&0.45&0.598&0.441&0.49&0.453&0.453&0.512&\textbf{0.427}&0.43\\ | |
\hline | 598 | 598 | \hline | |
$E_4$ (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\ | 599 | 599 | $E_4$ (RMSE)&0.591&0.589&0.785&0.568&0.613&0.591&0.591&0.644&0.554&\textbf{0.549}\\ | |
$E_4$ (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\ | 600 | 600 | $E_4$ (MedAE)&0.367&0.362&0.465&0.57&0.375&0.367&0.367&0.433&\textbf{0.336}&0.343\\ | |
$E_4$ (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\ | 601 | 601 | $E_4$ (MAE)&0.453&0.45&0.598&0.438&0.466&0.453&0.453&0.512&0.426&\textbf{0.417}\\ | |
\end{tabular} | 602 | 602 | \end{tabular} | |
\caption{Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.} | 603 | 603 | \caption{Erreurs moyennes et médianes des interpolations des 10 algorithmes sélectionnés sur les 4 scénarios considérés et obtenues après 100 exécutions.} | |
\label{tab:results} | 604 | 604 | \label{tab:results} | |
\end{table} | 605 | 605 | \end{table} | |
606 | 606 | |||
\subsubsection{Progression des connaissances} | 607 | 607 | \subsubsection{Progression des connaissances} | |
608 | 608 | |||
L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté aux problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution \textit{Beta} en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). | 609 | 609 | L'algorithme de recommandation TS est fondé sur le paradigme bayésien le rendant ainsi particulièrement adapté aux problèmes liés à la limitation de la quantité de données et à une incertitude forte. Afin de quantifier la connaissance et de voir sa progression dans le temps avec TS, la divergence de Jensen-Shannon avec la famille de distribution \textit{Beta} en $t$ et $t-1$ a été mesurée. L'équation \ref{eqprog1} décrit formellement le calcul à effectuer avec les distributions de probabilité en un temps $t$ pour un niveau de complexité $c$, en utilisant la définition $m$ (équation \ref{eqprog2}). | |
610 | 610 | |||
%\begin{equation} | 611 | 611 | %\begin{equation} | |
\begin{multline} | 612 | 612 | \begin{multline} | |
k_{t,c}=\frac{1}{2} | 613 | 613 | k_{t,c}=\frac{1}{2} | |
\int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx | 614 | 614 | \int_{0}^{1}p_c(\alpha_t,\beta_t,x) log \left(\frac{p_c(\alpha_t,\beta_t,x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx | |
\\ | 615 | 615 | \\ | |
+\frac{1}{2} | 616 | 616 | +\frac{1}{2} | |
\int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx | 617 | 617 | \int_{0}^{1}p_c(\alpha_{t-1},\beta_{t-1},x) log \left(\frac{p_c(\alpha_{t-1},\beta_{t-1},x)}{m(p_c(\alpha_{t-1},\beta_{t-1},x),p_c(\alpha_t,\beta_t,x))} \right)dx | |
\label{eqprog1} | 618 | 618 | \label{eqprog1} | |
\end{multline} | 619 | 619 | \end{multline} | |
%\end{equation} | 620 | 620 | %\end{equation} | |
621 | 621 | |||
\begin{multline} | 622 | 622 | \begin{multline} | |
m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\ | 623 | 623 | m(p(\alpha_{(t-1)},\beta_{(t-1)},x),p(\alpha_{t},\beta_{t},x))=\frac{1}{2} \left( \frac{x^{\alpha_{(t-1)}-1}(1-x)^{\beta_{(t-1)}-1}}{\int_0^1 u^{\alpha_{(t-1)}-1}(1-u^{\beta_{(t-1)}-1})du} \right )\\ | |
+\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right ) | 624 | 624 | +\frac{1}{2} \left (\frac{x^{\alpha_{t}-1}(1-x)^{\beta_{t}-1}}{\int_0^1 u^{\alpha_{t}-1}(1-u^{\beta_{t}-1})du} \right ) | |
%\end{equation} | 625 | 625 | %\end{equation} | |
\label{eqprog2} | 626 | 626 | \label{eqprog2} | |
\end{multline} | 627 | 627 | \end{multline} | |
628 | 628 | |||
La progression du nombre total de connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). Pour ce faire, nous évaluons la progression de la variabilité données par équation \ref{eqVarP}. | 629 | 629 | La progression du nombre total de connaissances en $t$ est la somme des différences entre $t$ et $t-1$ pour tous les $c$ niveaux de complexité calculés avec la divergence de Jensen-Shannon (équation \ref{eqTEK}). Pour ce faire, nous évaluons la progression de la variabilité données par équation \ref{eqVarP}. | |
630 | 630 | |||
\begin{equation} | 631 | 631 | \begin{equation} | |
vk_{t,c}=\begin{cases} | 632 | 632 | vk_{t,c}=\begin{cases} | |
D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\ | 633 | 633 | D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})), & \frac{\alpha_{t,c}}{\alpha_{t,c}+\beta_{t,c}} < \frac{\alpha_{t+1,c}}{\alpha_{t+1,c}+\beta_{t+1,c}}\\ | |
-D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise | 634 | 634 | -D_{JS}(Beta(\alpha_{t,c},\beta_{t,c}), Beta(\alpha_{t+1,c},\beta_{t+1,c})),& Otherwise | |
\end{cases} | 635 | 635 | \end{cases} | |
\label{eqVarP} | 636 | 636 | \label{eqVarP} | |
\end{equation} | 637 | 637 | \end{equation} | |
638 | 638 | |||
\begin{equation} | 639 | 639 | \begin{equation} | |
k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0} | 640 | 640 | k_t=\sum_{c=4}^{c=0 \lor k_t \neq 0} | |
\begin{cases} | 641 | 641 | \begin{cases} | |
\alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\ | 642 | 642 | \alpha_{c-1} vk_{t,c-1};&vk_{t,c} > 0\\ | |
0;&Otherwise | 643 | 643 | 0;&Otherwise | |
\end{cases} | 644 | 644 | \end{cases} | |
\label{eqTEK} | 645 | 645 | \label{eqTEK} | |
\end{equation} | 646 | 646 | \end{equation} | |
647 | 647 | |||
\begin{figure}[!ht] | 648 | 648 | \begin{figure}[!ht] | |
\centering | 649 | 649 | \centering | |
\includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg} | 650 | 650 | \includegraphics[width=\textwidth]{Figures/kEvol_TS.jpg} | |
\caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon} | 651 | 651 | \caption{Progression des connaissances avec l'échantillonnage de Thompson selon la divergence de Jensen-Shannon} | |
\label{fig:evolution} | 652 | 652 | \label{fig:evolution} | |
\end{figure} | 653 | 653 | \end{figure} | |
654 | 654 | |||
La figure \ref{fig:evolution} montre la progression cumulée des connaissances sur les quinze questions d'une même séance d'entraînement. L'augmentation de la moyenne du niveau de connaissance entre la première et la dernière question de la même séance montre que tous les apprenants ont statistiquement augmenté leur niveau de connaissance. La variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants. À ce stade, la variabilité diminue et la moyenne augmente. | 655 | 655 | La figure \ref{fig:evolution} montre la progression cumulée des connaissances sur les quinze questions d'une même séance d'entraînement. L'augmentation de la moyenne du niveau de connaissance entre la première et la dernière question de la même séance montre que tous les apprenants ont statistiquement augmenté leur niveau de connaissance. La variabilité augmente à partir de la première question jusqu'à la question neuf, où le système a acquis plus d'informations sur les apprenants. À ce stade, la variabilité diminue et la moyenne augmente. | |
656 | 656 | |||
\subsubsection{Système de recommandation avec un jeu de données d'étudiants réels} | 657 | 657 | \subsubsection{Système de recommandation avec un jeu de données d'apprenants réels} | |
658 | 658 | |||
Le système de recommandation TS a été testé avec un ensemble de données adaptées extraites de données réelles d'interactions d'étudiants avec un environnement d'apprentissage virtuel pour différents cours \cite{Kuzilek2017}. Cet ensemble contient les notes de $23366$ apprenants dans différents cours. Les apprenants ont été évalués selon différentes modalités (partiels, projets, QCM) \cite{Data}. Cet ensemble de données a pu être intégré au jeu de données d'AI-VT (notes, temps de réponse et 5 niveaux de complexité). Le test a consisté à générer une recommandation pour l'avant dernière question en fonction des notes précédentes. Ce test a été exécuté 100 fois pour chaque apprenant. Les nombres de questions recommandées sont reportés sur la figure \ref{fig:stabilityBP} pour chaque niveau de complexité. Celle-ci montre que malgré la stochasticité, la variance globale dans tous les niveaux de complexité est faible en fonction du nombre total d'apprenants et du nombre total de recommandations, et démontre ainsi la stabilité de l'algorithme.\\ | 659 | 659 | Le système de recommandation TS a été testé avec un ensemble de données adaptées extraites de données réelles d'interactions d'apprenants avec un environnement d'apprentissage virtuel pour différents cours \cite{Kuzilek2017}. Cet ensemble contient les notes de $23366$ apprenants dans différents cours. Les apprenants ont été évalués selon différentes modalités (partiels, projets, QCM) \cite{Data}. Cet ensemble de données a pu être intégré au jeu de données d'AI-VT (notes, temps de réponse et 5 niveaux de complexité). Le test a consisté à générer une recommandation pour l'avant dernière question en fonction des notes précédentes. Ce test a été exécuté 100 fois pour chaque apprenant. Les nombres de questions recommandées sont reportés sur la figure \ref{fig:stabilityBP2} pour chaque niveau de complexité. Celle-ci montre que malgré la stochasticité, la variance globale dans tous les niveaux de complexité est faible en fonction du nombre total d'apprenants et du nombre total de recommandations, et démontre ainsi la stabilité de l'algorithme.\\ | |
660 | 660 | |||
\begin{figure}[!ht] | 661 | 661 | \begin{figure}[!ht] | |
\centering | 662 | 662 | \centering | |
\includegraphics[width=1\linewidth]{Figures/stabilityBoxplot.png} | 663 | 663 | \includegraphics[width=1\linewidth]{Figures/stabilityBoxplot.png} | |
\caption{Nombre de recommandations par niveau de complexité} | 664 | 664 | \caption{Nombre de recommandations par niveau de complexité} | |
\label{fig:stabilityBP} | 665 | 665 | \label{fig:stabilityBP2} | |
\end{figure} | 666 | 666 | \end{figure} | |
667 | 667 | |||
La précision de la recommandation pour tous les apprenants est évaluée en considérant comme comportement correct deux états : i) l'algorithme recommande un niveau où l'apprenant a une note supérieure ou égal à 6 et ii) l'algorithme recommande un niveau inférieur au niveau réel évalué par l'apprenant. Le premier cas montre que l'algorithme a identifié le moment précis où l'apprenant doit augmenter le niveau de complexité, le second cas permet d'établir que l'algorithme propose de renforcer un niveau de complexité plus faible. Puis la précision est calculée comme le rapport entre le nombre d'états correspondant aux comportements corrects définis et le nombre total de recommandations. La figure \ref{fig:precision} montre les résultats de cette métrique après 100 exécutions.\\ | 668 | 668 | La précision de la recommandation pour tous les apprenants est évaluée en considérant comme comportement correct deux états : i) l'algorithme recommande un niveau où l'apprenant a une note supérieure ou égal à 6 et ii) l'algorithme recommande un niveau inférieur au niveau réel évalué par l'apprenant. Le premier cas montre que l'algorithme a identifié le moment précis où l'apprenant doit augmenter le niveau de complexité, le second cas permet d'établir que l'algorithme propose de renforcer un niveau de complexité plus faible. Puis la précision est calculée comme le rapport entre le nombre d'états correspondant aux comportements corrects définis et le nombre total de recommandations. La figure \ref{fig:precision} montre les résultats de cette métrique après 100 exécutions.\\ | |
669 | 669 | |||
\begin{figure}[!ht] | 670 | 670 | \begin{figure}[!ht] | |
\centering | 671 | 671 | \centering | |
\includegraphics[width=1\linewidth]{Figures/precision.png} | 672 | 672 | \includegraphics[width=1\linewidth]{Figures/precision.png} | |
\caption{Précision de la recommandation} | 673 | 673 | \caption{Précision de la recommandation} | |
\label{fig:precision} | 674 | 674 | \label{fig:precision} | |
\end{figure} | 675 | 675 | \end{figure} | |
676 | 676 | |||
\subsubsection{Comparaison entre TS et BKT} | 677 | 677 | \subsubsection{Comparaison entre TS et BKT} | |
678 | 678 | |||
La figure \ref{fig:EvGrades} permet de comparer la recommandation fondée sur l'échantillonnage de Thompson et celle fondée sur BKT. Cette figure montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le TS génère moins de variabilité que BKT, mais les évolutions induites par les deux systèmes restent globalement très similaires. | 679 | 679 | La figure \ref{fig:EvGrades} permet de comparer la recommandation fondée sur l'échantillonnage de Thompson et celle fondée sur BKT. Cette figure montre l'évolution des notes des apprenants en fonction du nombre de questions auxquelles ils répondent dans la même séance. Dans ce cas, le TS génère moins de variabilité que BKT, mais les évolutions induites par les deux systèmes restent globalement très similaires. | |
680 | 680 | |||
\begin{figure}[!ht] | 681 | 681 | \begin{figure}[!ht] | |
\centering | 682 | 682 | \centering | |
\includegraphics[width=\textwidth]{Figures/GradesEv.jpg} | 683 | 683 | \includegraphics[width=\textwidth]{Figures/GradesEv.jpg} | |
\caption{Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.} | 684 | 684 | \caption{Comparaison de l'évolution des notes entre les systèmes fondés sur TS et BKT.} | |
\label{fig:EvGrades} | 685 | 685 | \label{fig:EvGrades} | |
\end{figure} | 686 | 686 | \end{figure} | |
687 | 687 | |||
Toutefois, si l'on considère l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), TS fait évoluer le niveau de complexité des apprenants, alors que BKT a tendance à laisser les apprenants au même niveau de complexité. Autrement dit, avec BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En comparant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}), TS permet de faire progresser la moyenne des notes et facilite l'évolution des niveaux de complexité. | 688 | 688 | Toutefois, si l'on considère l'évolution du niveau de complexité recommandé (figure \ref{fig:EvCL}), TS fait évoluer le niveau de complexité des apprenants, alors que BKT a tendance à laisser les apprenants au même niveau de complexité. Autrement dit, avec BKT, il est difficile d'apprendre de nouveaux sujets ou des concepts plus complexes au sein du même domaine. En comparant les résultats des deux figures (figures \ref{fig:EvGrades} et \ref{fig:EvCL}), TS permet de faire progresser la moyenne des notes et facilite l'évolution des niveaux de complexité. | |
689 | 689 | |||
\begin{figure}[!ht] | 690 | 690 | \begin{figure}[!ht] | |
\centering | 691 | 691 | \centering | |
\includegraphics[width=\textwidth]{Figures/LevelsEv.jpg} | 692 | 692 | \includegraphics[width=\textwidth]{Figures/LevelsEv.jpg} | |
\caption{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS} | 693 | 693 | \caption{Comparaison de l'évolution des niveaux entre les systèmes de recommandation fondés sur BKT et TS} | |
\label{fig:EvCL} | 694 | 694 | \label{fig:EvCL} | |
\end{figure} | 695 | 695 | \end{figure} | |
696 | 696 | |||
\subsubsection{Système de recommandation avec ESCBR-SMA} | 697 | 697 | \subsubsection{Système de recommandation avec ESCBR-SMA} | |
698 | 698 | |||
La troisième étape est l'association des deux algorithmes afin de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (recommandation avec Thomson) et le filtre collaboratif (interpolation avec ESCBR-SMA). Cette partie présente une comparaison entre le système de recommandation TS et le système de recommandation TS intégré à la prédiction ESCBR-SMA. | 699 | 699 | La troisième étape est l'association des deux algorithmes afin de combiner des observations qui ne sont pas directement liées l'une à l'autre, c'est-à-dire en utilisant l'information individuelle (recommandation avec Thomson) et le filtre collaboratif (interpolation avec ESCBR-SMA). Cette partie présente une comparaison entre le système de recommandation TS et le système de recommandation TS intégré à la prédiction ESCBR-SMA. | |
700 | 700 | |||
Les résultats proposés sont comparés après réponse des apprenants à six questions car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité à la question suivante. | 701 | 701 | Les résultats proposés sont comparés après réponse des apprenants à six questions car il est nécessaire de disposer d'informations préalables pour utiliser l'algorithme ESCBR-SMA et prédire les notes dans tous les niveaux de complexité à la question suivante. | |
702 | 702 | |||
\subsubsection{Progression des connaissances TS vs TS et ESCBR-SMA} | 703 | 703 | \subsubsection{Progression des connaissances TS vs TS et ESCBR-SMA} | |
704 | 704 |
chapters/contexte2.aux
View file @
4b1afa3
\relax | 1 | 1 | \relax | |
\providecommand\hyper@newdestlabel[2]{} | 2 | 2 | \providecommand\hyper@newdestlabel[2]{} | |
\citation{LALITHA2020583} | 3 | 3 | \citation{LALITHA2020583} | |
\citation{LALITHA2020583} | 4 | 4 | \citation{LALITHA2020583} | |
\citation{LALITHA2020583} | 5 | 5 | \citation{LALITHA2020583} | |
\@writefile{toc}{\contentsline {chapter}{\numberline {2}Contexte}{9}{chapter.2}\protected@file@percent } | 6 | 6 | \@writefile{toc}{\contentsline {chapter}{\numberline {2}Contexte}{9}{chapter.2}\protected@file@percent } | |
\@writefile{lof}{\addvspace {10\p@ }} | 7 | 7 | \@writefile{lof}{\addvspace {10\p@ }} | |
\@writefile{lot}{\addvspace {10\p@ }} | 8 | 8 | \@writefile{lot}{\addvspace {10\p@ }} | |
9 | \newlabel{chap:contexte}{{2}{9}{Contexte}{chapter.2}{}} | |||
\@writefile{toc}{\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{9}{section.2.1}\protected@file@percent } | 9 | 10 | \@writefile{toc}{\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{9}{section.2.1}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{9}{subsection.2.1.1}\protected@file@percent } | 10 | 11 | \@writefile{toc}{\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{9}{subsection.2.1.1}\protected@file@percent } | |
\citation{Nkambou} | 11 | 12 | \citation{Nkambou} | |
\citation{Nkambou} | 12 | 13 | \citation{Nkambou} | |
\@writefile{lof}{\contentsline {figure}{\numberline {2.1}{\ignorespaces Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})\relax }}{10}{figure.caption.4}\protected@file@percent } | 13 | 14 | \@writefile{lof}{\contentsline {figure}{\numberline {2.1}{\ignorespaces Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})\relax }}{10}{figure.caption.4}\protected@file@percent } | |
\providecommand*\caption@xref[2]{\@setref\relax\@undefined{#1}} | 14 | 15 | \providecommand*\caption@xref[2]{\@setref\relax\@undefined{#1}} | |
\newlabel{fig:figStra}{{2.1}{10}{Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})\relax }{figure.caption.4}{}} | 15 | 16 | \newlabel{fig:figStra}{{2.1}{10}{Stratégies d'apprentissage (Traduit de \cite {LALITHA2020583})\relax }{figure.caption.4}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.2}Les EIAH}{10}{subsection.2.1.2}\protected@file@percent } | 16 | 17 | \@writefile{toc}{\contentsline {subsection}{\numberline {2.1.2}Les EIAH}{10}{subsection.2.1.2}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {2.2}{\ignorespaces L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})\relax }}{11}{figure.caption.5}\protected@file@percent } | 17 | 18 | \@writefile{lof}{\contentsline {figure}{\numberline {2.2}{\ignorespaces L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})\relax }}{11}{figure.caption.5}\protected@file@percent } | |
\newlabel{fig:figEIAH}{{2.2}{11}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})\relax }{figure.caption.5}{}} | 18 | 19 | \newlabel{fig:figEIAH}{{2.2}{11}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite {Nkambou})\relax }{figure.caption.5}{}} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{11}{subsection.2.1.3}\protected@file@percent } | 19 | 20 | \@writefile{toc}{\contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{11}{subsection.2.1.3}\protected@file@percent } | |
\citation{ROLDANREYES20151} | 20 | 21 | \citation{ROLDANREYES20151} | |
\citation{10.1007/978-3-030-58342-2_20} | 21 | 22 | \citation{10.1007/978-3-030-58342-2_20} | |
\@writefile{toc}{\contentsline {section}{\numberline {2.2}Le contexte technique}{12}{section.2.2}\protected@file@percent } | 22 | 23 | \@writefile{toc}{\contentsline {section}{\numberline {2.2}Le contexte technique}{12}{section.2.2}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{12}{subsection.2.2.1}\protected@file@percent } | 23 | 24 | \@writefile{toc}{\contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{12}{subsection.2.2.1}\protected@file@percent } | |
\citation{min8100434} | 24 | 25 | \citation{min8100434} | |
\citation{min8100434} | 25 | 26 | \citation{min8100434} | |
\citation{doi:10.3233/AIC-1994-7104} | 26 | 27 | \citation{doi:10.3233/AIC-1994-7104} | |
\citation{min8100434} | 27 | 28 | \citation{min8100434} | |
\citation{Richter2013} | 28 | 29 | \citation{Richter2013} | |
\@writefile{lof}{\contentsline {figure}{\numberline {2.3}{\ignorespaces Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})\relax }}{13}{figure.caption.6}\protected@file@percent } | 29 | 30 | \@writefile{lof}{\contentsline {figure}{\numberline {2.3}{\ignorespaces Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})\relax }}{13}{figure.caption.6}\protected@file@percent } | |
\newlabel{fig:figCycle}{{2.3}{13}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})\relax }{figure.caption.6}{}} | 30 | 31 | \newlabel{fig:figCycle}{{2.3}{13}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite {min8100434})\relax }{figure.caption.6}{}} | |
\citation{Richter2013} | 31 | 32 | \citation{Richter2013} | |
\citation{Richter2013} | 32 | 33 | \citation{Richter2013} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{14}{subsubsection.2.2.1.1}\protected@file@percent } | 33 | 34 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{14}{subsubsection.2.2.1.1}\protected@file@percent } | |
\newlabel{eqSim}{{2.1}{14}{Retrouver (Rechercher)}{equation.2.2.1}{}} | 34 | 35 | \newlabel{eqSim}{{2.1}{14}{Retrouver (Rechercher)}{equation.2.2.1}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{14}{subsubsection.2.2.1.2}\protected@file@percent } | 35 | 36 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{14}{subsubsection.2.2.1.2}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{14}{subsubsection.2.2.1.3}\protected@file@percent } | 36 | 37 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{14}{subsubsection.2.2.1.3}\protected@file@percent } | |
\citation{RICHTER20093} | 37 | 38 | \citation{RICHTER20093} | |
\@writefile{lof}{\contentsline {figure}{\numberline {2.4}{\ignorespaces Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})\relax }}{15}{figure.caption.7}\protected@file@percent } | 38 | 39 | \@writefile{lof}{\contentsline {figure}{\numberline {2.4}{\ignorespaces Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})\relax }}{15}{figure.caption.7}\protected@file@percent } | |
\newlabel{fig:figReut}{{2.4}{15}{Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})\relax }{figure.caption.7}{}} | 39 | 40 | \newlabel{fig:figReut}{{2.4}{15}{Principe de réutilisation dans le RàPC (Traduit de \cite {Richter2013})\relax }{figure.caption.7}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{15}{subsubsection.2.2.1.4}\protected@file@percent } | 40 | 41 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{15}{subsubsection.2.2.1.4}\protected@file@percent } | |
\citation{hajduk2019cognitive} | 41 | 42 | \citation{hajduk2019cognitive} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{16}{subsubsection.2.2.1.5}\protected@file@percent } | 42 | 43 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{16}{subsubsection.2.2.1.5}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {2.5}{\ignorespaces Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }}{16}{figure.caption.8}\protected@file@percent } | 43 | 44 | \@writefile{lof}{\contentsline {figure}{\numberline {2.5}{\ignorespaces Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }}{16}{figure.caption.8}\protected@file@percent } | |
\newlabel{fig:figCycleCBR}{{2.5}{16}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }{figure.caption.8}{}} | 44 | 45 | \newlabel{fig:figCycleCBR}{{2.5}{16}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données\relax }{figure.caption.8}{}} | |
\citation{Hoang} | 45 | 46 | \citation{Hoang} | |
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{17}{subsection.2.2.2}\protected@file@percent } | 46 | 47 | \@writefile{toc}{\contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{17}{subsection.2.2.2}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}{17}{subsection.2.2.3}\protected@file@percent } | 47 | 48 | \@writefile{toc}{\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}{17}{subsection.2.2.3}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}\protected@file@percent } | 48 | 49 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}\protected@file@percent } | |
\citation{Hoang} | 49 | 50 | \citation{Hoang} | |
\citation{10.1145/3459665} | 50 | 51 | \citation{10.1145/3459665} | |
\newlabel{eqBayes}{{2.2}{18}{Pensée Bayesienne}{equation.2.2.2}{}} | 51 | 52 | \newlabel{eqBayes}{{2.2}{18}{Pensée Bayesienne}{equation.2.2.2}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{18}{subsubsection.2.2.3.2}\protected@file@percent } | 52 | 53 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{18}{subsubsection.2.2.3.2}\protected@file@percent } | |
\newlabel{eqDist}{{2.3}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.3}{}} | 53 | 54 | \newlabel{eqDist}{{2.3}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.3}{}} | |
\newlabel{eqMet1}{{2.4}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.4}{}} | 54 | 55 | \newlabel{eqMet1}{{2.4}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.4}{}} | |
\newlabel{eqMet2}{{2.5}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.5}{}} | 55 | 56 | \newlabel{eqMet2}{{2.5}{18}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.5}{}} | |
\citation{9072123} | 56 | 57 | \citation{9072123} | |
\citation{WANG2021331} | 57 | 58 | \citation{WANG2021331} | |
\newlabel{eqV1}{{2.6}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.6}{}} | 58 | 59 | \newlabel{eqV1}{{2.6}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.6}{}} | |
\newlabel{eqV2}{{2.7}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.7}{}} | 59 | 60 | \newlabel{eqV2}{{2.7}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.7}{}} | |
\newlabel{eqV3}{{2.8}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.8}{}} | 60 | 61 | \newlabel{eqV3}{{2.8}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.8}{}} | |
\newlabel{eqCond}{{2.9}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.9}{}} | 61 | 62 | \newlabel{eqCond}{{2.9}{19}{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{equation.2.2.9}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{19}{subsubsection.2.2.3.3}\protected@file@percent } | 62 | 63 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{19}{subsubsection.2.2.3.3}\protected@file@percent } | |
\newlabel{eqKM}{{2.10}{19}{K-Moyennes}{equation.2.2.10}{}} | 63 | 64 | \newlabel{eqKM}{{2.10}{19}{K-Moyennes}{equation.2.2.10}{}} | |
\newlabel{eqCentres}{{2.11}{19}{K-Moyennes}{equation.2.2.11}{}} | 64 | 65 | \newlabel{eqCentres}{{2.11}{19}{K-Moyennes}{equation.2.2.11}{}} | |
\newlabel{eqApp}{{2.12}{19}{K-Moyennes}{equation.2.2.12}{}} | 65 | 66 | \newlabel{eqApp}{{2.12}{19}{K-Moyennes}{equation.2.2.12}{}} | |
\citation{9627973} | 66 | 67 | \citation{9627973} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}\protected@file@percent } | 67 | 68 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}\protected@file@percent } | |
\newlabel{eqGMM}{{2.13}{20}{Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.13}{}} | 68 | 69 | \newlabel{eqGMM}{{2.13}{20}{Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.13}{}} | |
\newlabel{eqdProb}{{2.14}{20}{Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.14}{}} | 69 | 70 | \newlabel{eqdProb}{{2.14}{20}{Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{equation.2.2.14}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{20}{subsubsection.2.2.3.5}\protected@file@percent } | 70 | 71 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{20}{subsubsection.2.2.3.5}\protected@file@percent } | |
\newlabel{eqFuzzy}{{2.15}{20}{Fuzzy-C}{equation.2.2.15}{}} | 71 | 72 | \newlabel{eqFuzzy}{{2.15}{20}{Fuzzy-C}{equation.2.2.15}{}} | |
\newlabel{eqFCond}{{2.16}{20}{Fuzzy-C}{equation.2.2.16}{}} | 72 | 73 | \newlabel{eqFCond}{{2.16}{20}{Fuzzy-C}{equation.2.2.16}{}} | |
\citation{9434422} | 73 | 74 | \citation{9434422} | |
\citation{9870279} | 74 | 75 | \citation{9870279} | |
\newlabel{eqFV}{{2.17}{21}{Fuzzy-C}{equation.2.2.17}{}} | 75 | 76 | \newlabel{eqFV}{{2.17}{21}{Fuzzy-C}{equation.2.2.17}{}} | |
\newlabel{eqFU}{{2.18}{21}{Fuzzy-C}{equation.2.2.18}{}} | 76 | 77 | \newlabel{eqFU}{{2.18}{21}{Fuzzy-C}{equation.2.2.18}{}} | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{21}{subsubsection.2.2.3.6}\protected@file@percent } | 77 | 78 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{21}{subsubsection.2.2.3.6}\protected@file@percent } | |
\@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{21}{subsubsection.2.2.3.7}\protected@file@percent } | 78 | 79 | \@writefile{toc}{\contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{21}{subsubsection.2.2.3.7}\protected@file@percent } | |
\@writefile{lof}{\contentsline {figure}{\numberline {2.6}{\ignorespaces Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$\relax }}{22}{figure.caption.9}\protected@file@percent } | 79 | 80 | \@writefile{lof}{\contentsline {figure}{\numberline {2.6}{\ignorespaces Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$\relax }}{22}{figure.caption.9}\protected@file@percent } | |
\newlabel{fig:figBeta}{{2.6}{22}{Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$\relax }{figure.caption.9}{}} | 80 | 81 | \newlabel{fig:figBeta}{{2.6}{22}{Comportement de la distribution Beta avec différentes valeurs de paramètres $alpha$ et $beta$\relax }{figure.caption.9}{}} | |
\newlabel{eqBeta}{{2.19}{22}{Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{equation.2.2.19}{}} | 81 | 82 | \newlabel{eqBeta}{{2.19}{22}{Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{equation.2.2.19}{}} | |
\@setckpt{./chapters/contexte2}{ | 82 | 83 | \@setckpt{./chapters/contexte2}{ | |
\setcounter{page}{23} | 83 | 84 | \setcounter{page}{23} | |
\setcounter{equation}{19} | 84 | 85 | \setcounter{equation}{19} | |
\setcounter{enumi}{0} | 85 | 86 | \setcounter{enumi}{0} | |
\setcounter{enumii}{0} | 86 | 87 | \setcounter{enumii}{0} | |
\setcounter{enumiii}{0} | 87 | 88 | \setcounter{enumiii}{0} | |
\setcounter{enumiv}{0} | 88 | 89 | \setcounter{enumiv}{0} | |
\setcounter{footnote}{0} | 89 | 90 | \setcounter{footnote}{0} | |
\setcounter{mpfootnote}{0} | 90 | 91 | \setcounter{mpfootnote}{0} | |
\setcounter{part}{2} | 91 | 92 | \setcounter{part}{2} | |
\setcounter{chapter}{2} | 92 | 93 | \setcounter{chapter}{2} | |
\setcounter{section}{2} | 93 | 94 | \setcounter{section}{2} | |
\setcounter{subsection}{3} | 94 | 95 | \setcounter{subsection}{3} | |
\setcounter{subsubsection}{7} | 95 | 96 | \setcounter{subsubsection}{7} | |
\setcounter{paragraph}{0} | 96 | 97 | \setcounter{paragraph}{0} | |
\setcounter{subparagraph}{0} | 97 | 98 | \setcounter{subparagraph}{0} | |
\setcounter{figure}{6} | 98 | 99 | \setcounter{figure}{6} | |
\setcounter{table}{0} | 99 | 100 | \setcounter{table}{0} | |
\setcounter{caption@flags}{2} | 100 | 101 | \setcounter{caption@flags}{2} | |
\setcounter{continuedfloat}{0} | 101 | 102 | \setcounter{continuedfloat}{0} | |
\setcounter{subfigure}{0} | 102 | 103 | \setcounter{subfigure}{0} | |
\setcounter{subtable}{0} | 103 | 104 | \setcounter{subtable}{0} | |
\setcounter{parentequation}{0} | 104 | 105 | \setcounter{parentequation}{0} | |
\setcounter{thmt@dummyctr}{0} | 105 | 106 | \setcounter{thmt@dummyctr}{0} | |
\setcounter{vrcnt}{0} | 106 | 107 | \setcounter{vrcnt}{0} | |
\setcounter{upm@subfigure@count}{0} | 107 | 108 | \setcounter{upm@subfigure@count}{0} | |
\setcounter{upm@fmt@mtabular@columnnumber}{0} | 108 | 109 | \setcounter{upm@fmt@mtabular@columnnumber}{0} | |
\setcounter{upm@format@section@sectionlevel}{3} | 109 | 110 | \setcounter{upm@format@section@sectionlevel}{3} | |
\setcounter{upm@fmt@savedcounter}{0} | 110 | 111 | \setcounter{upm@fmt@savedcounter}{0} | |
\setcounter{@@upm@fmt@inlineenumeration}{0} | 111 | 112 | \setcounter{@@upm@fmt@inlineenumeration}{0} | |
\setcounter{@upm@fmt@enumdescription@cnt@}{0} | 112 | 113 | \setcounter{@upm@fmt@enumdescription@cnt@}{0} | |
\setcounter{upmdefinition}{0} | 113 | 114 | \setcounter{upmdefinition}{0} | |
\setcounter{section@level}{3} | 114 | 115 | \setcounter{section@level}{3} | |
\setcounter{Item}{0} | 115 | 116 | \setcounter{Item}{0} | |
\setcounter{Hfootnote}{0} | 116 | 117 | \setcounter{Hfootnote}{0} | |
\setcounter{bookmark@seq@number}{26} | 117 | 118 | \setcounter{bookmark@seq@number}{26} | |
\setcounter{DefaultLines}{2} | 118 | 119 | \setcounter{DefaultLines}{2} | |
\setcounter{DefaultDepth}{0} | 119 | 120 | \setcounter{DefaultDepth}{0} | |
\setcounter{L@lines}{3} | 120 | 121 | \setcounter{L@lines}{3} | |
\setcounter{L@depth}{0} | 121 | 122 | \setcounter{L@depth}{0} | |
\setcounter{float@type}{8} | 122 | 123 | \setcounter{float@type}{8} | |
\setcounter{algorithm}{0} | 123 | 124 | \setcounter{algorithm}{0} | |
\setcounter{ALG@line}{0} | 124 | 125 | \setcounter{ALG@line}{0} | |
\setcounter{ALG@rem}{0} | 125 | 126 | \setcounter{ALG@rem}{0} | |
\setcounter{ALG@nested}{0} | 126 | 127 | \setcounter{ALG@nested}{0} | |
\setcounter{ALG@Lnr}{2} | 127 | 128 | \setcounter{ALG@Lnr}{2} | |
\setcounter{ALG@blocknr}{10} | 128 | 129 | \setcounter{ALG@blocknr}{10} | |
\setcounter{ALG@storecount}{0} | 129 | 130 | \setcounter{ALG@storecount}{0} | |
\setcounter{ALG@tmpcounter}{0} | 130 | 131 | \setcounter{ALG@tmpcounter}{0} | |
} | 131 | 132 | } | |
132 | 133 | |||
chapters/contexte2.tex
View file @
4b1afa3
\chapter{Contexte} | 1 | 1 | \chapter{Contexte}\label{chap:contexte} | |
2 | 2 | |||
Dans ce chapitre sont décrits plus en détails le contexte applicatif et le contexte technique de ces travaux de recherche. Il présente les concepts et algorithmes utilisés dans le développement des modules. Ces modules font partie des contributions de cette thèse à l'environnement informatique pour l'apprentissage humain (EIAH) appelé AI-VT (\textit{Artificial Intelligence - Artificial Trainer}). | 3 | 3 | Dans ce chapitre sont décrits plus en détails le contexte applicatif et le contexte technique de ces travaux de recherche. Il présente les concepts et algorithmes utilisés dans le développement des modules. Ces modules font partie des contributions de cette thèse à l'environnement informatique pour l'apprentissage humain (EIAH) appelé AI-VT (\textit{Artificial Intelligence - Artificial Trainer}). | |
4 | 4 | |||
Ce chapitre commence par une présentation des EIAH suivie d'une présentation sommaire du fonctionnement d'AI-VT. AI-VT étant un système de raisonnement à partir de cas (RàPC) modélisé sous la forme d'un système multi-agents (SMA), cette présentation des EIAH est suivie d'une présentation du RàPC, puis des SMA. Ce chapitre se termine par une présentation de différents algorithmes et notions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées par l'EIAH. | 5 | 5 | Ce chapitre commence par une présentation des EIAH suivie d'une présentation sommaire du fonctionnement d'AI-VT. AI-VT étant un système de raisonnement à partir de cas (RàPC) modélisé sous la forme d'un système multi-agents (SMA), cette présentation des EIAH est suivie d'une présentation du RàPC, puis des SMA. Ce chapitre se termine par une présentation de différents algorithmes et notions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées par l'EIAH. | |
6 | 6 | |||
\section{Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)} | 7 | 7 | \section{Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)} | |
%\markboth{Stratégies d'apprentissage et les EIAH}{} | 8 | 8 | %\markboth{Stratégies d'apprentissage et les EIAH}{} | |
\sectionmark{Stratégies d'apprentissage et les EIAH} | 9 | 9 | \sectionmark{Stratégies d'apprentissage et les EIAH} | |
10 | 10 | |||
\subsection{Les stratégies d'apprentissage} | 11 | 11 | \subsection{Les stratégies d'apprentissage} | |
12 | 12 | |||
Dans \cite{LALITHA2020583}, l'apprentissage est défini comme une fonction du cerveau humain acquise grâce au changement permanent dans l'obtention de connaissances et de compétences par le biais d'un processus de transformation du comportement lié à l'expérience ou à la pratique. L'apprentissage implique réflexion, compréhension, raisonnement et mise en œuvre. Un individu peut utiliser différentes stratégies pour acquérir la connaissance. Comme le montre la figure \figref{figStra}, les stratégies peuvent être classées entre mode traditionnel et mode en-ligne. | 13 | 13 | Dans \cite{LALITHA2020583}, l'apprentissage est défini comme une fonction du cerveau humain acquise grâce au changement permanent dans l'obtention de connaissances et de compétences par le biais d'un processus de transformation du comportement lié à l'expérience ou à la pratique. L'apprentissage implique réflexion, compréhension, raisonnement et mise en œuvre. Un individu peut utiliser différentes stratégies pour acquérir la connaissance. Comme le montre la figure \figref{figStra}, les stratégies peuvent être classées entre mode traditionnel et mode en-ligne. | |
14 | 14 | |||
\mfigure[!ht]{width=1\textwidth}{./Figures/TLearning.png}{Stratégies d'apprentissage (Traduit de \cite{LALITHA2020583})}{figStra} | 15 | 15 | \mfigure[!ht]{width=1\textwidth}{./Figures/TLearning.png}{Stratégies d'apprentissage (Traduit de \cite{LALITHA2020583})}{figStra} | |
16 | 16 | |||
%\begin{figure}[!ht] | 17 | 17 | %\begin{figure}[!ht] | |
%\centering | 18 | 18 | %\centering | |
%\includegraphics[width=1\textwidth]{./Figures/TLearning.png} | 19 | 19 | %\includegraphics[width=1\textwidth]{./Figures/TLearning.png} | |
%\caption{Stratégies d'apprentissage (\cite{LALITHA2020583})} | 20 | 20 | %\caption{Stratégies d'apprentissage (\cite{LALITHA2020583})} | |
%\label{figStra} | 21 | 21 | %\label{figStra} | |
%\end{figure} | 22 | 22 | %\end{figure} | |
23 | 23 | |||
L'apprentissage traditionnel se réfère à l'apprentissage-type tel qu'il est fait dans une classe. Il est centré sur l'enseignant où la présence physique est l'élément fondamental dans la mesure où elle implique une unité de temps et de lieu. Ici, l'enseignant interagit directement avec l'élève, et les ressources sont généralement des documents imprimés. L'apprentissage et la participation doivent y être actifs, la rétroaction y est instantanée et il existe des interactions sociales. En revanche, les créneaux horaires, les lieux et les contenus sont rigides (décidés par l'enseignant et la structure dans laquelle les enseignements sont dispensés). | 24 | 24 | L'apprentissage traditionnel se réfère à l'apprentissage-type tel qu'il est fait dans une classe. Il est centré sur l'enseignant où la présence physique est l'élément fondamental dans la mesure où elle implique une unité de temps et de lieu. Ici, l'enseignant interagit directement avec l'élève, et les ressources sont généralement des documents imprimés. L'apprentissage et la participation doivent y être actifs, la rétroaction y est instantanée et il existe des interactions sociales. En revanche, les créneaux horaires, les lieux et les contenus sont rigides (décidés par l'enseignant et la structure dans laquelle les enseignements sont dispensés). | |
25 | 25 | |||
L'autre stratégie globale est l'apprentissage en-ligne, qui s'appuie sur les ressources et l'information disponible sur le web. Cette stratégie incite les apprenants à être actifs pour acquérir de nouvelles connaissances de manière autonome grâce aux nombreuses ressources disponibles. Les points positifs de cette stratégie sont par exemple la rentabilité, la mise à niveau continue des compétences et des connaissances ou une plus grande opportunité d'accéder au contenu du monde entier. Pour l'apprenant, l'auto-motivation et l'interaction peuvent être des défis à surmonter. Pour l'enseignant, il est parfois difficile d'évaluer l'évolution du processus d'apprentissage de l'individu. L'apprentissage en-ligne fait aussi référence à l'utilisation de dispositifs électroniques pour apprendre (\textit{e-learning}) où les apprenants peuvent être guidés par l'enseignant à travers des liens, du matériel spécifique d'apprentissage, des activités ou exercices. | 26 | 26 | L'autre stratégie globale est l'apprentissage en-ligne, qui s'appuie sur les ressources et l'information disponible sur le web. Cette stratégie incite les apprenants à être actifs pour acquérir de nouvelles connaissances de manière autonome grâce aux nombreuses ressources disponibles. Les points positifs de cette stratégie sont par exemple la rentabilité, la mise à niveau continue des compétences et des connaissances ou une plus grande opportunité d'accéder au contenu du monde entier. Pour l'apprenant, l'auto-motivation et l'interaction peuvent être des défis à surmonter. Pour l'enseignant, il est parfois difficile d'évaluer l'évolution du processus d'apprentissage de l'individu. L'apprentissage en-ligne fait aussi référence à l'utilisation de dispositifs électroniques pour apprendre (\textit{e-learning}) où les apprenants peuvent être guidés par l'enseignant à travers des liens, du matériel spécifique d'apprentissage, des activités ou exercices. | |
27 | 27 | |||
Il existe également des stratégies hybrides combinant des caractéristiques des deux stratégies fondamentales, comme un cours en-ligne mais avec quelques séances en présentiel pour des activités spécifiques ou des cours traditionnels avec du matériel d'apprentissage complémentaire en-ligne. | 28 | 28 | Il existe également des stratégies hybrides combinant des caractéristiques des deux stratégies fondamentales, comme un cours en-ligne mais avec quelques séances en présentiel pour des activités spécifiques ou des cours traditionnels avec du matériel d'apprentissage complémentaire en-ligne. | |
29 | 29 | |||
\subsection{Les EIAH} | 30 | 30 | \subsection{Les EIAH} | |
31 | 31 | |||
\mfigure[!h]{width=\textwidth}{./Figures/EIAH.png}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite{Nkambou})}{figEIAH} | 32 | 32 | \mfigure[!h]{width=\textwidth}{./Figures/EIAH.png}{L'architecture générale des EIAH, les composantes et leurs interactions (Traduit de \cite{Nkambou})}{figEIAH} | |
33 | 33 | |||
Les EIAH sont des outils pour aider les apprenants dans le processus d'apprentissage et l'acquisition de la connaissance. Ces outils sont conçus pour fonctionner avec des stratégies d'apprentissage en ligne et mixtes. Généralement, l'architecture de ces systèmes est divisée en quatre composants comme le montre la figure \figref{figEIAH}. Ces composants sont : | 34 | 34 | Les EIAH sont des outils pour aider les apprenants dans le processus d'apprentissage et l'acquisition de la connaissance. Ces outils sont conçus pour fonctionner avec des stratégies d'apprentissage en ligne et mixtes. Généralement, l'architecture de ces systèmes est divisée en quatre composants comme le montre la figure \figref{figEIAH}. Ces composants sont : | |
\begin{itemize} | 35 | 35 | \begin{itemize} | |
\item Le \textit{domaine} (\textit{ Modèle du domain} sur la figure \figref{figEIAH}), qui contient les concepts, les règles et les stratégies pour résoudre des problèmes dans un domaine spécifique. Ce composant peut détecter et corriger les erreurs des apprenants. En général, l'information est divisée en séquences pédagogiques. | 36 | 36 | \item Le \textit{domaine} (\textit{Modèle du domaine} sur la figure \figref{figEIAH}), qui contient les concepts, les règles et les stratégies pour résoudre des problèmes dans un domaine spécifique. Ce composant peut détecter et corriger les erreurs des apprenants. En général, l'information est divisée en séquences pédagogiques. | |
\item Le composant \textit{apprenant} (\textit{Modèle de l'apprenant} sur la figure \figref{figEIAH}), qui est le noyau du système car il contient toute l'information utile à l'EIAH concernant l'apprenant (\textit{Utilisateur-Apprenant} sur la figure \figref{figEIAH}). Ce composant contient également les informations sur l'évolution de l'acquisition des compétences de l'apprenant. Ce module doit avoir les informations implicites et explicites pour pouvoir créer une représentation des connaissances acquises, non et partiellement acquises et l'évolution de l'apprentissage de l'apprenant. Ces informations doivent permettre de générer un diagnostic de l'état de la connaissance de l'apprenant, à partir duquel le système peut prédire les résultats dans certains domaines et choisir la stratégie optimale pour présenter les nouveaux contenus. | 37 | 37 | \item Le composant \textit{apprenant} (\textit{Modèle de l'apprenant} sur la figure \figref{figEIAH}), qui est le noyau du système car il contient toute l'information utile à l'EIAH concernant l'apprenant (\textit{Utilisateur-Apprenant} sur la figure \figref{figEIAH}). Ce composant contient également les informations sur l'évolution de l'acquisition des compétences de l'apprenant. Ce module doit avoir les informations implicites et explicites pour pouvoir créer une représentation des connaissances acquises, non et partiellement acquises et l'évolution de l'apprentissage de l'apprenant. Ces informations doivent permettre de générer un diagnostic de l'état de la connaissance de l'apprenant, à partir duquel le système peut prédire les résultats dans certains domaines et choisir la stratégie optimale pour présenter les nouveaux contenus. | |
\item L'\textit{enseignant} (\textit{Modèle du Tutorat} sur la figure \figref{figEIAH}) est également modélisé sous la forme d'un composant. Il reçoit l'information des modules précédents, information grâce à laquelle il peut prendre des décisions sur le changement de parcours ou sur la stratégie d'apprentissage. Il peut également interagir avec l'apprenant. | 38 | 38 | \item L'\textit{enseignant} (\textit{Modèle du Tutorat} sur la figure \figref{figEIAH}) est également modélisé sous la forme d'un composant. Il reçoit l'information des modules précédents, information grâce à laquelle il peut prendre des décisions sur le changement de parcours ou sur la stratégie d'apprentissage. Il peut également interagir avec l'apprenant. | |
\item L'\textit{interface} (\textit{Interface} sur la figure \figref{figEIAH}) est le module chargé de la gestion des configurations de l'EIAH et des interactions entre ses composants. | 39 | 39 | \item L'\textit{interface} (\textit{Interface} sur la figure \figref{figEIAH}) est le module chargé de la gestion des configurations de l'EIAH et des interactions entre ses composants. | |
\end{itemize} | 40 | 40 | \end{itemize} | |
41 | 41 | |||
Le développement et la configuration de ce type de systèmes relèvent de multiples disciplines et impliquent plusieurs domaines de recherche parmi lesquels figurent la pédagogie, l'éducation, la psychologie, les sciences cognitives et l'intelligence artificielle. | 42 | 42 | Le développement et la configuration de ce type de systèmes relèvent de multiples disciplines et impliquent plusieurs domaines de recherche parmi lesquels figurent la pédagogie, l'éducation, la psychologie, les sciences cognitives et l'intelligence artificielle. | |
43 | 43 | |||
%\subsection{Traitement du langage naturel (NLP)} | 44 | 44 | %\subsection{Traitement du langage naturel (NLP)} | |
% | 45 | 45 | % | |
%Le traitement du langage naturel est un domaine de recherche interdisciplinaire qui essaie à travers de multiples méthodes analyser et faire comprendre aux machines le langage et la communication humaine. Ce domaine est catégorisé comme une branche de l'intelligence artificielle \cite{kedia2020hands}.\\ | 46 | 46 | %Le traitement du langage naturel est un domaine de recherche interdisciplinaire qui essaie à travers de multiples méthodes analyser et faire comprendre aux machines le langage et la communication humaine. Ce domaine est catégorisé comme une branche de l'intelligence artificielle \cite{kedia2020hands}.\\ | |
% | 47 | 47 | % | |
%Comme on peut lire dans \cite{ghosh2019natural}, le NLP est constitué de plusieurs tâches standardisées, entre elles, la tokenisation qui est la procédure qui consiste à diviser une phrase en ses mots constitutifs, par exemple le résultat de tokeniser la phrase "Je lis un livre", est "Je", "lis", "un", "livre"; avec cet exemple on a tokenisée la phrase en utilisant uni-grams, c'est-à-dire des tokens de taille un, mais on peut extraire des ensembles de tokens, si on divise la phrase en paires de tokens alors on parle de bi-grams: "Je lis", "un livre"; en général on parle de n-grams où "n" est le nombre de tokens.\\ | 48 | 48 | %Comme on peut lire dans \cite{ghosh2019natural}, le NLP est constitué de plusieurs tâches standardisées, entre elles, la tokenisation qui est la procédure qui consiste à diviser une phrase en ses mots constitutifs, par exemple le résultat de tokeniser la phrase "Je lis un livre", est "Je", "lis", "un", "livre"; avec cet exemple on a tokenisée la phrase en utilisant uni-grams, c'est-à-dire des tokens de taille un, mais on peut extraire des ensembles de tokens, si on divise la phrase en paires de tokens alors on parle de bi-grams: "Je lis", "un livre"; en général on parle de n-grams où "n" est le nombre de tokens.\\ | |
% | 49 | 49 | % | |
%Une autre tâche fondamentale du NLP est le "PoS Tagging" qui ajoute des identificateurs à chacun des tokens d'une phrase avec le propos de faciliter l'analyse et le filtrage du contenu des phrases. Ainsi "Le ciel est bleu", est [("Le", "AR"), ("ciel", "NN"), ("est", "VBZ"), ("bleu", "JJ")], où AR: article, NN: nom, VBZ: verbe troisième personne, JJ: adjectif. Ainsi, il est possible de connaître et de filtrer les phrases par la catégorisation de leur contenu.\\ | 50 | 50 | %Une autre tâche fondamentale du NLP est le "PoS Tagging" qui ajoute des identificateurs à chacun des tokens d'une phrase avec le propos de faciliter l'analyse et le filtrage du contenu des phrases. Ainsi "Le ciel est bleu", est [("Le", "AR"), ("ciel", "NN"), ("est", "VBZ"), ("bleu", "JJ")], où AR: article, NN: nom, VBZ: verbe troisième personne, JJ: adjectif. Ainsi, il est possible de connaître et de filtrer les phrases par la catégorisation de leur contenu.\\ | |
% | 51 | 51 | % | |
%La tokenisation et le "PoS Tagging" fonctionnent avec les caractères qui font partie de l'alphabet, mais les phrases communément écrites contient aussi des caractères symboliques qui représentent des aspects complémentaires du langage et qui ne sont pas considérés dans les analyses, car ils n'apportent pas d'information significative. La tâche d'effacer les symboles jugés inutiles s'appelle "cleaning text", usuellement ces symboles sont les signes de ponctuation et parfois les articles définis / indéfinis et les mots qui servent de lien comme par exemple en français: "le", "la", "les", "est", "et", etc. Il y a d'autres tâches qui sont utilisées aussi dans NLP, mais elles sont plus spécifiques comme: normalisation, correction, "stemming", "lemmatization", "NER", etc. Elles peuvent être consultées plus en détail et avec exemples de code dans \cite{ghosh2019natural}.\\ | 52 | 52 | %La tokenisation et le "PoS Tagging" fonctionnent avec les caractères qui font partie de l'alphabet, mais les phrases communément écrites contient aussi des caractères symboliques qui représentent des aspects complémentaires du langage et qui ne sont pas considérés dans les analyses, car ils n'apportent pas d'information significative. La tâche d'effacer les symboles jugés inutiles s'appelle "cleaning text", usuellement ces symboles sont les signes de ponctuation et parfois les articles définis / indéfinis et les mots qui servent de lien comme par exemple en français: "le", "la", "les", "est", "et", etc. Il y a d'autres tâches qui sont utilisées aussi dans NLP, mais elles sont plus spécifiques comme: normalisation, correction, "stemming", "lemmatization", "NER", etc. Elles peuvent être consultées plus en détail et avec exemples de code dans \cite{ghosh2019natural}.\\ | |
% | 53 | 53 | % | |
%L'exécution des tâches précitées est appelée prétraitement du texte, l'idée est de donner au texte un format pour l'envoyer comme donnée d'entré à un modèle chargé de l'analyser selon un certain objectif prédétermine. Les modèles de NLP se basent en algorithmes d'apprentissage automatique qui fonctionnent avec données numériques, alors les modèles doivent convertir le texte vers une représentation numérique, cette transformation s'appelle "vectorization" ou "vector embeddings". L'une des méthodes les plus simples et les plus élémentaires est le "BoW (Bag of Words) Model" qui génère un vecteur avec les fréquences de chaque mot d'un alphabet dans une phrase, comme le montre la figure \figref{figBOW}, les limitations principales du "BoW Model" sont d'abord que les vecteurs de représentation générés sont creuses, et aussi il n'y a pas de préservation de l'ordre des mots, alors on perdre contexte et signification des phrases et du texte. Une autre modèle est TF-IDF qui normalise les fréquences d'apparition et essaie d'associer une importance aux mots, ce qui évite d'analyser la pertinence de chaque mot seulement par sa fréquence d'apparition dans le texte. Autres modèles de vectorisation plus sophistiqués comme les réseaux de neurones (Word2vec, Doc2Vec, fastText) peuvent être consultés dans \cite{kedia2020hands}.\\ | 54 | 54 | %L'exécution des tâches précitées est appelée prétraitement du texte, l'idée est de donner au texte un format pour l'envoyer comme donnée d'entré à un modèle chargé de l'analyser selon un certain objectif prédétermine. Les modèles de NLP se basent en algorithmes d'apprentissage automatique qui fonctionnent avec données numériques, alors les modèles doivent convertir le texte vers une représentation numérique, cette transformation s'appelle "vectorization" ou "vector embeddings". L'une des méthodes les plus simples et les plus élémentaires est le "BoW (Bag of Words) Model" qui génère un vecteur avec les fréquences de chaque mot d'un alphabet dans une phrase, comme le montre la figure \figref{figBOW}, les limitations principales du "BoW Model" sont d'abord que les vecteurs de représentation générés sont creuses, et aussi il n'y a pas de préservation de l'ordre des mots, alors on perdre contexte et signification des phrases et du texte. Une autre modèle est TF-IDF qui normalise les fréquences d'apparition et essaie d'associer une importance aux mots, ce qui évite d'analyser la pertinence de chaque mot seulement par sa fréquence d'apparition dans le texte. Autres modèles de vectorisation plus sophistiqués comme les réseaux de neurones (Word2vec, Doc2Vec, fastText) peuvent être consultés dans \cite{kedia2020hands}.\\ | |
% | 55 | 55 | % | |
%\mfigure[!ht]{scale=0.7}{./Figures/BoW.png}{Bag of words pour une phrase}{figBOW} | 56 | 56 | %\mfigure[!ht]{scale=0.7}{./Figures/BoW.png}{Bag of words pour une phrase}{figBOW} | |
% | 57 | 57 | % | |
%%\begin{figure} | 58 | 58 | %%\begin{figure} | |
%%\centering | 59 | 59 | %%\centering | |
%%\includegraphics[scale=0.7]{./Figures/BoW.png} | 60 | 60 | %%\includegraphics[scale=0.7]{./Figures/BoW.png} | |
%%\caption{Bag of words pour une phrase.} | 61 | 61 | %%\caption{Bag of words pour une phrase.} | |
%%\label{figBOW} | 62 | 62 | %%\label{figBOW} | |
%%\end{figure} | 63 | 63 | %%\end{figure} | |
64 | 64 | |||
\subsection{L'exerciseur initial AI-VT} | 65 | 65 | \subsection{L'exerciseur initial AI-VT} | |
66 | 66 | |||
Le DISC travaille depuis plusieurs années sur l'utilisation potentielle de l'intelligence artificielle dans le cadre d'un exerciseur couvrant plusieurs domaines d'apprentissage. Cet exerciseur, appelé AI-VT(Artificial Intelligence Virtual Trainer) est fondé sur différents concepts d'intelligence artificielle et ses domaines d'application sont l'apprentissage de l'aïkido, des bases de l'algorithmique et de l'anglais. Un premier réseau de convolution détermine les lacunes de l'apprenant en analysant les résultats de quelques exercices préliminaires. Puis un système de raisonnement à partir de cas distribué prend le relais et détermine une liste d'exercices à proposer en regard de ses lacunes et en tenant compte des séances qui ont déjà été proposées par le système à cet apprenant. | 67 | 67 | Le DISC travaille depuis plusieurs années sur l'utilisation potentielle de l'intelligence artificielle dans le cadre d'un exerciseur couvrant plusieurs domaines d'apprentissage. Cet exerciseur, appelé AI-VT(Artificial Intelligence Virtual Trainer) est fondé sur différents concepts d'intelligence artificielle et ses domaines d'application sont l'apprentissage de l'aïkido, des bases de l'algorithmique et de l'anglais. Un premier réseau de convolution détermine les lacunes de l'apprenant en analysant les résultats de quelques exercices préliminaires. Puis un système de raisonnement à partir de cas distribué prend le relais et détermine une liste d'exercices à proposer en regard de ses lacunes et en tenant compte des séances qui ont déjà été proposées par le système à cet apprenant. | |
68 | 68 | |||
Dans le système AI-VT, une séance d'entraînement est proposée dans le cadre d'un cycle d'entraînement. Ainsi, un exercice proposé en première séance du cycle peut être reproposé ensuite dans une autre séance, afin de consolider les acquis et de remettre en mémoire certaines connaissances à l'apprenant. Une séance est entièrement consacrée à une seule et même compétence, déclinée en plusieurs sous-compétences. Des exercices dans différentes sous-compétences sont proposées à chaque séance. Les exercices d'une même sous-compétence sont regroupés. Un même exercice pouvant permettre de travailler deux sous-compétences différentes, un mécanisme de règlement des conflits a été implémenté dans AI-VT afin qu'un même exercice ne puisse être proposé plus d'une seule fois dans une même séance d'entraînement. Dans AI-VT, l'énoncé d'un exercice est constitué de deux parties : le contexte et la question. Cette structure modulaire permet d'associer plusieurs questions à un même contexte et inversement. Les réponses apportées par les apprenants à chaque exercice sont notées sur 10 points et le temps mis pour répondre à chaque question est comptabilisée. L'étudiant dispose d'une interface présentant un tableau de bord des exercices, sous-compétences et compétences qu'il ou elle a travaillé. | 69 | 69 | Dans le système AI-VT, une séance d'entraînement est proposée dans le cadre d'un cycle d'entraînement. Ainsi, un exercice proposé en première séance du cycle peut être reproposé ensuite dans une autre séance, afin de consolider les acquis et de remettre en mémoire certaines connaissances à l'apprenant. Une séance est entièrement consacrée à une seule et même compétence, déclinée en plusieurs sous-compétences. Des exercices dans différentes sous-compétences sont proposées à chaque séance. Les exercices d'une même sous-compétence sont regroupés. Un même exercice pouvant permettre de travailler deux sous-compétences différentes, un mécanisme de règlement des conflits a été implémenté dans AI-VT afin qu'un même exercice ne puisse être proposé plus d'une seule fois dans une même séance d'entraînement. Dans AI-VT, l'énoncé d'un exercice est constitué de deux parties : le contexte et la question. Cette structure modulaire permet d'associer plusieurs questions à un même contexte et inversement. Les réponses apportées par les apprenants à chaque exercice sont notées sur 10 points et le temps mis pour répondre à chaque question est comptabilisé. L'apprenant dispose d'une interface présentant un tableau de bord des exercices, sous-compétences et compétences qu'il ou elle a travaillé. | |
70 | 70 | |||
Pour l'apprentissage de l'Anglais, un robot est chargé d'énoncer les exercices de la séance. Au démarrage de cette thèse, les apprenants ont une liste personnalisée d'exercices proposée par le système AI-VT, mais c'est à l'enseignant de vérifier la validité des algorithmes/solutions proposés par les étudiants et d'identifier leurs difficultés. L'amélioration du système et de la personnalisation du parcours de l'apprenant implique une correction automatique des exercices et cela sans utiliser un entraînement spécifique à chaque exercice, mais cet objectif ne fait pas partie de cette thèse. La définition de profils d'apprenants par le recueil de traces reste également à travailler pour optimiser les aides et séances d'exercices. | 71 | 71 | Pour l'apprentissage de l'anglais, un robot est chargé d'énoncer les exercices de la séance. Au démarrage de cette thèse, les apprenants ont une liste personnalisée d'exercices proposée par le système AI-VT, mais c'est à l'enseignant de vérifier la validité des algorithmes/solutions proposés par les apprenants et d'identifier leurs difficultés. L'amélioration du système et de la personnalisation du parcours de l'apprenant implique une correction automatique des exercices et cela sans utiliser un entraînement spécifique à chaque exercice, mais cet objectif ne fait pas partie de cette thèse. La définition de profils d'apprenants par le recueil de traces reste également à travailler pour optimiser les aides et séances d'exercices. | |
72 | 72 | |||
Le système AI-VT a été implémenté en se fondant sur deux paradigmes de l'IA : la séance d'entraînement est construite par différents modules suivant la philosophie du raisonnement à partir de cas, et l'architecture logicielle a été modélisée selon un système multi-agents. Une présentation sommaire de ces deux paradigmes de l'IA sont présentés dans cette section, et celles-ci sont suivies de la présentation de différents algorithmes et fonctions implémentés dans l'EIAH AI-VT. Des états de l'art plus complets sur les EIAH et le RàPC sont présentés dans le chapitre suivant. Le système AI-VT, son architecture et les évolutions qui ont été réalisées sur celle-ci sont détaillés dans le chapitre 4. | 73 | 73 | Le système AI-VT a été implémenté en se fondant sur deux paradigmes de l'IA : la séance d'entraînement est construite par différents modules suivant la philosophie du raisonnement à partir de cas, et l'architecture logicielle a été modélisée selon un système multi-agents. Une présentation sommaire de ces deux paradigmes de l'IA sont présentés dans cette section, et celles-ci sont suivies de la présentation de différents algorithmes et fonctions implémentés dans l'EIAH AI-VT. Des états de l'art plus complets sur les EIAH et le RàPC sont présentés dans le chapitre suivant. Le système AI-VT, son architecture et les évolutions qui ont été réalisées sur celle-ci sont détaillés dans le chapitre 4. | |
74 | 74 | |||
\section{Le contexte technique} | 75 | 75 | \section{Le contexte technique} | |
76 | 76 | |||
\subsection{Le raisonnement à partir de cas (RàPC)} | 77 | 77 | \subsection{Le raisonnement à partir de cas (RàPC)} | |
78 | 78 | |||
Le raisonnement à partir de cas est un modèle de raisonnement fondé sur l'hypothèse que les problèmes similaires ont des solutions similaires. Ainsi, les systèmes de RàPC infèrent une solution à un problème posé à partir des solutions mises en œuvre auparavant pour résoudre d'autres problèmes similaires \cite{ROLDANREYES20151}. | 79 | 79 | Le raisonnement à partir de cas est un modèle de raisonnement fondé sur l'hypothèse que les problèmes similaires ont des solutions similaires. Ainsi, les systèmes de RàPC infèrent une solution à un problème posé à partir des solutions mises en œuvre auparavant pour résoudre d'autres problèmes similaires \cite{ROLDANREYES20151}. | |
80 | 80 | |||
Un cas est défini comme étant la représentation d'un problème et la description de sa solution. Les cas résolus sont stockés et permettent au système de RàPC de construire de nouveaux cas à partir de ceux-ci. Formellement, si $P$ est l'espace des problèmes et $S$ l'espace des solutions, alors un problème $x$ et sa solution $y$ appartiennent à ces espaces : $x \in P$ et $y \in S$. Si $y$ est solution de $x$ alors, un cas est représenté par le couple $(x,y) \in P \times S$. Le RàPC a besoin d'une base de $N$ problèmes et de leurs solutions associées. Cette base est appelée base de cas. Ainsi tout cas d'indice $n \in [1,N]$ de cette base de cas est formalisé de la manière suivante : $(x^n, y^n)$. L'objectif du RàPC est, étant donné un nouveau problème $x^z$ de trouver sa solution $y^z$ en utilisant les cas stockés dans la base de cas \cite{10.1007/978-3-030-58342-2_20}. | 81 | 81 | Un cas est défini comme étant la représentation d'un problème et la description de sa solution. Les cas résolus sont stockés et permettent au système de RàPC de construire de nouveaux cas à partir de ceux-ci. Formellement, si $P$ est l'espace des problèmes et $S$ l'espace des solutions, alors un problème $x$ et sa solution $y$ appartiennent à ces espaces : $x \in P$ et $y \in S$. Si $y$ est solution de $x$ alors, un cas est représenté par le couple $(x,y) \in P \times S$. Le RàPC a besoin d'une base de $N$ problèmes et de leurs solutions associées. Cette base est appelée base de cas. Ainsi tout cas d'indice $n \in [1,N]$ de cette base de cas est formalisé de la manière suivante : $(x^n, y^n)$. L'objectif du RàPC est, étant donné un nouveau problème $x^z$, de trouver sa solution $y^z$ en utilisant les cas stockés dans la base de cas \cite{10.1007/978-3-030-58342-2_20}. | |
82 | 82 | |||
\mfigure[!ht]{width=\textwidth}{./Figures/cycle.png}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite{min8100434})}{figCycle} | 83 | 83 | \mfigure[!ht]{width=\textwidth}{./Figures/cycle.png}{Cycle fondamental du raisonnement à partir de cas (Adapté et traduit de \cite{min8100434})}{figCycle} | |
84 | 84 | |||
%\begin{figure} | 85 | 85 | %\begin{figure} | |
%\centering | 86 | 86 | %\centering | |
%\includegraphics[scale=30]{./Figures/cycle.png} | 87 | 87 | %\includegraphics[scale=30]{./Figures/cycle.png} | |
%\caption{Cycle fondamental du raisonnement à partir de cas %(\cite{min8100434})} | 88 | 88 | %\caption{Cycle fondamental du raisonnement à partir de cas %(\cite{min8100434})} | |
%\label{figCycle} | 89 | 89 | %\label{figCycle} | |
%\end{figure} | 90 | 90 | %\end{figure} | |
91 | 91 | |||
Le processus du RàPC est divisé en quatre étapes formant un cycle comme l'ont proposé Aamont et Plaza \cite{doi:10.3233/AIC-1994-7104}. La figure \figref{figCycle} montre le cycle, le flux d'informations ainsi que les relations entre chacune des étapes \cite{min8100434}: retrouver (rechercher), réutiliser (adapter), réviser et retenir (stocker). Chacune des étapes est décrite dans \cite{Richter2013} de la manière suivante. | 92 | 92 | Le processus du RàPC est divisé en quatre étapes formant un cycle comme l'ont proposé Aamont et Plaza \cite{doi:10.3233/AIC-1994-7104}. La figure \figref{figCycle} montre le cycle, le flux d'informations ainsi que les relations entre chacune des étapes \cite{min8100434}: retrouver (rechercher), réutiliser (adapter), réviser et retenir (stocker). Chacune des étapes est décrite dans \cite{Richter2013} de la manière suivante. | |
93 | 93 | |||
\subsubsection{Retrouver (Rechercher)} | 94 | 94 | \subsubsection{Retrouver (Rechercher)} | |
L'objectif de cette étape est de rechercher dans la base de cas, les cas similaires à un nouveau cas donné. Cette similarité n'est pas un concept général, mais dépend du contexte, de l'objectif et du type de données. La question fondamentale qui se pose dans cette étape est: quel est le cas le plus approprié dans la base de cas qui permet de réutiliser sa solution pour résoudre le nouveau problème donné ? | 95 | 95 | L'objectif de cette étape est de rechercher dans la base de cas, les cas similaires à un nouveau cas donné. Cette similarité n'est pas un concept général, mais dépend du contexte, de l'objectif et du type de données. La question fondamentale qui se pose dans cette étape est: quel est le cas le plus approprié dans la base de cas qui permet de réutiliser sa solution pour résoudre le nouveau problème donné ? | |
96 | 96 | |||
Le nouveau cas est comparé à chaque cas de la base afin d'en évaluer la similitude. La comparaison entre les cas est différente selon la structure de la base et la manière dont les problèmes sont décrits dans celle-ci. Généralement, un problème est représenté par un ensemble d'attributs aux valeurs spécifiques. Cette représentation est connue comme la représentation attribut-valeur. La similitude entre deux cas de ce type est calculée suivant l'équation \ref{eqSim}. La similitude entre deux cas attribut-valeur $c_1={a_{1,1}, a_{1,1}, ..., a_{1,n}}$ et $c_2={a_{2,1}, a_{2,1}, ..., a_{2,n}}$ est la somme pondérée des similitudes entre les attributs considérés individuellement. La pondération détermine l'importance de chaque attribut. | 97 | 97 | Le nouveau cas est comparé à chaque cas de la base afin d'en évaluer la similitude. La comparaison entre les cas est différente selon la structure de la base et la manière dont les problèmes sont décrits dans celle-ci. Généralement, un problème est représenté par un ensemble d'attributs aux valeurs spécifiques. Cette représentation est connue comme la représentation attribut-valeur. La similitude entre deux cas de ce type est calculée suivant l'équation \ref{eqSim}. La similitude entre deux cas attribut-valeur $c_1={a_{1,1}, a_{1,1}, ..., a_{1,n}}$ et $c_2={a_{2,1}, a_{2,1}, ..., a_{2,n}}$ est la somme pondérée des similitudes entre les attributs considérés individuellement. La pondération détermine l'importance de chaque attribut. | |
98 | 98 | |||
\begin{equation} | 99 | 99 | \begin{equation} | |
\sum_{i=1}^n \omega_i \; sim (a_{1,i}, a_{2,i}) | 100 | 100 | \sum_{i=1}^n \omega_i \; sim (a_{1,i}, a_{2,i}) | |
\label{eqSim} | 101 | 101 | \label{eqSim} | |
\end{equation} | 102 | 102 | \end{equation} | |
103 | 103 | |||
Dans cette étape, il est possible de sélectionner $k$ différents cas similaires au nouveau cas donné. | 104 | 104 | Dans cette étape, il est possible de sélectionner $k$ différents cas similaires au nouveau cas donné. | |
105 | 105 | |||
\subsubsection{Réutiliser (Adapter)} | 106 | 106 | \subsubsection{Réutiliser (Adapter)} | |
L'idée du RàPC est d'utiliser l'expérience pour essayer de résoudre de nouveaux cas (problèmes). La figure \figref{figReut} montre le principe de réutilisation d'un cas (problème) résolu (appelé \textit{cas source}) auparavant pour le proposer en solution d'un nouveau cas (dénommé \textit{cas cible}) après adaptation. | 107 | 107 | L'idée du RàPC est d'utiliser l'expérience pour essayer de résoudre de nouveaux cas (problèmes). La figure \figref{figReut} montre le principe de réutilisation d'un cas (problème) résolu (appelé \textit{cas source}) auparavant pour le proposer en solution d'un nouveau cas (dénommé \textit{cas cible}) après adaptation. | |
108 | 108 | |||
Si certains cas cibles sont très similaires au cas source le plus proche, il est cependant souvent nécessaire d'adapter la solution du cas source le plus similaire afin d'arriver à une solution satisfaisante pour le cas cible. De la même manière que pour la phase de recherche du cas le plus similaire, il existe de nombreuses stratégies d'adaptation. Celles-ci dépendent de la représentation des cas, du contexte dans lequel le RàPC est mis en œuvre et des algorithmes utilisés pour l'adaptation. L'une des stratégies les plus utilisées est la définition d'un ensemble de règles transformant la | 109 | 109 | Si certains cas cibles sont très similaires au cas source le plus proche, il est cependant souvent nécessaire d'adapter la solution du cas source le plus similaire afin d'arriver à une solution satisfaisante pour le cas cible. De la même manière que pour la phase de recherche du cas le plus similaire, il existe de nombreuses stratégies d'adaptation. Celles-ci dépendent de la représentation des cas, du contexte dans lequel le RàPC est mis en œuvre et des algorithmes utilisés pour l'adaptation. L'une des stratégies les plus utilisées est la définition d'un ensemble de règles transformant la | |
ou les solutions des cas sources les plus similaires au cas cible. L'objectif ici est d'inférer une nouvelle solution $y^z$ du cas $x^z$ à partir des $k$ cas sources retrouvés dans la première étape. | 110 | 110 | ou les solutions des cas sources les plus similaires au cas cible. L'objectif ici est d'inférer une nouvelle solution $y^z$ du cas $x^z$ à partir des $k$ cas sources retrouvés dans la première étape. | |
111 | 111 | |||
\mfigure[!ht]{width=0.7\textwidth}{./Figures/Reuse.png}{Principe de réutilisation dans le RàPC (Traduit de \cite{Richter2013})}{figReut} | 112 | 112 | \mfigure[!ht]{width=0.7\textwidth}{./Figures/Reuse.png}{Principe de réutilisation dans le RàPC (Traduit de \cite{Richter2013})}{figReut} | |
113 | 113 | |||
%\begin{figure} | 114 | 114 | %\begin{figure} | |
%\centering | 115 | 115 | %\centering | |
%\includegraphics[scale=20]{./Figures/Reuse.png} | 116 | 116 | %\includegraphics[scale=20]{./Figures/Reuse.png} | |
%\caption{Principe de réutilisation dans le RàPC (\cite{Richter2013})} | 117 | 117 | %\caption{Principe de réutilisation dans le RàPC (\cite{Richter2013})} | |
%\label{figReut} | 118 | 118 | %\label{figReut} | |
%\end{figure} | 119 | 119 | %\end{figure} | |
120 | 120 | |||
\subsubsection{Réviser et Réparer} | 121 | 121 | \subsubsection{Réviser et Réparer} | |
122 | 122 | |||
La solution adaptée proposée doit ensuite être évaluée et révisée afin de satisfaire certains critères de validation. L'étape de révision est chargée d'évaluer l'applicabilité de la solution cible obtenue suite à l'étape "adaptation". Cette évaluation peut être réalisée dans le monde réel ou dans une simulation. | 123 | 123 | La solution adaptée proposée doit ensuite être évaluée et révisée afin de satisfaire certains critères de validation. L'étape de révision est chargée d'évaluer l'applicabilité de la solution cible obtenue suite à l'étape "adaptation". Cette évaluation peut être réalisée dans le monde réel ou dans une simulation. | |
124 | 124 | |||
L'objectif de cette phase de révision est la validation du couple $(x^z, y^z)$. Autrement dit, le but est ici de vérifier si la solution trouvée $y^z$ résout le problème $x^z$ et satisfait les règles de validité et d'applicabilité. Si la solution n'est pas correcte, l'expert mettant en œuvre la solution doit ajuster ou modifier la solution cible proposée. | 125 | 125 | L'objectif de cette phase de révision est la validation du couple $(x^z, y^z)$. Autrement dit, le but est ici de vérifier si la solution trouvée $y^z$ résout le problème $x^z$ et satisfait les règles de validité et d'applicabilité. Si la solution n'est pas correcte, l'expert mettant en œuvre la solution doit ajuster ou modifier la solution cible proposée. | |
126 | 126 | |||
Le processus d'évaluation, de révision et de réparation peut être mis en œuvre via un processus d'apprentissage permettant d'améliorer la détection et la correction des failles des futures solutions générées. Dans les travaux de cette thèse, nous avons envisagé la possibilité d'utiliser différents outils d'apprentissage pour évaluer et réviser les solutions cibles dans certains cas particuliers. | 127 | 127 | Le processus d'évaluation, de révision et de réparation peut être mis en œuvre via un processus d'apprentissage permettant d'améliorer la détection et la correction des failles des futures solutions générées. Dans les travaux de cette thèse, nous avons envisagé la possibilité d'utiliser différents outils d'apprentissage pour évaluer et réviser les solutions cibles dans certains cas particuliers. | |
128 | 128 | |||
L'évaluation peut être faite : | 129 | 129 | L'évaluation peut être faite : | |
\begin{itemize} | 130 | 130 | \begin{itemize} | |
\item par un expert humain capable d'évaluer la solution et sa pertinence dans le contexte applicatif, | 131 | 131 | \item par un expert humain capable d'évaluer la solution et sa pertinence dans le contexte applicatif, | |
\item par un système fonctionnant en production et renvoyant le résultat de l'application de la solution, | 132 | 132 | \item par un système fonctionnant en production et renvoyant le résultat de l'application de la solution, | |
\item par un modèle statistique ou un système de test. | 133 | 133 | \item par un modèle statistique ou un système de test. | |
\end{itemize} | 134 | 134 | \end{itemize} | |
135 | 135 | |||
La correction des solutions peut être automatique, mais elle dépend du domaine et de l'information disponible. Un ensemble de règles peut aider à identifier les solutions non valides. | 136 | 136 | La correction des solutions peut être automatique, mais elle dépend du domaine et de l'information disponible. Un ensemble de règles peut aider à identifier les solutions non valides. | |
137 | 137 | |||
\subsubsection{Retenir (Stocker)} | 138 | 138 | \subsubsection{Retenir (Stocker)} | |
139 | 139 | |||
Si le cas cible résolu est jugé pertinent, alors celui-ci peut être stocké dans la base de cas pour aider ensuite à la résolution de futurs cas cibles. | 140 | 140 | Si le cas cible résolu est jugé pertinent, alors celui-ci peut être stocké dans la base de cas pour aider ensuite à la résolution de futurs cas cibles. | |
La décision de stocker ou non un nouveau cas dans la base de cas doit tenir compte de la capacité de cette nouvelle base de cas à proposer de futures solutions pertinentes, évaluer et corriger les solutions cibles générées d'une part, et maintenir une base de cas d'une taille ne gaspillant pas inutilement des ressources de stockage et de calculs du système de RàPC d'autre part. | 141 | 141 | La décision de stocker ou non un nouveau cas dans la base de cas doit tenir compte de la capacité de cette nouvelle base de cas à proposer de futures solutions pertinentes, évaluer et corriger les solutions cibles générées d'une part, et maintenir une base de cas d'une taille ne gaspillant pas inutilement des ressources de stockage et de calculs du système de RàPC d'autre part. | |
142 | 142 | |||
\subsubsection{Conteneurs de Connaissance} | 143 | 143 | \subsubsection{Conteneurs de Connaissance} | |
144 | 144 | |||
Pour pouvoir exécuter le cycle complet, le RàPC dépend de quatre sources différentes d'information. Ces sources sont appelées les conteneurs de connaissances par \cite{RICHTER20093}. Cet article définit les conteneurs suivants dans les systèmes de RàPC : le conteneur de cas, le conteneur d'adaptation, le conteneur du vocabulaire et le conteneur de similarité : | 145 | 145 | Pour pouvoir exécuter le cycle complet, le RàPC dépend de quatre sources différentes d'information. Ces sources sont appelées les conteneurs de connaissances par \cite{RICHTER20093}. Cet article définit les conteneurs suivants dans les systèmes de RàPC : le conteneur de cas, le conteneur d'adaptation, le conteneur du vocabulaire et le conteneur de similarité : | |
146 | 146 | |||
\begin{itemize} | 147 | 147 | \begin{itemize} | |
\item Le conteneur de cas contient les expériences passées que le système peut utiliser pour résoudre les nouveaux problèmes. L'information est structurée sous la forme d'un couple $(p, s)$, où $p$ est la description d'un problème et $s$ est la description de sa solution. | 148 | 148 | \item Le conteneur de cas contient les expériences passées que le système peut utiliser pour résoudre les nouveaux problèmes. L'information est structurée sous la forme d'un couple $(p, s)$, où $p$ est la description d'un problème et $s$ est la description de sa solution. | |
\item Le conteneur d'adaptation stocke la ou les stratégies d'adaptation ainsi que les règles et paramètres nécessaires pour les exécuter. | 149 | 149 | \item Le conteneur d'adaptation stocke la ou les stratégies d'adaptation ainsi que les règles et paramètres nécessaires pour les exécuter. | |
\item Le conteneur du vocabulaire contient l'information, sa signification et sa terminologie. Les éléments comme les entités, les attributs, les fonctions ou les relations entre les entités peuvent y être décrits. | 150 | 150 | \item Le conteneur du vocabulaire contient l'information, sa signification et sa terminologie. Les éléments comme les entités, les attributs, les fonctions ou les relations entre les entités peuvent y être décrits. | |
\item Le conteneur de similarité contient l'ensemble des connaissances liées et nécessaires au calcul de la similarité entre deux cas : les fonctions de calcul de similarité et les paramètres de mesure de similarité $sim(p_1, p_2)$ entre les cas $p_1$ et $p_2$. | 151 | 151 | \item Le conteneur de similarité contient l'ensemble des connaissances liées et nécessaires au calcul de la similarité entre deux cas : les fonctions de calcul de similarité et les paramètres de mesure de similarité $sim(p_1, p_2)$ entre les cas $p_1$ et $p_2$. | |
\end{itemize} | 152 | 152 | \end{itemize} | |
153 | 153 | |||
La figure \figref{figCycleCBR} montre les flux d'informations entre les étapes du RàPC et les conteneurs. Les flèches continues de la figure \figref{figCycleCBR} décrivent l'ordre dans lequel les phases du cycle du RàPC sont exécutées. Les flèches avec des lignes discontinues matérialisent les flux d'information, c'est-à-dire les liens entre les étapes du cycle et les conteneurs de connaissance. | 154 | 154 | La figure \figref{figCycleCBR} montre les flux d'informations entre les étapes du RàPC et les conteneurs. Les flèches continues de la figure \figref{figCycleCBR} décrivent l'ordre dans lequel les phases du cycle du RàPC sont exécutées. Les flèches avec des lignes discontinues matérialisent les flux d'information, c'est-à-dire les liens entre les étapes du cycle et les conteneurs de connaissance. | |
155 | 155 | |||
\mfigure[!ht]{width=\textwidth}{./Figures/CycleCBR.png}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données}{figCycleCBR} | 156 | 156 | \mfigure[!ht]{width=\textwidth}{./Figures/CycleCBR.png}{Cycle du RàPC, les étapes, les conteneurs et leurs flux de données}{figCycleCBR} | |
157 | 157 | |||
%\begin{figure} | 158 | 158 | %\begin{figure} | |
%\centering | 159 | 159 | %\centering | |
%\includegraphics[scale=2.5]{./Figures/CycleCBR.png} | 160 | 160 | %\includegraphics[scale=2.5]{./Figures/CycleCBR.png} | |
%\caption{Cycle du RàPC, les étapes, les conteneurs et leurs liens} | 161 | 161 | %\caption{Cycle du RàPC, les étapes, les conteneurs et leurs liens} | |
%\label{figCycle} | 162 | 162 | %\label{figCycle} | |
%\end{figure} | 163 | 163 | %\end{figure} | |
164 | 164 | |||
\subsection{Les systèmes multi-agents} | 165 | 165 | \subsection{Les systèmes multi-agents} | |
166 | 166 | |||
Les systèmes multi-agents sont des systèmes conçus pour résoudre des problèmes en combinant l'intelligence artificielle et le calcul distribué. Ces systèmes sont composés de multiples entités autonomes appelées agents, qui ont la capacité de communiquer entre elles et également de coordonner leurs comportements \cite{hajduk2019cognitive}. | 167 | 167 | Les systèmes multi-agents sont des systèmes conçus pour résoudre des problèmes en combinant l'intelligence artificielle et le calcul distribué. Ces systèmes sont composés de multiples entités autonomes appelées agents, qui ont la capacité de communiquer entre elles et également de coordonner leurs comportements \cite{hajduk2019cognitive}. | |
168 | 168 | |||
Les agents ont les propriétés suivantes : | 169 | 169 | Les agents ont les propriétés suivantes : | |
\begin{itemize} | 170 | 170 | \begin{itemize} | |
\item Autonomie: les agents fonctionnent sans intervention externe des êtres humains ou d'autres entités, ils ont un mécanisme interne qui leur permet de contrôler leurs états. | 171 | 171 | \item Autonomie: les agents fonctionnent sans intervention externe des êtres humains ou d'autres entités, ils ont un mécanisme interne qui leur permet de contrôler leurs états. | |
\item Réactivité: les agents ont la capacité de percevoir l'environnement dans lequel ils sont et peuvent réagir aux changements qui se produisent. | 172 | 172 | \item Réactivité: les agents ont la capacité de percevoir l'environnement dans lequel ils sont et peuvent réagir aux changements qui se produisent. | |
\item Pro-activité: les agents peuvent effectuer des changements, réagir à différents stimuli provenant de leur environnement et s'engager dans un processus cognitif interne. | 173 | 173 | \item Pro-activité: les agents peuvent effectuer des changements, réagir à différents stimuli provenant de leur environnement et s'engager dans un processus cognitif interne. | |
\item Coopération : les agents peuvent communiquer les uns avec les autres, échanger des informations afin de se coordonner et résoudre un même problème. | 174 | 174 | \item Coopération : les agents peuvent communiquer les uns avec les autres, échanger des informations afin de se coordonner et résoudre un même problème. | |
\item Apprentissage: il est nécessaire qu'un agent soit capable de réagir dans un environnement dynamique et inconnu, il doit donc avoir la capacité d'apprendre de ses interactions et ainsi améliorer la qualité de ses réactions et comportements. | 175 | 175 | \item Apprentissage: il est nécessaire qu'un agent soit capable de réagir dans un environnement dynamique et inconnu, il doit donc avoir la capacité d'apprendre de ses interactions et ainsi améliorer la qualité de ses réactions et comportements. | |
\end{itemize} | 176 | 176 | \end{itemize} | |
177 | 177 | |||
Il existe quatre types d'agent en fonction des capacités et des approches: | 178 | 178 | Il existe quatre types d'agent en fonction des capacités et des approches: | |
\begin{itemize} | 179 | 179 | \begin{itemize} | |
\item Réactif: c'est l'agent qui perçoit constamment l'environnement et agit en fonction de ses objectifs. | 180 | 180 | \item Réactif: c'est l'agent qui perçoit constamment l'environnement et agit en fonction de ses objectifs. | |
\item Fondé sur les réflexes: c'est l'agent qui considère les options pour atteindre ses objectifs et développe un plan à suivre. | 181 | 181 | \item Fondé sur les réflexes: c'est l'agent qui considère les options pour atteindre ses objectifs et développe un plan à suivre. | |
\item Hybride : il combine les deux modèles antérieurs en utilisant chacun d'eux en fonction de la situation et de l'objectif. | 182 | 182 | \item Hybride : il combine les deux modèles antérieurs en utilisant chacun d'eux en fonction de la situation et de l'objectif. | |
\item Fondé sur le comportement: l'agent a à sa disposition un ensemble de modèles de comportement pour réaliser certaines tâches spécifiques. Chaque comportement se déclenche selon des règles prédéfinies ou des conditions d'activation. Le comportement de l'agent peut être modélisé avec différentes stratégies cognitives de pensée ou de raisonnement. | 183 | 183 | \item Fondé sur le comportement: l'agent a à sa disposition un ensemble de modèles de comportement pour réaliser certaines tâches spécifiques. Chaque comportement se déclenche selon des règles prédéfinies ou des conditions d'activation. Le comportement de l'agent peut être modélisé avec différentes stratégies cognitives de pensée ou de raisonnement. | |
\end{itemize} | 184 | 184 | \end{itemize} | |
185 | 185 | |||
\subsection{Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées} | 186 | 186 | \subsection{Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées} | |
187 | 187 | |||
\subsubsection{Pensée Bayesienne} | 188 | 188 | \subsubsection{Pensée Bayesienne} | |
189 | 189 | |||
D'après les travaux de certains mathématiciens et neuroscientifiques, toute forme de cognition peut être modélisée dans le cadre de la formule de Bayes (équation \ref{eqBayes}), car elle permet de tester différentes hypothèses et donner plus de crédibilité à celle qui est confirmée par les observations. Étant donné que ce type de modèle cognitif permet l'apprentissage optimal, la prédiction sur les événements passés, l'échantillonnage représentatif et l'inférence d'information manquante; il est appliqué dans quelques algorithmes de machine learning et d'intelligence artificielle \cite{Hoang}. | 190 | 190 | D'après les travaux de certains mathématiciens et neuroscientifiques, toute forme de cognition peut être modélisée dans le cadre de la formule de Bayes (équation \ref{eqBayes}), car elle permet de tester différentes hypothèses et donner plus de crédibilité à celle qui est confirmée par les observations. Étant donné que ce type de modèle cognitif permet l'apprentissage optimal, la prédiction sur les événements passés, l'échantillonnage représentatif et l'inférence d'information manquante; il est appliqué dans quelques algorithmes d'apprentissage machine (\textit{machine learning}) et d'intelligence artificielle \cite{Hoang}. | |
191 | 191 | |||
\begin{equation} | 192 | 192 | \begin{equation} | |
P(A|B)=\frac{P(B|A)P(A)}{P(B)} | 193 | 193 | P(A|B)=\frac{P(B|A)P(A)}{P(B)} | |
\label{eqBayes} | 194 | 194 | \label{eqBayes} | |
\end{equation} | 195 | 195 | \end{equation} | |
196 | 196 | |||
La formule de Bayes calcule la probabilité a posteriori $P(A|B)$ de la plausibilité de la théorie $A$ compte tenu des données $B$, et requiert trois termes: (1) une probabilité a priori $P(A)$ de la plausibilité de l'hypothèse $A$, (2) le terme $P(B|A)$ qui mesure la capacité de l'hypothèse $A$ à expliquer les données observées $B$ et (3) la fonction de partition $P(B)$ qui met en compétition toutes les hypothèses qui ont pu générer les données observées $B$. À chaque nouvelle évaluation de la formule, la valeur du terme a priori $P(A)$ est actualisée par la valeur du terme a posteriori $P(A|B)$. Ainsi, à chaque évaluation, le degré de plausibilité de chaque hypothèse est ajusté \cite{Hoang}. | 197 | 197 | La formule de Bayes calcule la probabilité a posteriori $P(A|B)$ de la plausibilité de la théorie $A$ compte tenu des données $B$, et requiert trois termes: (1) une probabilité a priori $P(A)$ de la plausibilité de l'hypothèse $A$, (2) le terme $P(B|A)$ qui mesure la capacité de l'hypothèse $A$ à expliquer les données observées $B$ et (3) la fonction de partition $P(B)$ qui met en compétition toutes les hypothèses qui ont pu générer les données observées $B$. À chaque nouvelle évaluation de la formule, la valeur du terme a priori $P(A)$ est actualisée par la valeur du terme a posteriori $P(A|B)$. Ainsi, à chaque évaluation, le degré de plausibilité de chaque hypothèse est ajusté \cite{Hoang}. | |
198 | 198 | |||
Par la suite, nous explicitons quelques algorithmes, intégrés généralement dans l'étape "Rechercher" du RàPC, pour la recherche des cas les plus proches d'un nouveau cas. | 199 | 199 | Par la suite, nous explicitons quelques algorithmes, intégrés généralement dans l'étape "Rechercher" du RàPC, pour la recherche des cas les plus proches d'un nouveau cas. | |
200 | 200 | |||
\subsubsection{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)} | 201 | 201 | \subsubsection{Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)} | |
202 | 202 | |||
Comme est défini dans \cite{10.1145/3459665}, la méthode des 'k' plus proches voisins est une méthode pour classifier des données dans des classes spécifiques. Pour faire cela, il est nécessaire de disposer d'une base de données avec des exemples déjà identifiés. Pour classer de nouveaux exemples, la méthode attribue la même classe que celle de leurs voisins les plus proches. Généralement, l'algorithme compare les caractéristiques d'une entité avec plusieurs possibles voisins pour essayer d'obtenir des résultats plus précis. 'k' représente le nombre de voisins, sachant que l'algorithme peut être exécuté à chaque fois avec un nombre différent de voisins. | 203 | 203 | Comme est défini dans \cite{10.1145/3459665}, la méthode des 'k' plus proches voisins est une méthode pour classifier des données. Pour faire cela, il est nécessaire de disposer d'une base de données avec des exemples déjà identifiés. Pour classer de nouveaux exemples, la méthode attribue la même classe que celle de leurs voisins les plus proches. Généralement, l'algorithme compare les caractéristiques d'une entité avec plusieurs possibles voisins pour essayer d'obtenir des résultats plus précis. 'k' représente le nombre de voisins, sachant que l'algorithme peut être exécuté à chaque fois avec un nombre différent de voisins. | |
204 | 204 | |||
Étant donné un jeu de données $D$ constitué de $(x_i)_{i \in [1,n]}$ données (où $n = |D|$). Chacune des données est décrite par $F$ caractéristiques qui sont des valeurs numériques normalisées $[0,1]$, et par une classe de labellisation $y_j \in Y$. Le but est de classifier une donnée inconnue $q$. Pour chaque $x_i \in D$, il est possible de calculer la distance entre $q$ et $x_i$ selon l'équation \ref{eqDist}. | 205 | 205 | Étant donné un jeu de données $D$ constitué de $(x_i)_{i \in [1,n]}$ données (où $n = |D|$). Chacune des données est décrite par $F$ caractéristiques qui sont des valeurs numériques normalisées $[0,1]$, et par une classe de labellisation $y_j \in Y$. Le but est de classifier une donnée inconnue $q$. Pour chaque $x_i \in D$, il est possible de calculer la distance entre $q$ et $x_i$ selon l'équation \ref{eqDist}. | |
206 | 206 | |||
\begin{equation} | 207 | 207 | \begin{equation} | |
d(q,x_i)=\sum_{f \in F} w_f \delta(q_f, x_{if}) | 208 | 208 | d(q,x_i)=\sum_{f \in F} w_f \delta(q_f, x_{if}) | |
\label{eqDist} | 209 | 209 | \label{eqDist} | |
\end{equation} | 210 | 210 | \end{equation} | |
211 | 211 | |||
La distance entre $q$ et $x_i$ est la somme pondérée de toutes les distances élémentaires $delta$ calculées pour chaque caractéristique. La fonction de distance $\delta$ peut être une métrique générique. Pour des valeurs numériques discrètes il est possible d'utiliser la définition \ref{eqMet1}, | 212 | 212 | La distance entre $q$ et $x_i$ est la somme pondérée de toutes les distances élémentaires $delta$ calculées pour chaque caractéristique. La fonction de distance $\delta$ peut être une métrique générique. Pour des valeurs numériques discrètes il est possible d'utiliser la définition \ref{eqMet1}, | |
213 | 213 | |||
\begin{equation} | 214 | 214 | \begin{equation} | |
\delta(q_f, x_{if})= | 215 | 215 | \delta(q_f, x_{if})= | |
\begin{cases} | 216 | 216 | \begin{cases} | |
0&q_f=x_{if}\\ | 217 | 217 | 0&q_f=x_{if}\\ | |
1&q_f \neq x_{if} | 218 | 218 | 1&q_f \neq x_{if} | |
\end{cases} | 219 | 219 | \end{cases} | |
\label{eqMet1} | 220 | 220 | \label{eqMet1} | |
\end{equation} | 221 | 221 | \end{equation} | |
222 | 222 | |||
et si les valeurs sont continues l'équation \ref{eqMet2}. | 223 | 223 | et si les valeurs sont continues l'équation \ref{eqMet2}. | |
224 | 224 | |||
\begin{equation} | 225 | 225 | \begin{equation} | |
\delta(q_f, x_{if})= \lvert q_f-x_{if} \rvert | 226 | 226 | \delta(q_f, x_{if})= \lvert q_f-x_{if} \rvert | |
\label{eqMet2} | 227 | 227 | \label{eqMet2} | |
\end{equation} | 228 | 228 | \end{equation} | |
229 | 229 | |||
Un poids plus important est généralement attribué aux voisins les plus proches. Le vote pondéré en fonction de la distance est une technique couramment utilisée (équation \ref{eqV1}). | 230 | 230 | Un poids plus important est généralement attribué aux voisins les plus proches. Le vote pondéré en fonction de la distance est une technique couramment utilisée (équation \ref{eqV1}). | |
231 | 231 | |||
\begin{equation} | 232 | 232 | \begin{equation} | |
N(a,b)= \begin{cases} 1 & a=b \\ 0 & a \neq b \end{cases} | 233 | 233 | N(a,b)= \begin{cases} 1 & a=b \\ 0 & a \neq b \end{cases} | |
\label{eqV1} | 234 | 234 | \label{eqV1} | |
\end{equation} | 235 | 235 | \end{equation} | |
236 | 236 | |||
Le vote est couramment calculé selon l'équation \ref{eqV2}. | 237 | 237 | Le vote est couramment calculé selon l'équation \ref{eqV2}. | |
238 | 238 | |||
\begin{equation} | 239 | 239 | \begin{equation} | |
vote(y_i)=\sum_{c=1}^{k} \frac{1}{d(q, x_c)^p}N(y_j, y_c) | 240 | 240 | vote(y_i)=\sum_{c=1}^{k} \frac{1}{d(q, x_c)^p}N(y_j, y_c) | |
\label{eqV2} | 241 | 241 | \label{eqV2} | |
\end{equation} | 242 | 242 | \end{equation} | |
243 | 243 | |||
Une autre alternative est fondée sur le travail de Shepard, équation \ref{eqV3}. | 244 | 244 | Une autre alternative est fondée sur le travail de Shepard, équation \ref{eqV3}. | |
245 | 245 | |||
\begin{equation} | 246 | 246 | \begin{equation} | |
vote(y_i)=\sum_{c=1}^{k} e^{d(q, x_c)}N(y_j, y_c) | 247 | 247 | vote(y_i)=\sum_{c=1}^{k} e^{d(q, x_c)}N(y_j, y_c) | |
\label{eqV3} | 248 | 248 | \label{eqV3} | |
\end{equation} | 249 | 249 | \end{equation} | |
250 | 250 | |||
La fonction de distance peut être n'importe quelle mesure d'affinité entre deux objets, mais cette fonction doit répondre à quatre critères (équations \ref{eqCond}). | 251 | 251 | La fonction de distance peut être n'importe quelle mesure d'affinité entre deux objets, mais cette fonction doit répondre à quatre critères (équations \ref{eqCond}). | |
252 | 252 | |||
\begin{equation} | 253 | 253 | \begin{equation} | |
\begin{array}{l} | 254 | 254 | \begin{array}{l} | |
d(x,y) \ge 0\\ | 255 | 255 | d(x,y) \ge 0\\ | |
d(x,y) = 0, \; seulement \; si \; x=y\\ | 256 | 256 | d(x,y) = 0, \; seulement \; si \; x=y\\ | |
d(x,y)=d(y,x)\\ | 257 | 257 | d(x,y)=d(y,x)\\ | |
d(x,z) \ge d(x,y) + d(y,z)\\ | 258 | 258 | d(x,z) \ge d(x,y) + d(y,z)\\ | |
\end{array} | 259 | 259 | \end{array} | |
\label{eqCond} | 260 | 260 | \label{eqCond} | |
\end{equation} | 261 | 261 | \end{equation} | |
262 | 262 | |||
\subsubsection{K-Moyennes} | 263 | 263 | \subsubsection{K-Moyennes} | |
264 | 264 | |||
Selon \cite{9072123}, K-Moyennes est un algorithme d'apprentissage utilisé pour partitionner et grouper des données. Considérons $X = \{x_1, . . . , x_n\}$ un ensemble de vecteurs dans un espace Euclidien $\mathbb{R}^d$, et $A = \{a_1, . . . , a_c\}$ où $c$ est le nombre de groupes. Considérons également $z = [z_{ik} ]_{n \times c}$, où $z_{ik}$ est une variable binaire (i.e. $z_{ik} \in \{0, 1\}$) qui indique si une donnée $x_i$ appartient au k-ème groupe, $k = 1, · · · , c$. La fonction bijective k-moyenne est définie selon l'équation \ref{eqKM}. | 265 | 265 | Selon \cite{9072123}, K-Moyennes est un algorithme d'apprentissage utilisé pour partitionner et grouper des données. Considérons $X = \{x_1, . . . , x_n\}$ un ensemble de vecteurs dans un espace Euclidien $\mathbb{R}^d$, et $A = \{a_1, . . . , a_c\}$ où $c$ est le nombre de groupes. Considérons également $z = [z_{ik} ]_{n \times c}$, où $z_{ik}$ est une variable binaire (i.e. $z_{ik} \in \{0, 1\}$) qui indique si une donnée $x_i$ appartient au k-ème groupe, $k = 1, · · · , c$. La fonction bijective k-moyenne est définie selon l'équation \ref{eqKM}. | |
266 | 266 | |||
\begin{equation} | 267 | 267 | \begin{equation} | |
J (z, A) = \sum_{i=1}^n \sum_{k=1}^c z_{ik} \parallel x_i - a_k \parallel ^2 | 268 | 268 | J (z, A) = \sum_{i=1}^n \sum_{k=1}^c z_{ik} \parallel x_i - a_k \parallel ^2 | |
\label{eqKM} | 269 | 269 | \label{eqKM} |
main.log
View file @
4b1afa3
This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 18 JUL 2025 21:59 | 1 | 1 | This is pdfTeX, Version 3.141592653-2.6-1.40.25 (TeX Live 2023) (preloaded format=pdflatex 2023.5.31) 21 JUL 2025 16:18 | |
entering extended mode | 2 | 2 | entering extended mode | |
restricted \write18 enabled. | 3 | 3 | restricted \write18 enabled. | |
%&-line parsing enabled. | 4 | 4 | %&-line parsing enabled. | |
**main.tex | 5 | 5 | **main.tex | |
(./main.tex | 6 | 6 | (./main.tex | |
LaTeX2e <2022-11-01> patch level 1 | 7 | 7 | LaTeX2e <2022-11-01> patch level 1 | |
L3 programming layer <2023-05-22> (./spimufcphdthesis.cls | 8 | 8 | L3 programming layer <2023-05-22> (./spimufcphdthesis.cls | |
Document Class: spimufcphdthesis 2022/02/10 | 9 | 9 | Document Class: spimufcphdthesis 2022/02/10 | |
10 | 10 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-docum | 11 | 11 | (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-docum | |
ent.cls | 12 | 12 | ent.cls | |
Document Class: upmethodology-document 2022/10/04 | 13 | 13 | Document Class: upmethodology-document 2022/10/04 | |
(./upmethodology-p-common.sty | 14 | 14 | (./upmethodology-p-common.sty | |
Package: upmethodology-p-common 2015/04/24 | 15 | 15 | Package: upmethodology-p-common 2015/04/24 | |
16 | 16 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/ifthen.sty | 17 | 17 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/ifthen.sty | |
Package: ifthen 2022/04/13 v1.1d Standard LaTeX ifthen package (DPC) | 18 | 18 | Package: ifthen 2022/04/13 v1.1d Standard LaTeX ifthen package (DPC) | |
) | 19 | 19 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/xspace.sty | 20 | 20 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/xspace.sty | |
Package: xspace 2014/10/28 v1.13 Space after command names (DPC,MH) | 21 | 21 | Package: xspace 2014/10/28 v1.13 Space after command names (DPC,MH) | |
) | 22 | 22 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/xcolor/xcolor.sty | 23 | 23 | (/usr/local/texlive/2023/texmf-dist/tex/latex/xcolor/xcolor.sty | |
Package: xcolor 2022/06/12 v2.14 LaTeX color extensions (UK) | 24 | 24 | Package: xcolor 2022/06/12 v2.14 LaTeX color extensions (UK) | |
25 | 25 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/color.cfg | 26 | 26 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/color.cfg | |
File: color.cfg 2016/01/02 v1.6 sample color configuration | 27 | 27 | File: color.cfg 2016/01/02 v1.6 sample color configuration | |
) | 28 | 28 | ) | |
Package xcolor Info: Driver file: pdftex.def on input line 227. | 29 | 29 | Package xcolor Info: Driver file: pdftex.def on input line 227. | |
30 | 30 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-def/pdftex.def | 31 | 31 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-def/pdftex.def | |
File: pdftex.def 2022/09/22 v1.2b Graphics/color driver for pdftex | 32 | 32 | File: pdftex.def 2022/09/22 v1.2b Graphics/color driver for pdftex | |
) | 33 | 33 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/mathcolor.ltx) | 34 | 34 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/mathcolor.ltx) | |
Package xcolor Info: Model `cmy' substituted by `cmy0' on input line 1353. | 35 | 35 | Package xcolor Info: Model `cmy' substituted by `cmy0' on input line 1353. | |
Package xcolor Info: Model `hsb' substituted by `rgb' on input line 1357. | 36 | 36 | Package xcolor Info: Model `hsb' substituted by `rgb' on input line 1357. | |
Package xcolor Info: Model `RGB' extended on input line 1369. | 37 | 37 | Package xcolor Info: Model `RGB' extended on input line 1369. | |
Package xcolor Info: Model `HTML' substituted by `rgb' on input line 1371. | 38 | 38 | Package xcolor Info: Model `HTML' substituted by `rgb' on input line 1371. | |
Package xcolor Info: Model `Hsb' substituted by `hsb' on input line 1372. | 39 | 39 | Package xcolor Info: Model `Hsb' substituted by `hsb' on input line 1372. | |
Package xcolor Info: Model `tHsb' substituted by `hsb' on input line 1373. | 40 | 40 | Package xcolor Info: Model `tHsb' substituted by `hsb' on input line 1373. | |
Package xcolor Info: Model `HSB' substituted by `hsb' on input line 1374. | 41 | 41 | Package xcolor Info: Model `HSB' substituted by `hsb' on input line 1374. | |
Package xcolor Info: Model `Gray' substituted by `gray' on input line 1375. | 42 | 42 | Package xcolor Info: Model `Gray' substituted by `gray' on input line 1375. | |
Package xcolor Info: Model `wave' substituted by `hsb' on input line 1376. | 43 | 43 | Package xcolor Info: Model `wave' substituted by `hsb' on input line 1376. | |
) | 44 | 44 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifpdf.sty | 45 | 45 | (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifpdf.sty | |
Package: ifpdf 2019/10/25 v3.4 ifpdf legacy package. Use iftex instead. | 46 | 46 | Package: ifpdf 2019/10/25 v3.4 ifpdf legacy package. Use iftex instead. | |
47 | 47 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/iftex.sty | 48 | 48 | (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/iftex.sty | |
Package: iftex 2022/02/03 v1.0f TeX engine tests | 49 | 49 | Package: iftex 2022/02/03 v1.0f TeX engine tests | |
)) | 50 | 50 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/UPMVERSION.def)) | 51 | 51 | (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/UPMVERSION.def)) | |
*********** UPMETHODOLOGY BOOK CLASS (WITH PART AND CHAPTER) | 52 | 52 | *********** UPMETHODOLOGY BOOK CLASS (WITH PART AND CHAPTER) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/book.cls | 53 | 53 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/book.cls | |
Document Class: book 2022/07/02 v1.4n Standard LaTeX document class | 54 | 54 | Document Class: book 2022/07/02 v1.4n Standard LaTeX document class | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/bk11.clo | 55 | 55 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/bk11.clo | |
File: bk11.clo 2022/07/02 v1.4n Standard LaTeX file (size option) | 56 | 56 | File: bk11.clo 2022/07/02 v1.4n Standard LaTeX file (size option) | |
) | 57 | 57 | ) | |
\c@part=\count185 | 58 | 58 | \c@part=\count185 | |
\c@chapter=\count186 | 59 | 59 | \c@chapter=\count186 | |
\c@section=\count187 | 60 | 60 | \c@section=\count187 | |
\c@subsection=\count188 | 61 | 61 | \c@subsection=\count188 | |
\c@subsubsection=\count189 | 62 | 62 | \c@subsubsection=\count189 | |
\c@paragraph=\count190 | 63 | 63 | \c@paragraph=\count190 | |
\c@subparagraph=\count191 | 64 | 64 | \c@subparagraph=\count191 | |
\c@figure=\count192 | 65 | 65 | \c@figure=\count192 | |
\c@table=\count193 | 66 | 66 | \c@table=\count193 | |
\abovecaptionskip=\skip48 | 67 | 67 | \abovecaptionskip=\skip48 | |
\belowcaptionskip=\skip49 | 68 | 68 | \belowcaptionskip=\skip49 | |
\bibindent=\dimen140 | 69 | 69 | \bibindent=\dimen140 | |
) | 70 | 70 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/a4wide/a4wide.sty | 71 | 71 | (/usr/local/texlive/2023/texmf-dist/tex/latex/a4wide/a4wide.sty | |
Package: a4wide 1994/08/30 | 72 | 72 | Package: a4wide 1994/08/30 | |
73 | 73 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/ntgclass/a4.sty | 74 | 74 | (/usr/local/texlive/2023/texmf-dist/tex/latex/ntgclass/a4.sty | |
Package: a4 2023/01/10 v1.2g A4 based page layout | 75 | 75 | Package: a4 2023/01/10 v1.2g A4 based page layout | |
)) | 76 | 76 | )) | |
(./upmethodology-document.sty | 77 | 77 | (./upmethodology-document.sty | |
Package: upmethodology-document 2015/04/24 | 78 | 78 | Package: upmethodology-document 2015/04/24 | |
79 | 79 | |||
**** upmethodology-document is using French language **** | 80 | 80 | **** upmethodology-document is using French language **** | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/babel.sty | 81 | 81 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/babel.sty | |
Package: babel 2023/05/11 v3.89 The Babel package | 82 | 82 | Package: babel 2023/05/11 v3.89 The Babel package | |
\babel@savecnt=\count194 | 83 | 83 | \babel@savecnt=\count194 | |
\U@D=\dimen141 | 84 | 84 | \U@D=\dimen141 | |
\l@unhyphenated=\language87 | 85 | 85 | \l@unhyphenated=\language87 | |
86 | 86 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/txtbabel.def) | 87 | 87 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/txtbabel.def) | |
\bbl@readstream=\read2 | 88 | 88 | \bbl@readstream=\read2 | |
\bbl@dirlevel=\count195 | 89 | 89 | \bbl@dirlevel=\count195 | |
90 | 90 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf | 91 | 91 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf | |
Language: french 2023/03/08 v3.5q French support from the babel system | 92 | 92 | Language: french 2023/03/08 v3.5q French support from the babel system | |
Package babel Info: Hyphen rules for 'acadian' set to \l@french | 93 | 93 | Package babel Info: Hyphen rules for 'acadian' set to \l@french | |
(babel) (\language29). Reported on input line 91. | 94 | 94 | (babel) (\language29). Reported on input line 91. | |
Package babel Info: Hyphen rules for 'canadien' set to \l@french | 95 | 95 | Package babel Info: Hyphen rules for 'canadien' set to \l@french | |
(babel) (\language29). Reported on input line 92. | 96 | 96 | (babel) (\language29). Reported on input line 92. | |
\FB@nonchar=\count196 | 97 | 97 | \FB@nonchar=\count196 | |
Package babel Info: Making : an active character on input line 395. | 98 | 98 | Package babel Info: Making : an active character on input line 395. | |
Package babel Info: Making ; an active character on input line 396. | 99 | 99 | Package babel Info: Making ; an active character on input line 396. | |
Package babel Info: Making ! an active character on input line 397. | 100 | 100 | Package babel Info: Making ! an active character on input line 397. | |
Package babel Info: Making ? an active character on input line 398. | 101 | 101 | Package babel Info: Making ? an active character on input line 398. | |
\FBguill@level=\count197 | 102 | 102 | \FBguill@level=\count197 | |
\FBold@everypar=\toks16 | 103 | 103 | \FBold@everypar=\toks16 | |
\FB@Mht=\dimen142 | 104 | 104 | \FB@Mht=\dimen142 | |
\mc@charclass=\count198 | 105 | 105 | \mc@charclass=\count198 | |
\mc@charfam=\count199 | 106 | 106 | \mc@charfam=\count199 | |
\mc@charslot=\count266 | 107 | 107 | \mc@charslot=\count266 | |
\std@mcc=\count267 | 108 | 108 | \std@mcc=\count267 | |
\dec@mcc=\count268 | 109 | 109 | \dec@mcc=\count268 | |
\FB@parskip=\dimen143 | 110 | 110 | \FB@parskip=\dimen143 | |
\listindentFB=\dimen144 | 111 | 111 | \listindentFB=\dimen144 | |
\descindentFB=\dimen145 | 112 | 112 | \descindentFB=\dimen145 | |
\labelindentFB=\dimen146 | 113 | 113 | \labelindentFB=\dimen146 | |
\labelwidthFB=\dimen147 | 114 | 114 | \labelwidthFB=\dimen147 | |
\leftmarginFB=\dimen148 | 115 | 115 | \leftmarginFB=\dimen148 | |
\parindentFFN=\dimen149 | 116 | 116 | \parindentFFN=\dimen149 | |
\FBfnindent=\dimen150 | 117 | 117 | \FBfnindent=\dimen150 | |
) | 118 | 118 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/frenchb.ldf | 119 | 119 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/frenchb.ldf | |
Language: frenchb 2023/03/08 v3.5q French support from the babel system | 120 | 120 | Language: frenchb 2023/03/08 v3.5q French support from the babel system | |
121 | 121 | |||
122 | 122 | |||
Package babel-french Warning: Option `frenchb' for Babel is *deprecated*, | 123 | 123 | Package babel-french Warning: Option `frenchb' for Babel is *deprecated*, | |
(babel-french) it might be removed sooner or later. Please | 124 | 124 | (babel-french) it might be removed sooner or later. Please | |
(babel-french) use `french' instead; reported on input line 35. | 125 | 125 | (babel-french) use `french' instead; reported on input line 35. | |
126 | 126 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf | 127 | 127 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel-french/french.ldf | |
Language: french 2023/03/08 v3.5q French support from the babel system | 128 | 128 | Language: french 2023/03/08 v3.5q French support from the babel system | |
))) | 129 | 129 | ))) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/babel/locale/fr/babel-french.te | 130 | 130 | (/usr/local/texlive/2023/texmf-dist/tex/generic/babel/locale/fr/babel-french.te | |
x | 131 | 131 | x | |
Package babel Info: Importing font and identification data for french | 132 | 132 | Package babel Info: Importing font and identification data for french | |
(babel) from babel-fr.ini. Reported on input line 11. | 133 | 133 | (babel) from babel-fr.ini. Reported on input line 11. | |
) (/usr/local/texlive/2023/texmf-dist/tex/latex/carlisle/scalefnt.sty) | 134 | 134 | ) (/usr/local/texlive/2023/texmf-dist/tex/latex/carlisle/scalefnt.sty) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/keyval.sty | 135 | 135 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/keyval.sty | |
Package: keyval 2022/05/29 v1.15 key=value parser (DPC) | 136 | 136 | Package: keyval 2022/05/29 v1.15 key=value parser (DPC) | |
\KV@toks@=\toks17 | 137 | 137 | \KV@toks@=\toks17 | |
) | 138 | 138 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/vmargin/vmargin.sty | 139 | 139 | (/usr/local/texlive/2023/texmf-dist/tex/latex/vmargin/vmargin.sty | |
Package: vmargin 2004/07/15 V2.5 set document margins (VK) | 140 | 140 | Package: vmargin 2004/07/15 V2.5 set document margins (VK) | |
141 | 141 | |||
Package: vmargin 2004/07/15 V2.5 set document margins (VK) | 142 | 142 | Package: vmargin 2004/07/15 V2.5 set document margins (VK) | |
\PaperWidth=\dimen151 | 143 | 143 | \PaperWidth=\dimen151 | |
\PaperHeight=\dimen152 | 144 | 144 | \PaperHeight=\dimen152 | |
) (./upmethodology-extension.sty | 145 | 145 | ) (./upmethodology-extension.sty | |
Package: upmethodology-extension 2012/09/21 | 146 | 146 | Package: upmethodology-extension 2012/09/21 | |
\upmext@tmp@putx=\skip50 | 147 | 147 | \upmext@tmp@putx=\skip50 | |
148 | 148 | |||
*** define extension value frontillustrationsize **** | 149 | 149 | *** define extension value frontillustrationsize **** | |
*** define extension value watermarksize **** | 150 | 150 | *** define extension value watermarksize **** | |
*** undefine extension value publisher **** | 151 | 151 | *** undefine extension value publisher **** | |
*** undefine extension value copyrighter **** | 152 | 152 | *** undefine extension value copyrighter **** | |
*** undefine extension value printedin ****) | 153 | 153 | *** undefine extension value printedin ****) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-fmt.s | 154 | 154 | (/usr/local/texlive/2023/texmf-dist/tex/latex/upmethodology/upmethodology-fmt.s | |
ty | 155 | 155 | ty | |
Package: upmethodology-fmt 2022/10/04 | 156 | 156 | Package: upmethodology-fmt 2022/10/04 | |
**** upmethodology-fmt is using French language **** | 157 | 157 | **** upmethodology-fmt is using French language **** | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphicx.sty | 158 | 158 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphicx.sty | |
Package: graphicx 2021/09/16 v1.2d Enhanced LaTeX Graphics (DPC,SPQR) | 159 | 159 | Package: graphicx 2021/09/16 v1.2d Enhanced LaTeX Graphics (DPC,SPQR) | |
160 | 160 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphics.sty | 161 | 161 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/graphics.sty | |
Package: graphics 2022/03/10 v1.4e Standard LaTeX Graphics (DPC,SPQR) | 162 | 162 | Package: graphics 2022/03/10 v1.4e Standard LaTeX Graphics (DPC,SPQR) | |
163 | 163 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/trig.sty | 164 | 164 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics/trig.sty | |
Package: trig 2021/08/11 v1.11 sin cos tan (DPC) | 165 | 165 | Package: trig 2021/08/11 v1.11 sin cos tan (DPC) | |
) | 166 | 166 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/graphics.cfg | 167 | 167 | (/usr/local/texlive/2023/texmf-dist/tex/latex/graphics-cfg/graphics.cfg | |
File: graphics.cfg 2016/06/04 v1.11 sample graphics configuration | 168 | 168 | File: graphics.cfg 2016/06/04 v1.11 sample graphics configuration | |
) | 169 | 169 | ) | |
Package graphics Info: Driver file: pdftex.def on input line 107. | 170 | 170 | Package graphics Info: Driver file: pdftex.def on input line 107. | |
) | 171 | 171 | ) | |
\Gin@req@height=\dimen153 | 172 | 172 | \Gin@req@height=\dimen153 | |
\Gin@req@width=\dimen154 | 173 | 173 | \Gin@req@width=\dimen154 | |
) | 174 | 174 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/subcaption.sty | 175 | 175 | (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/subcaption.sty | |
Package: subcaption 2023/02/19 v1.6 Sub-captions (AR) | 176 | 176 | Package: subcaption 2023/02/19 v1.6 Sub-captions (AR) | |
177 | 177 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption.sty | 178 | 178 | (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption.sty | |
Package: caption 2023/03/12 v3.6j Customizing captions (AR) | 179 | 179 | Package: caption 2023/03/12 v3.6j Customizing captions (AR) | |
180 | 180 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption3.sty | 181 | 181 | (/usr/local/texlive/2023/texmf-dist/tex/latex/caption/caption3.sty | |
Package: caption3 2023/03/12 v2.4 caption3 kernel (AR) | 182 | 182 | Package: caption3 2023/03/12 v2.4 caption3 kernel (AR) | |
\caption@tempdima=\dimen155 | 183 | 183 | \caption@tempdima=\dimen155 | |
\captionmargin=\dimen156 | 184 | 184 | \captionmargin=\dimen156 | |
\caption@leftmargin=\dimen157 | 185 | 185 | \caption@leftmargin=\dimen157 | |
\caption@rightmargin=\dimen158 | 186 | 186 | \caption@rightmargin=\dimen158 | |
\caption@width=\dimen159 | 187 | 187 | \caption@width=\dimen159 | |
\caption@indent=\dimen160 | 188 | 188 | \caption@indent=\dimen160 | |
\caption@parindent=\dimen161 | 189 | 189 | \caption@parindent=\dimen161 | |
\caption@hangindent=\dimen162 | 190 | 190 | \caption@hangindent=\dimen162 | |
Package caption Info: Standard document class detected. | 191 | 191 | Package caption Info: Standard document class detected. | |
Package caption Info: french babel package is loaded. | 192 | 192 | Package caption Info: french babel package is loaded. | |
) | 193 | 193 | ) | |
\c@caption@flags=\count269 | 194 | 194 | \c@caption@flags=\count269 | |
\c@continuedfloat=\count270 | 195 | 195 | \c@continuedfloat=\count270 | |
) | 196 | 196 | ) | |
Package caption Info: New subtype `subfigure' on input line 239. | 197 | 197 | Package caption Info: New subtype `subfigure' on input line 239. | |
\c@subfigure=\count271 | 198 | 198 | \c@subfigure=\count271 | |
Package caption Info: New subtype `subtable' on input line 239. | 199 | 199 | Package caption Info: New subtype `subtable' on input line 239. | |
\c@subtable=\count272 | 200 | 200 | \c@subtable=\count272 | |
) | 201 | 201 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/tabularx.sty | 202 | 202 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/tabularx.sty | |
Package: tabularx 2020/01/15 v2.11c `tabularx' package (DPC) | 203 | 203 | Package: tabularx 2020/01/15 v2.11c `tabularx' package (DPC) | |
204 | 204 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/array.sty | 205 | 205 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/array.sty | |
Package: array 2022/09/04 v2.5g Tabular extension package (FMi) | 206 | 206 | Package: array 2022/09/04 v2.5g Tabular extension package (FMi) | |
\col@sep=\dimen163 | 207 | 207 | \col@sep=\dimen163 | |
\ar@mcellbox=\box51 | 208 | 208 | \ar@mcellbox=\box51 | |
\extrarowheight=\dimen164 | 209 | 209 | \extrarowheight=\dimen164 | |
\NC@list=\toks18 | 210 | 210 | \NC@list=\toks18 | |
\extratabsurround=\skip51 | 211 | 211 | \extratabsurround=\skip51 | |
\backup@length=\skip52 | 212 | 212 | \backup@length=\skip52 | |
\ar@cellbox=\box52 | 213 | 213 | \ar@cellbox=\box52 | |
) | 214 | 214 | ) | |
\TX@col@width=\dimen165 | 215 | 215 | \TX@col@width=\dimen165 | |
\TX@old@table=\dimen166 | 216 | 216 | \TX@old@table=\dimen166 | |
\TX@old@col=\dimen167 | 217 | 217 | \TX@old@col=\dimen167 | |
\TX@target=\dimen168 | 218 | 218 | \TX@target=\dimen168 | |
\TX@delta=\dimen169 | 219 | 219 | \TX@delta=\dimen169 | |
\TX@cols=\count273 | 220 | 220 | \TX@cols=\count273 | |
\TX@ftn=\toks19 | 221 | 221 | \TX@ftn=\toks19 | |
) | 222 | 222 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/multicol.sty | 223 | 223 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/multicol.sty | |
Package: multicol 2021/11/30 v1.9d multicolumn formatting (FMi) | 224 | 224 | Package: multicol 2021/11/30 v1.9d multicolumn formatting (FMi) | |
\c@tracingmulticols=\count274 | 225 | 225 | \c@tracingmulticols=\count274 | |
\mult@box=\box53 | 226 | 226 | \mult@box=\box53 | |
\multicol@leftmargin=\dimen170 | 227 | 227 | \multicol@leftmargin=\dimen170 | |
\c@unbalance=\count275 | 228 | 228 | \c@unbalance=\count275 | |
\c@collectmore=\count276 | 229 | 229 | \c@collectmore=\count276 | |
\doublecol@number=\count277 | 230 | 230 | \doublecol@number=\count277 | |
\multicoltolerance=\count278 | 231 | 231 | \multicoltolerance=\count278 | |
\multicolpretolerance=\count279 | 232 | 232 | \multicolpretolerance=\count279 | |
\full@width=\dimen171 | 233 | 233 | \full@width=\dimen171 | |
\page@free=\dimen172 | 234 | 234 | \page@free=\dimen172 | |
\premulticols=\dimen173 | 235 | 235 | \premulticols=\dimen173 | |
\postmulticols=\dimen174 | 236 | 236 | \postmulticols=\dimen174 | |
\multicolsep=\skip53 | 237 | 237 | \multicolsep=\skip53 | |
\multicolbaselineskip=\skip54 | 238 | 238 | \multicolbaselineskip=\skip54 | |
\partial@page=\box54 | 239 | 239 | \partial@page=\box54 | |
\last@line=\box55 | 240 | 240 | \last@line=\box55 | |
\maxbalancingoverflow=\dimen175 | 241 | 241 | \maxbalancingoverflow=\dimen175 | |
\mult@rightbox=\box56 | 242 | 242 | \mult@rightbox=\box56 | |
\mult@grightbox=\box57 | 243 | 243 | \mult@grightbox=\box57 | |
\mult@firstbox=\box58 | 244 | 244 | \mult@firstbox=\box58 | |
\mult@gfirstbox=\box59 | 245 | 245 | \mult@gfirstbox=\box59 | |
\@tempa=\box60 | 246 | 246 | \@tempa=\box60 | |
\@tempa=\box61 | 247 | 247 | \@tempa=\box61 | |
\@tempa=\box62 | 248 | 248 | \@tempa=\box62 | |
\@tempa=\box63 | 249 | 249 | \@tempa=\box63 | |
\@tempa=\box64 | 250 | 250 | \@tempa=\box64 | |
\@tempa=\box65 | 251 | 251 | \@tempa=\box65 | |
\@tempa=\box66 | 252 | 252 | \@tempa=\box66 | |
\@tempa=\box67 | 253 | 253 | \@tempa=\box67 | |
\@tempa=\box68 | 254 | 254 | \@tempa=\box68 | |
\@tempa=\box69 | 255 | 255 | \@tempa=\box69 | |
\@tempa=\box70 | 256 | 256 | \@tempa=\box70 | |
\@tempa=\box71 | 257 | 257 | \@tempa=\box71 | |
\@tempa=\box72 | 258 | 258 | \@tempa=\box72 | |
\@tempa=\box73 | 259 | 259 | \@tempa=\box73 | |
\@tempa=\box74 | 260 | 260 | \@tempa=\box74 | |
\@tempa=\box75 | 261 | 261 | \@tempa=\box75 | |
\@tempa=\box76 | 262 | 262 | \@tempa=\box76 | |
\@tempa=\box77 | 263 | 263 | \@tempa=\box77 | |
\@tempa=\box78 | 264 | 264 | \@tempa=\box78 | |
\@tempa=\box79 | 265 | 265 | \@tempa=\box79 | |
\@tempa=\box80 | 266 | 266 | \@tempa=\box80 | |
\@tempa=\box81 | 267 | 267 | \@tempa=\box81 | |
\@tempa=\box82 | 268 | 268 | \@tempa=\box82 | |
\@tempa=\box83 | 269 | 269 | \@tempa=\box83 | |
\@tempa=\box84 | 270 | 270 | \@tempa=\box84 | |
\@tempa=\box85 | 271 | 271 | \@tempa=\box85 | |
\@tempa=\box86 | 272 | 272 | \@tempa=\box86 | |
\@tempa=\box87 | 273 | 273 | \@tempa=\box87 | |
\@tempa=\box88 | 274 | 274 | \@tempa=\box88 | |
\@tempa=\box89 | 275 | 275 | \@tempa=\box89 | |
\@tempa=\box90 | 276 | 276 | \@tempa=\box90 | |
\@tempa=\box91 | 277 | 277 | \@tempa=\box91 | |
\@tempa=\box92 | 278 | 278 | \@tempa=\box92 | |
\@tempa=\box93 | 279 | 279 | \@tempa=\box93 | |
\@tempa=\box94 | 280 | 280 | \@tempa=\box94 | |
\@tempa=\box95 | 281 | 281 | \@tempa=\box95 | |
\c@minrows=\count280 | 282 | 282 | \c@minrows=\count280 | |
\c@columnbadness=\count281 | 283 | 283 | \c@columnbadness=\count281 | |
\c@finalcolumnbadness=\count282 | 284 | 284 | \c@finalcolumnbadness=\count282 | |
\last@try=\dimen176 | 285 | 285 | \last@try=\dimen176 | |
\multicolovershoot=\dimen177 | 286 | 286 | \multicolovershoot=\dimen177 | |
\multicolundershoot=\dimen178 | 287 | 287 | \multicolundershoot=\dimen178 | |
\mult@nat@firstbox=\box96 | 288 | 288 | \mult@nat@firstbox=\box96 | |
\colbreak@box=\box97 | 289 | 289 | \colbreak@box=\box97 | |
\mc@col@check@num=\count283 | 290 | 290 | \mc@col@check@num=\count283 | |
) | 291 | 291 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/colortbl/colortbl.sty | 292 | 292 | (/usr/local/texlive/2023/texmf-dist/tex/latex/colortbl/colortbl.sty | |
Package: colortbl 2022/06/20 v1.0f Color table columns (DPC) | 293 | 293 | Package: colortbl 2022/06/20 v1.0f Color table columns (DPC) | |
\everycr=\toks20 | 294 | 294 | \everycr=\toks20 | |
\minrowclearance=\skip55 | 295 | 295 | \minrowclearance=\skip55 | |
\rownum=\count284 | 296 | 296 | \rownum=\count284 | |
) | 297 | 297 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/picinpar/picinpar.sty | 298 | 298 | (/usr/local/texlive/2023/texmf-dist/tex/latex/picinpar/picinpar.sty | |
Pictures in Paragraphs. Version 1.3, November 22, 2022 | 299 | 299 | Pictures in Paragraphs. Version 1.3, November 22, 2022 | |
\br=\count285 | 300 | 300 | \br=\count285 | |
\bl=\count286 | 301 | 301 | \bl=\count286 | |
\na=\count287 | 302 | 302 | \na=\count287 | |
\nb=\count288 | 303 | 303 | \nb=\count288 | |
\tcdsav=\count289 | 304 | 304 | \tcdsav=\count289 | |
\tcl=\count290 | 305 | 305 | \tcl=\count290 | |
\tcd=\count291 | 306 | 306 | \tcd=\count291 | |
\tcn=\count292 | 307 | 307 | \tcn=\count292 | |
\cumtcl=\count293 | 308 | 308 | \cumtcl=\count293 | |
\cumpartcl=\count294 | 309 | 309 | \cumpartcl=\count294 | |
\lftside=\dimen179 | 310 | 310 | \lftside=\dimen179 | |
\rtside=\dimen180 | 311 | 311 | \rtside=\dimen180 | |
\hpic=\dimen181 | 312 | 312 | \hpic=\dimen181 | |
\vpic=\dimen182 | 313 | 313 | \vpic=\dimen182 | |
\strutilg=\dimen183 | 314 | 314 | \strutilg=\dimen183 | |
\picwd=\dimen184 | 315 | 315 | \picwd=\dimen184 | |
\topheight=\dimen185 | 316 | 316 | \topheight=\dimen185 | |
\ilg=\dimen186 | 317 | 317 | \ilg=\dimen186 | |
\lpic=\dimen187 | 318 | 318 | \lpic=\dimen187 | |
\lwindowsep=\dimen188 | 319 | 319 | \lwindowsep=\dimen188 | |
\rwindowsep=\dimen189 | 320 | 320 | \rwindowsep=\dimen189 | |
\cumpar=\dimen190 | 321 | 321 | \cumpar=\dimen190 | |
\twa=\toks21 | 322 | 322 | \twa=\toks21 | |
\la=\toks22 | 323 | 323 | \la=\toks22 | |
\ra=\toks23 | 324 | 324 | \ra=\toks23 | |
\ha=\toks24 | 325 | 325 | \ha=\toks24 | |
\pictoc=\toks25 | 326 | 326 | \pictoc=\toks25 | |
\rawtext=\box98 | 327 | 327 | \rawtext=\box98 | |
\holder=\box99 | 328 | 328 | \holder=\box99 | |
\windowbox=\box100 | 329 | 329 | \windowbox=\box100 | |
\wartext=\box101 | 330 | 330 | \wartext=\box101 | |
\finaltext=\box102 | 331 | 331 | \finaltext=\box102 | |
\aslice=\box103 | 332 | 332 | \aslice=\box103 | |
\bslice=\box104 | 333 | 333 | \bslice=\box104 | |
\wbox=\box105 | 334 | 334 | \wbox=\box105 | |
\wstrutbox=\box106 | 335 | 335 | \wstrutbox=\box106 | |
\picbox=\box107 | 336 | 336 | \picbox=\box107 | |
\waslice=\box108 | 337 | 337 | \waslice=\box108 | |
\wbslice=\box109 | 338 | 338 | \wbslice=\box109 | |
\fslice=\box110 | 339 | 339 | \fslice=\box110 | |
) (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsmath.sty | 340 | 340 | ) (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsmath.sty | |
Package: amsmath 2022/04/08 v2.17n AMS math features | 341 | 341 | Package: amsmath 2022/04/08 v2.17n AMS math features | |
\@mathmargin=\skip56 | 342 | 342 | \@mathmargin=\skip56 | |
343 | 343 | |||
For additional information on amsmath, use the `?' option. | 344 | 344 | For additional information on amsmath, use the `?' option. | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amstext.sty | 345 | 345 | (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amstext.sty | |
Package: amstext 2021/08/26 v2.01 AMS text | 346 | 346 | Package: amstext 2021/08/26 v2.01 AMS text | |
347 | 347 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsgen.sty | 348 | 348 | (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsgen.sty | |
File: amsgen.sty 1999/11/30 v2.0 generic functions | 349 | 349 | File: amsgen.sty 1999/11/30 v2.0 generic functions | |
\@emptytoks=\toks26 | 350 | 350 | \@emptytoks=\toks26 | |
\ex@=\dimen191 | 351 | 351 | \ex@=\dimen191 | |
)) | 352 | 352 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsbsy.sty | 353 | 353 | (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsbsy.sty | |
Package: amsbsy 1999/11/29 v1.2d Bold Symbols | 354 | 354 | Package: amsbsy 1999/11/29 v1.2d Bold Symbols | |
\pmbraise@=\dimen192 | 355 | 355 | \pmbraise@=\dimen192 | |
) | 356 | 356 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsopn.sty | 357 | 357 | (/usr/local/texlive/2023/texmf-dist/tex/latex/amsmath/amsopn.sty | |
Package: amsopn 2022/04/08 v2.04 operator names | 358 | 358 | Package: amsopn 2022/04/08 v2.04 operator names | |
) | 359 | 359 | ) | |
\inf@bad=\count295 | 360 | 360 | \inf@bad=\count295 | |
LaTeX Info: Redefining \frac on input line 234. | 361 | 361 | LaTeX Info: Redefining \frac on input line 234. | |
\uproot@=\count296 | 362 | 362 | \uproot@=\count296 | |
\leftroot@=\count297 | 363 | 363 | \leftroot@=\count297 | |
LaTeX Info: Redefining \overline on input line 399. | 364 | 364 | LaTeX Info: Redefining \overline on input line 399. | |
LaTeX Info: Redefining \colon on input line 410. | 365 | 365 | LaTeX Info: Redefining \colon on input line 410. | |
\classnum@=\count298 | 366 | 366 | \classnum@=\count298 | |
\DOTSCASE@=\count299 | 367 | 367 | \DOTSCASE@=\count299 | |
LaTeX Info: Redefining \ldots on input line 496. | 368 | 368 | LaTeX Info: Redefining \ldots on input line 496. | |
LaTeX Info: Redefining \dots on input line 499. | 369 | 369 | LaTeX Info: Redefining \dots on input line 499. | |
LaTeX Info: Redefining \cdots on input line 620. | 370 | 370 | LaTeX Info: Redefining \cdots on input line 620. | |
\Mathstrutbox@=\box111 | 371 | 371 | \Mathstrutbox@=\box111 | |
\strutbox@=\box112 | 372 | 372 | \strutbox@=\box112 | |
LaTeX Info: Redefining \big on input line 722. | 373 | 373 | LaTeX Info: Redefining \big on input line 722. | |
LaTeX Info: Redefining \Big on input line 723. | 374 | 374 | LaTeX Info: Redefining \Big on input line 723. | |
LaTeX Info: Redefining \bigg on input line 724. | 375 | 375 | LaTeX Info: Redefining \bigg on input line 724. | |
LaTeX Info: Redefining \Bigg on input line 725. | 376 | 376 | LaTeX Info: Redefining \Bigg on input line 725. | |
\big@size=\dimen193 | 377 | 377 | \big@size=\dimen193 | |
LaTeX Font Info: Redeclaring font encoding OML on input line 743. | 378 | 378 | LaTeX Font Info: Redeclaring font encoding OML on input line 743. | |
LaTeX Font Info: Redeclaring font encoding OMS on input line 744. | 379 | 379 | LaTeX Font Info: Redeclaring font encoding OMS on input line 744. | |
\macc@depth=\count300 | 380 | 380 | \macc@depth=\count300 | |
LaTeX Info: Redefining \bmod on input line 905. | 381 | 381 | LaTeX Info: Redefining \bmod on input line 905. | |
LaTeX Info: Redefining \pmod on input line 910. | 382 | 382 | LaTeX Info: Redefining \pmod on input line 910. | |
LaTeX Info: Redefining \smash on input line 940. | 383 | 383 | LaTeX Info: Redefining \smash on input line 940. | |
LaTeX Info: Redefining \relbar on input line 970. | 384 | 384 | LaTeX Info: Redefining \relbar on input line 970. | |
LaTeX Info: Redefining \Relbar on input line 971. | 385 | 385 | LaTeX Info: Redefining \Relbar on input line 971. | |
\c@MaxMatrixCols=\count301 | 386 | 386 | \c@MaxMatrixCols=\count301 | |
\dotsspace@=\muskip16 | 387 | 387 | \dotsspace@=\muskip16 | |
\c@parentequation=\count302 | 388 | 388 | \c@parentequation=\count302 | |
\dspbrk@lvl=\count303 | 389 | 389 | \dspbrk@lvl=\count303 | |
\tag@help=\toks27 | 390 | 390 | \tag@help=\toks27 | |
\row@=\count304 | 391 | 391 | \row@=\count304 | |
\column@=\count305 | 392 | 392 | \column@=\count305 | |
\maxfields@=\count306 | 393 | 393 | \maxfields@=\count306 | |
\andhelp@=\toks28 | 394 | 394 | \andhelp@=\toks28 | |
\eqnshift@=\dimen194 | 395 | 395 | \eqnshift@=\dimen194 | |
\alignsep@=\dimen195 | 396 | 396 | \alignsep@=\dimen195 | |
\tagshift@=\dimen196 | 397 | 397 | \tagshift@=\dimen196 | |
\tagwidth@=\dimen197 | 398 | 398 | \tagwidth@=\dimen197 | |
\totwidth@=\dimen198 | 399 | 399 | \totwidth@=\dimen198 | |
\lineht@=\dimen199 | 400 | 400 | \lineht@=\dimen199 | |
\@envbody=\toks29 | 401 | 401 | \@envbody=\toks29 | |
\multlinegap=\skip57 | 402 | 402 | \multlinegap=\skip57 | |
\multlinetaggap=\skip58 | 403 | 403 | \multlinetaggap=\skip58 | |
\mathdisplay@stack=\toks30 | 404 | 404 | \mathdisplay@stack=\toks30 | |
LaTeX Info: Redefining \[ on input line 2953. | 405 | 405 | LaTeX Info: Redefining \[ on input line 2953. | |
LaTeX Info: Redefining \] on input line 2954. | 406 | 406 | LaTeX Info: Redefining \] on input line 2954. | |
) | 407 | 407 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/amscls/amsthm.sty | 408 | 408 | (/usr/local/texlive/2023/texmf-dist/tex/latex/amscls/amsthm.sty | |
Package: amsthm 2020/05/29 v2.20.6 | 409 | 409 | Package: amsthm 2020/05/29 v2.20.6 | |
\thm@style=\toks31 | 410 | 410 | \thm@style=\toks31 | |
\thm@bodyfont=\toks32 | 411 | 411 | \thm@bodyfont=\toks32 | |
\thm@headfont=\toks33 | 412 | 412 | \thm@headfont=\toks33 | |
\thm@notefont=\toks34 | 413 | 413 | \thm@notefont=\toks34 | |
\thm@headpunct=\toks35 | 414 | 414 | \thm@headpunct=\toks35 | |
\thm@preskip=\skip59 | 415 | 415 | \thm@preskip=\skip59 | |
\thm@postskip=\skip60 | 416 | 416 | \thm@postskip=\skip60 | |
\thm@headsep=\skip61 | 417 | 417 | \thm@headsep=\skip61 | |
\dth@everypar=\toks36 | 418 | 418 | \dth@everypar=\toks36 | |
) | 419 | 419 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thmtools.sty | 420 | 420 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thmtools.sty | |
Package: thmtools 2023/05/04 v0.76 | 421 | 421 | Package: thmtools 2023/05/04 v0.76 | |
\thmt@toks=\toks37 | 422 | 422 | \thmt@toks=\toks37 | |
\c@thmt@dummyctr=\count307 | 423 | 423 | \c@thmt@dummyctr=\count307 | |
424 | 424 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-patch.sty | 425 | 425 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-patch.sty | |
Package: thm-patch 2023/05/04 v0.76 | 426 | 426 | Package: thm-patch 2023/05/04 v0.76 | |
427 | 427 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/parseargs.sty | 428 | 428 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/parseargs.sty | |
Package: parseargs 2023/05/04 v0.76 | 429 | 429 | Package: parseargs 2023/05/04 v0.76 | |
\@parsespec=\toks38 | 430 | 430 | \@parsespec=\toks38 | |
)) | 431 | 431 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-kv.sty | 432 | 432 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-kv.sty | |
Package: thm-kv 2023/05/04 v0.76 | 433 | 433 | Package: thm-kv 2023/05/04 v0.76 | |
Package thm-kv Info: Theorem names will be uppercased on input line 42. | 434 | 434 | Package thm-kv Info: Theorem names will be uppercased on input line 42. | |
435 | 435 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/kvsetkeys/kvsetkeys.sty | 436 | 436 | (/usr/local/texlive/2023/texmf-dist/tex/latex/kvsetkeys/kvsetkeys.sty | |
Package: kvsetkeys 2022-10-05 v1.19 Key value parser (HO) | 437 | 437 | Package: kvsetkeys 2022-10-05 v1.19 Key value parser (HO) | |
) | 438 | 438 | ) | |
Package thm-kv Info: kvsetkeys patch (v1.16 or later) on input line 158. | 439 | 439 | Package thm-kv Info: kvsetkeys patch (v1.16 or later) on input line 158. | |
) | 440 | 440 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-autoref.sty | 441 | 441 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-autoref.sty | |
Package: thm-autoref 2023/05/04 v0.76 | 442 | 442 | Package: thm-autoref 2023/05/04 v0.76 | |
443 | 443 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/aliasctr.sty | 444 | 444 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/aliasctr.sty | |
Package: aliasctr 2023/05/04 v0.76 | 445 | 445 | Package: aliasctr 2023/05/04 v0.76 | |
)) | 446 | 446 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-listof.sty | 447 | 447 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-listof.sty | |
Package: thm-listof 2023/05/04 v0.76 | 448 | 448 | Package: thm-listof 2023/05/04 v0.76 | |
) | 449 | 449 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-restate.sty | 450 | 450 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-restate.sty | |
Package: thm-restate 2023/05/04 v0.76 | 451 | 451 | Package: thm-restate 2023/05/04 v0.76 | |
) | 452 | 452 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-amsthm.sty | 453 | 453 | (/usr/local/texlive/2023/texmf-dist/tex/latex/thmtools/thm-amsthm.sty | |
Package: thm-amsthm 2023/05/04 v0.76 | 454 | 454 | Package: thm-amsthm 2023/05/04 v0.76 | |
\thmt@style@headstyle=\toks39 | 455 | 455 | \thmt@style@headstyle=\toks39 | |
)) | 456 | 456 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/pifont.sty | 457 | 457 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/pifont.sty | |
Package: pifont 2020/03/25 PSNFSS-v9.3 Pi font support (SPQR) | 458 | 458 | Package: pifont 2020/03/25 PSNFSS-v9.3 Pi font support (SPQR) | |
LaTeX Font Info: Trying to load font information for U+pzd on input line 63. | 459 | 459 | LaTeX Font Info: Trying to load font information for U+pzd on input line 63. | |
460 | 460 | |||
461 | 461 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upzd.fd | 462 | 462 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upzd.fd | |
File: upzd.fd 2001/06/04 font definitions for U/pzd. | 463 | 463 | File: upzd.fd 2001/06/04 font definitions for U/pzd. | |
) | 464 | 464 | ) | |
LaTeX Font Info: Trying to load font information for U+psy on input line 64. | 465 | 465 | LaTeX Font Info: Trying to load font information for U+psy on input line 64. | |
466 | 466 | |||
467 | 467 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upsy.fd | 468 | 468 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/upsy.fd | |
File: upsy.fd 2001/06/04 font definitions for U/psy. | 469 | 469 | File: upsy.fd 2001/06/04 font definitions for U/psy. | |
)) | 470 | 470 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/setspace/setspace.sty | 471 | 471 | (/usr/local/texlive/2023/texmf-dist/tex/latex/setspace/setspace.sty | |
Package: setspace 2022/12/04 v6.7b set line spacing | 472 | 472 | Package: setspace 2022/12/04 v6.7b set line spacing | |
) | 473 | 473 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/varioref.sty | 474 | 474 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/varioref.sty | |
Package: varioref 2022/01/09 v1.6f package for extended references (FMi) | 475 | 475 | Package: varioref 2022/01/09 v1.6f package for extended references (FMi) | |
\c@vrcnt=\count308 | 476 | 476 | \c@vrcnt=\count308 | |
) | 477 | 477 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/txfonts.sty | 478 | 478 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/txfonts.sty | |
Package: txfonts 2008/01/22 v3.2.1 | 479 | 479 | Package: txfonts 2008/01/22 v3.2.1 | |
LaTeX Font Info: Redeclaring symbol font `operators' on input line 21. | 480 | 480 | LaTeX Font Info: Redeclaring symbol font `operators' on input line 21. | |
LaTeX Font Info: Overwriting symbol font `operators' in version `normal' | 481 | 481 | LaTeX Font Info: Overwriting symbol font `operators' in version `normal' | |
(Font) OT1/cmr/m/n --> OT1/txr/m/n on input line 21. | 482 | 482 | (Font) OT1/cmr/m/n --> OT1/txr/m/n on input line 21. | |
LaTeX Font Info: Overwriting symbol font `operators' in version `bold' | 483 | 483 | LaTeX Font Info: Overwriting symbol font `operators' in version `bold' | |
(Font) OT1/cmr/bx/n --> OT1/txr/m/n on input line 21. | 484 | 484 | (Font) OT1/cmr/bx/n --> OT1/txr/m/n on input line 21. | |
LaTeX Font Info: Overwriting symbol font `operators' in version `bold' | 485 | 485 | LaTeX Font Info: Overwriting symbol font `operators' in version `bold' | |
(Font) OT1/txr/m/n --> OT1/txr/bx/n on input line 22. | 486 | 486 | (Font) OT1/txr/m/n --> OT1/txr/bx/n on input line 22. | |
\symitalic=\mathgroup4 | 487 | 487 | \symitalic=\mathgroup4 | |
LaTeX Font Info: Overwriting symbol font `italic' in version `bold' | 488 | 488 | LaTeX Font Info: Overwriting symbol font `italic' in version `bold' | |
(Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 26. | 489 | 489 | (Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 26. | |
LaTeX Font Info: Redeclaring math alphabet \mathbf on input line 29. | 490 | 490 | LaTeX Font Info: Redeclaring math alphabet \mathbf on input line 29. | |
LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `normal' | 491 | 491 | LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `normal' | |
(Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. | 492 | 492 | (Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. | |
LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `bold' | 493 | 493 | LaTeX Font Info: Overwriting math alphabet `\mathbf' in version `bold' | |
(Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. | 494 | 494 | (Font) OT1/cmr/bx/n --> OT1/txr/bx/n on input line 29. | |
LaTeX Font Info: Redeclaring math alphabet \mathit on input line 30. | 495 | 495 | LaTeX Font Info: Redeclaring math alphabet \mathit on input line 30. | |
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `normal' | 496 | 496 | LaTeX Font Info: Overwriting math alphabet `\mathit' in version `normal' | |
(Font) OT1/cmr/m/it --> OT1/txr/m/it on input line 30. | 497 | 497 | (Font) OT1/cmr/m/it --> OT1/txr/m/it on input line 30. | |
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' | 498 | 498 | LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' | |
(Font) OT1/cmr/bx/it --> OT1/txr/m/it on input line 30. | 499 | 499 | (Font) OT1/cmr/bx/it --> OT1/txr/m/it on input line 30. | |
LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' | 500 | 500 | LaTeX Font Info: Overwriting math alphabet `\mathit' in version `bold' | |
(Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 31. | 501 | 501 | (Font) OT1/txr/m/it --> OT1/txr/bx/it on input line 31. | |
LaTeX Font Info: Redeclaring math alphabet \mathsf on input line 40. | 502 | 502 | LaTeX Font Info: Redeclaring math alphabet \mathsf on input line 40. | |
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `normal' | 503 | 503 | LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `normal' | |
(Font) OT1/cmss/m/n --> OT1/txss/m/n on input line 40. | 504 | 504 | (Font) OT1/cmss/m/n --> OT1/txss/m/n on input line 40. | |
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' | 505 | 505 | LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' | |
(Font) OT1/cmss/bx/n --> OT1/txss/m/n on input line 40. | 506 | 506 | (Font) OT1/cmss/bx/n --> OT1/txss/m/n on input line 40. | |
LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' | 507 | 507 | LaTeX Font Info: Overwriting math alphabet `\mathsf' in version `bold' | |
(Font) OT1/txss/m/n --> OT1/txss/b/n on input line 41. | 508 | 508 | (Font) OT1/txss/m/n --> OT1/txss/b/n on input line 41. | |
LaTeX Font Info: Redeclaring math alphabet \mathtt on input line 50. | 509 | 509 | LaTeX Font Info: Redeclaring math alphabet \mathtt on input line 50. | |
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `normal' | 510 | 510 | LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `normal' | |
(Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. | 511 | 511 | (Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. | |
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' | 512 | 512 | LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' | |
(Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. | 513 | 513 | (Font) OT1/cmtt/m/n --> OT1/txtt/m/n on input line 50. | |
LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' | 514 | 514 | LaTeX Font Info: Overwriting math alphabet `\mathtt' in version `bold' | |
(Font) OT1/txtt/m/n --> OT1/txtt/b/n on input line 51. | 515 | 515 | (Font) OT1/txtt/m/n --> OT1/txtt/b/n on input line 51. | |
LaTeX Font Info: Redeclaring symbol font `letters' on input line 58. | 516 | 516 | LaTeX Font Info: Redeclaring symbol font `letters' on input line 58. | |
LaTeX Font Info: Overwriting symbol font `letters' in version `normal' | 517 | 517 | LaTeX Font Info: Overwriting symbol font `letters' in version `normal' | |
(Font) OML/cmm/m/it --> OML/txmi/m/it on input line 58. | 518 | 518 | (Font) OML/cmm/m/it --> OML/txmi/m/it on input line 58. | |
LaTeX Font Info: Overwriting symbol font `letters' in version `bold' | 519 | 519 | LaTeX Font Info: Overwriting symbol font `letters' in version `bold' | |
(Font) OML/cmm/b/it --> OML/txmi/m/it on input line 58. | 520 | 520 | (Font) OML/cmm/b/it --> OML/txmi/m/it on input line 58. | |
LaTeX Font Info: Overwriting symbol font `letters' in version `bold' | 521 | 521 | LaTeX Font Info: Overwriting symbol font `letters' in version `bold' | |
(Font) OML/txmi/m/it --> OML/txmi/bx/it on input line 59. | 522 | 522 | (Font) OML/txmi/m/it --> OML/txmi/bx/it on input line 59. | |
\symlettersA=\mathgroup5 | 523 | 523 | \symlettersA=\mathgroup5 | |
LaTeX Font Info: Overwriting symbol font `lettersA' in version `bold' | 524 | 524 | LaTeX Font Info: Overwriting symbol font `lettersA' in version `bold' | |
(Font) U/txmia/m/it --> U/txmia/bx/it on input line 67. | 525 | 525 | (Font) U/txmia/m/it --> U/txmia/bx/it on input line 67. | |
LaTeX Font Info: Redeclaring symbol font `symbols' on input line 77. | 526 | 526 | LaTeX Font Info: Redeclaring symbol font `symbols' on input line 77. | |
LaTeX Font Info: Overwriting symbol font `symbols' in version `normal' | 527 | 527 | LaTeX Font Info: Overwriting symbol font `symbols' in version `normal' | |
(Font) OMS/cmsy/m/n --> OMS/txsy/m/n on input line 77. | 528 | 528 | (Font) OMS/cmsy/m/n --> OMS/txsy/m/n on input line 77. | |
LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' | 529 | 529 | LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' | |
(Font) OMS/cmsy/b/n --> OMS/txsy/m/n on input line 77. | 530 | 530 | (Font) OMS/cmsy/b/n --> OMS/txsy/m/n on input line 77. | |
LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' | 531 | 531 | LaTeX Font Info: Overwriting symbol font `symbols' in version `bold' | |
(Font) OMS/txsy/m/n --> OMS/txsy/bx/n on input line 78. | 532 | 532 | (Font) OMS/txsy/m/n --> OMS/txsy/bx/n on input line 78. | |
\symAMSa=\mathgroup6 | 533 | 533 | \symAMSa=\mathgroup6 | |
LaTeX Font Info: Overwriting symbol font `AMSa' in version `bold' | 534 | 534 | LaTeX Font Info: Overwriting symbol font `AMSa' in version `bold' | |
(Font) U/txsya/m/n --> U/txsya/bx/n on input line 94. | 535 | 535 | (Font) U/txsya/m/n --> U/txsya/bx/n on input line 94. | |
\symAMSb=\mathgroup7 | 536 | 536 | \symAMSb=\mathgroup7 | |
LaTeX Font Info: Overwriting symbol font `AMSb' in version `bold' | 537 | 537 | LaTeX Font Info: Overwriting symbol font `AMSb' in version `bold' | |
(Font) U/txsyb/m/n --> U/txsyb/bx/n on input line 103. | 538 | 538 | (Font) U/txsyb/m/n --> U/txsyb/bx/n on input line 103. | |
\symsymbolsC=\mathgroup8 | 539 | 539 | \symsymbolsC=\mathgroup8 | |
LaTeX Font Info: Overwriting symbol font `symbolsC' in version `bold' | 540 | 540 | LaTeX Font Info: Overwriting symbol font `symbolsC' in version `bold' | |
(Font) U/txsyc/m/n --> U/txsyc/bx/n on input line 113. | 541 | 541 | (Font) U/txsyc/m/n --> U/txsyc/bx/n on input line 113. | |
LaTeX Font Info: Redeclaring symbol font `largesymbols' on input line 120. | 542 | 542 | LaTeX Font Info: Redeclaring symbol font `largesymbols' on input line 120. | |
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `normal' | 543 | 543 | LaTeX Font Info: Overwriting symbol font `largesymbols' in version `normal' | |
(Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. | 544 | 544 | (Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. | |
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' | 545 | 545 | LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' | |
(Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. | 546 | 546 | (Font) OMX/cmex/m/n --> OMX/txex/m/n on input line 120. | |
LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' | 547 | 547 | LaTeX Font Info: Overwriting symbol font `largesymbols' in version `bold' | |
(Font) OMX/txex/m/n --> OMX/txex/bx/n on input line 121. | 548 | 548 | (Font) OMX/txex/m/n --> OMX/txex/bx/n on input line 121. | |
\symlargesymbolsA=\mathgroup9 | 549 | 549 | \symlargesymbolsA=\mathgroup9 | |
LaTeX Font Info: Overwriting symbol font `largesymbolsA' in version `bold' | 550 | 550 | LaTeX Font Info: Overwriting symbol font `largesymbolsA' in version `bold' | |
(Font) U/txexa/m/n --> U/txexa/bx/n on input line 129. | 551 | 551 | (Font) U/txexa/m/n --> U/txexa/bx/n on input line 129. | |
LaTeX Font Info: Redeclaring math symbol \mathsterling on input line 164. | 552 | 552 | LaTeX Font Info: Redeclaring math symbol \mathsterling on input line 164. | |
LaTeX Font Info: Redeclaring math symbol \hbar on input line 591. | 553 | 553 | LaTeX Font Info: Redeclaring math symbol \hbar on input line 591. | |
LaTeX Info: Redefining \not on input line 1043. | 554 | 554 | LaTeX Info: Redefining \not on input line 1043. | |
LaTeX Info: Redefining \textsquare on input line 1063. | 555 | 555 | LaTeX Info: Redefining \textsquare on input line 1063. | |
LaTeX Info: Redefining \openbox on input line 1064. | 556 | 556 | LaTeX Info: Redefining \openbox on input line 1064. | |
) | 557 | 557 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/relsize/relsize.sty | 558 | 558 | (/usr/local/texlive/2023/texmf-dist/tex/latex/relsize/relsize.sty | |
Package: relsize 2013/03/29 ver 4.1 | 559 | 559 | Package: relsize 2013/03/29 ver 4.1 | |
) | 560 | 560 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/xkeyval/xkeyval.sty | 561 | 561 | (/usr/local/texlive/2023/texmf-dist/tex/latex/xkeyval/xkeyval.sty | |
Package: xkeyval 2022/06/16 v2.9 package option processing (HA) | 562 | 562 | Package: xkeyval 2022/06/16 v2.9 package option processing (HA) | |
563 | 563 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkeyval.tex | 564 | 564 | (/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkeyval.tex | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkvutils.tex | 565 | 565 | (/usr/local/texlive/2023/texmf-dist/tex/generic/xkeyval/xkvutils.tex | |
\XKV@toks=\toks40 | 566 | 566 | \XKV@toks=\toks40 | |
\XKV@tempa@toks=\toks41 | 567 | 567 | \XKV@tempa@toks=\toks41 | |
) | 568 | 568 | ) | |
\XKV@depth=\count309 | 569 | 569 | \XKV@depth=\count309 | |
File: xkeyval.tex 2014/12/03 v2.7a key=value parser (HA) | 570 | 570 | File: xkeyval.tex 2014/12/03 v2.7a key=value parser (HA) | |
)) | 571 | 571 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyphenat/hyphenat.sty | 572 | 572 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyphenat/hyphenat.sty | |
Package: hyphenat 2009/09/02 v2.3c hyphenation utilities | 573 | 573 | Package: hyphenat 2009/09/02 v2.3c hyphenation utilities | |
\langwohyphens=\language88 | 574 | 574 | \langwohyphens=\language88 | |
LaTeX Info: Redefining \_ on input line 43. | 575 | 575 | LaTeX Info: Redefining \_ on input line 43. | |
) | 576 | 576 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/bbm-macros/bbm.sty | 577 | 577 | (/usr/local/texlive/2023/texmf-dist/tex/latex/bbm-macros/bbm.sty | |
Package: bbm 1999/03/15 V 1.2 provides fonts for set symbols - TH | 578 | 578 | Package: bbm 1999/03/15 V 1.2 provides fonts for set symbols - TH | |
LaTeX Font Info: Overwriting math alphabet `\mathbbm' in version `bold' | 579 | 579 | LaTeX Font Info: Overwriting math alphabet `\mathbbm' in version `bold' | |
(Font) U/bbm/m/n --> U/bbm/bx/n on input line 33. | 580 | 580 | (Font) U/bbm/m/n --> U/bbm/bx/n on input line 33. | |
LaTeX Font Info: Overwriting math alphabet `\mathbbmss' in version `bold' | 581 | 581 | LaTeX Font Info: Overwriting math alphabet `\mathbbmss' in version `bold' | |
(Font) U/bbmss/m/n --> U/bbmss/bx/n on input line 35. | 582 | 582 | (Font) U/bbmss/m/n --> U/bbmss/bx/n on input line 35. | |
) | 583 | 583 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/environ/environ.sty | 584 | 584 | (/usr/local/texlive/2023/texmf-dist/tex/latex/environ/environ.sty | |
Package: environ 2014/05/04 v0.3 A new way to define environments | 585 | 585 | Package: environ 2014/05/04 v0.3 A new way to define environments | |
586 | 586 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/trimspaces/trimspaces.sty | 587 | 587 | (/usr/local/texlive/2023/texmf-dist/tex/latex/trimspaces/trimspaces.sty | |
Package: trimspaces 2009/09/17 v1.1 Trim spaces around a token list | 588 | 588 | Package: trimspaces 2009/09/17 v1.1 Trim spaces around a token list | |
)) | 589 | 589 | )) | |
\c@upm@subfigure@count=\count310 | 590 | 590 | \c@upm@subfigure@count=\count310 | |
\c@upm@fmt@mtabular@columnnumber=\count311 | 591 | 591 | \c@upm@fmt@mtabular@columnnumber=\count311 | |
\c@upm@format@section@sectionlevel=\count312 | 592 | 592 | \c@upm@format@section@sectionlevel=\count312 | |
\c@upm@fmt@savedcounter=\count313 | 593 | 593 | \c@upm@fmt@savedcounter=\count313 | |
\c@@@upm@fmt@inlineenumeration=\count314 | 594 | 594 | \c@@@upm@fmt@inlineenumeration=\count314 | |
\c@@upm@fmt@enumdescription@cnt@=\count315 | 595 | 595 | \c@@upm@fmt@enumdescription@cnt@=\count315 | |
\upm@framed@minipage=\box113 | 596 | 596 | \upm@framed@minipage=\box113 | |
\upm@highlight@box@save=\box114 | 597 | 597 | \upm@highlight@box@save=\box114 | |
\c@upmdefinition=\count316 | 598 | 598 | \c@upmdefinition=\count316 | |
) | 599 | 599 | ) | |
(./upmethodology-version.sty | 600 | 600 | (./upmethodology-version.sty | |
Package: upmethodology-version 2013/08/26 | 601 | 601 | Package: upmethodology-version 2013/08/26 | |
602 | 602 | |||
**** upmethodology-version is using French language **** | 603 | 603 | **** upmethodology-version is using French language **** | |
\upm@tmp@a=\count317 | 604 | 604 | \upm@tmp@a=\count317 | |
) | 605 | 605 | ) | |
\listendskip=\skip62 | 606 | 606 | \listendskip=\skip62 | |
) | 607 | 607 | ) | |
(./upmethodology-frontpage.sty | 608 | 608 | (./upmethodology-frontpage.sty | |
Package: upmethodology-frontpage 2015/06/26 | 609 | 609 | Package: upmethodology-frontpage 2015/06/26 | |
610 | 610 | |||
**** upmethodology-frontpage is using French language **** | 611 | 611 | **** upmethodology-frontpage is using French language **** | |
\upm@front@tmpa=\dimen256 | 612 | 612 | \upm@front@tmpa=\dimen256 | |
\upm@front@tmpb=\dimen257 | 613 | 613 | \upm@front@tmpb=\dimen257 | |
614 | 614 | |||
*** define extension value frontillustrationsize ****) | 615 | 615 | *** define extension value frontillustrationsize ****) | |
(./upmethodology-backpage.sty | 616 | 616 | (./upmethodology-backpage.sty | |
Package: upmethodology-backpage 2013/12/14 | 617 | 617 | Package: upmethodology-backpage 2013/12/14 | |
618 | 618 | |||
**** upmethodology-backpage is using French language ****) | 619 | 619 | **** upmethodology-backpage is using French language ****) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/url/url.sty | 620 | 620 | (/usr/local/texlive/2023/texmf-dist/tex/latex/url/url.sty | |
\Urlmuskip=\muskip17 | 621 | 621 | \Urlmuskip=\muskip17 | |
Package: url 2013/09/16 ver 3.4 Verb mode for urls, etc. | 622 | 622 | Package: url 2013/09/16 ver 3.4 Verb mode for urls, etc. | |
) | 623 | 623 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hyperref.sty | 624 | 624 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hyperref.sty | |
Package: hyperref 2023-05-16 v7.00y Hypertext links for LaTeX | 625 | 625 | Package: hyperref 2023-05-16 v7.00y Hypertext links for LaTeX | |
626 | 626 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/ltxcmds/ltxcmds.sty | 627 | 627 | (/usr/local/texlive/2023/texmf-dist/tex/generic/ltxcmds/ltxcmds.sty | |
Package: ltxcmds 2020-05-10 v1.25 LaTeX kernel commands for general use (HO) | 628 | 628 | Package: ltxcmds 2020-05-10 v1.25 LaTeX kernel commands for general use (HO) | |
) | 629 | 629 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/pdftexcmds/pdftexcmds.sty | 630 | 630 | (/usr/local/texlive/2023/texmf-dist/tex/generic/pdftexcmds/pdftexcmds.sty | |
Package: pdftexcmds 2020-06-27 v0.33 Utility functions of pdfTeX for LuaTeX (HO | 631 | 631 | Package: pdftexcmds 2020-06-27 v0.33 Utility functions of pdfTeX for LuaTeX (HO | |
) | 632 | 632 | ) | |
633 | 633 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/infwarerr/infwarerr.sty | 634 | 634 | (/usr/local/texlive/2023/texmf-dist/tex/generic/infwarerr/infwarerr.sty | |
Package: infwarerr 2019/12/03 v1.5 Providing info/warning/error messages (HO) | 635 | 635 | Package: infwarerr 2019/12/03 v1.5 Providing info/warning/error messages (HO) | |
) | 636 | 636 | ) | |
Package pdftexcmds Info: \pdf@primitive is available. | 637 | 637 | Package pdftexcmds Info: \pdf@primitive is available. | |
Package pdftexcmds Info: \pdf@ifprimitive is available. | 638 | 638 | Package pdftexcmds Info: \pdf@ifprimitive is available. | |
Package pdftexcmds Info: \pdfdraftmode found. | 639 | 639 | Package pdftexcmds Info: \pdfdraftmode found. | |
) | 640 | 640 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/kvdefinekeys/kvdefinekeys.sty | 641 | 641 | (/usr/local/texlive/2023/texmf-dist/tex/generic/kvdefinekeys/kvdefinekeys.sty | |
Package: kvdefinekeys 2019-12-19 v1.6 Define keys (HO) | 642 | 642 | Package: kvdefinekeys 2019-12-19 v1.6 Define keys (HO) | |
) | 643 | 643 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/pdfescape/pdfescape.sty | 644 | 644 | (/usr/local/texlive/2023/texmf-dist/tex/generic/pdfescape/pdfescape.sty | |
Package: pdfescape 2019/12/09 v1.15 Implements pdfTeX's escape features (HO) | 645 | 645 | Package: pdfescape 2019/12/09 v1.15 Implements pdfTeX's escape features (HO) | |
) | 646 | 646 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/hycolor/hycolor.sty | 647 | 647 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hycolor/hycolor.sty | |
Package: hycolor 2020-01-27 v1.10 Color options for hyperref/bookmark (HO) | 648 | 648 | Package: hycolor 2020-01-27 v1.10 Color options for hyperref/bookmark (HO) | |
) | 649 | 649 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/letltxmacro/letltxmacro.sty | 650 | 650 | (/usr/local/texlive/2023/texmf-dist/tex/latex/letltxmacro/letltxmacro.sty | |
Package: letltxmacro 2019/12/03 v1.6 Let assignment for LaTeX macros (HO) | 651 | 651 | Package: letltxmacro 2019/12/03 v1.6 Let assignment for LaTeX macros (HO) | |
) | 652 | 652 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/auxhook/auxhook.sty | 653 | 653 | (/usr/local/texlive/2023/texmf-dist/tex/latex/auxhook/auxhook.sty | |
Package: auxhook 2019-12-17 v1.6 Hooks for auxiliary files (HO) | 654 | 654 | Package: auxhook 2019-12-17 v1.6 Hooks for auxiliary files (HO) | |
) | 655 | 655 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/nameref.sty | 656 | 656 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/nameref.sty | |
Package: nameref 2023-05-16 v2.51 Cross-referencing by name of section | 657 | 657 | Package: nameref 2023-05-16 v2.51 Cross-referencing by name of section | |
658 | 658 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/refcount/refcount.sty | 659 | 659 | (/usr/local/texlive/2023/texmf-dist/tex/latex/refcount/refcount.sty | |
Package: refcount 2019/12/15 v3.6 Data extraction from label references (HO) | 660 | 660 | Package: refcount 2019/12/15 v3.6 Data extraction from label references (HO) | |
) | 661 | 661 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/gettitlestring/gettitlestring.s | 662 | 662 | (/usr/local/texlive/2023/texmf-dist/tex/generic/gettitlestring/gettitlestring.s | |
ty | 663 | 663 | ty | |
Package: gettitlestring 2019/12/15 v1.6 Cleanup title references (HO) | 664 | 664 | Package: gettitlestring 2019/12/15 v1.6 Cleanup title references (HO) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/kvoptions/kvoptions.sty | 665 | 665 | (/usr/local/texlive/2023/texmf-dist/tex/latex/kvoptions/kvoptions.sty | |
Package: kvoptions 2022-06-15 v3.15 Key value format for package options (HO) | 666 | 666 | Package: kvoptions 2022-06-15 v3.15 Key value format for package options (HO) | |
)) | 667 | 667 | )) | |
\c@section@level=\count318 | 668 | 668 | \c@section@level=\count318 | |
) | 669 | 669 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/etoolbox/etoolbox.sty | 670 | 670 | (/usr/local/texlive/2023/texmf-dist/tex/latex/etoolbox/etoolbox.sty | |
Package: etoolbox 2020/10/05 v2.5k e-TeX tools for LaTeX (JAW) | 671 | 671 | Package: etoolbox 2020/10/05 v2.5k e-TeX tools for LaTeX (JAW) | |
\etb@tempcnta=\count319 | 672 | 672 | \etb@tempcnta=\count319 | |
) | 673 | 673 | ) | |
\@linkdim=\dimen258 | 674 | 674 | \@linkdim=\dimen258 | |
\Hy@linkcounter=\count320 | 675 | 675 | \Hy@linkcounter=\count320 | |
\Hy@pagecounter=\count321 | 676 | 676 | \Hy@pagecounter=\count321 | |
677 | 677 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/pd1enc.def | 678 | 678 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/pd1enc.def | |
File: pd1enc.def 2023-05-16 v7.00y Hyperref: PDFDocEncoding definition (HO) | 679 | 679 | File: pd1enc.def 2023-05-16 v7.00y Hyperref: PDFDocEncoding definition (HO) | |
Now handling font encoding PD1 ... | 680 | 680 | Now handling font encoding PD1 ... | |
... no UTF-8 mapping file for font encoding PD1 | 681 | 681 | ... no UTF-8 mapping file for font encoding PD1 | |
) | 682 | 682 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/generic/intcalc/intcalc.sty | 683 | 683 | (/usr/local/texlive/2023/texmf-dist/tex/generic/intcalc/intcalc.sty | |
Package: intcalc 2019/12/15 v1.3 Expandable calculations with integers (HO) | 684 | 684 | Package: intcalc 2019/12/15 v1.3 Expandable calculations with integers (HO) | |
) | 685 | 685 | ) | |
\Hy@SavedSpaceFactor=\count322 | 686 | 686 | \Hy@SavedSpaceFactor=\count322 | |
687 | 687 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/puenc.def | 688 | 688 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/puenc.def | |
File: puenc.def 2023-05-16 v7.00y Hyperref: PDF Unicode definition (HO) | 689 | 689 | File: puenc.def 2023-05-16 v7.00y Hyperref: PDF Unicode definition (HO) | |
Now handling font encoding PU ... | 690 | 690 | Now handling font encoding PU ... | |
... no UTF-8 mapping file for font encoding PU | 691 | 691 | ... no UTF-8 mapping file for font encoding PU | |
) | 692 | 692 | ) | |
Package hyperref Info: Option `breaklinks' set `true' on input line 4050. | 693 | 693 | Package hyperref Info: Option `breaklinks' set `true' on input line 4050. | |
Package hyperref Info: Option `pageanchor' set `true' on input line 4050. | 694 | 694 | Package hyperref Info: Option `pageanchor' set `true' on input line 4050. | |
Package hyperref Info: Option `bookmarks' set `false' on input line 4050. | 695 | 695 | Package hyperref Info: Option `bookmarks' set `false' on input line 4050. | |
Package hyperref Info: Option `hyperfigures' set `true' on input line 4050. | 696 | 696 | Package hyperref Info: Option `hyperfigures' set `true' on input line 4050. | |
Package hyperref Info: Option `hyperindex' set `true' on input line 4050. | 697 | 697 | Package hyperref Info: Option `hyperindex' set `true' on input line 4050. | |
Package hyperref Info: Option `linktocpage' set `true' on input line 4050. | 698 | 698 | Package hyperref Info: Option `linktocpage' set `true' on input line 4050. | |
Package hyperref Info: Option `bookmarks' set `true' on input line 4050. | 699 | 699 | Package hyperref Info: Option `bookmarks' set `true' on input line 4050. | |
Package hyperref Info: Option `bookmarksopen' set `true' on input line 4050. | 700 | 700 | Package hyperref Info: Option `bookmarksopen' set `true' on input line 4050. | |
Package hyperref Info: Option `bookmarksnumbered' set `true' on input line 4050 | 701 | 701 | Package hyperref Info: Option `bookmarksnumbered' set `true' on input line 4050 | |
. | 702 | 702 | . | |
Package hyperref Info: Option `colorlinks' set `false' on input line 4050. | 703 | 703 | Package hyperref Info: Option `colorlinks' set `false' on input line 4050. | |
Package hyperref Info: Hyper figures ON on input line 4165. | 704 | 704 | Package hyperref Info: Hyper figures ON on input line 4165. | |
Package hyperref Info: Link nesting OFF on input line 4172. | 705 | 705 | Package hyperref Info: Link nesting OFF on input line 4172. | |
Package hyperref Info: Hyper index ON on input line 4175. | 706 | 706 | Package hyperref Info: Hyper index ON on input line 4175. | |
Package hyperref Info: Plain pages OFF on input line 4182. | 707 | 707 | Package hyperref Info: Plain pages OFF on input line 4182. | |
Package hyperref Info: Backreferencing OFF on input line 4187. | 708 | 708 | Package hyperref Info: Backreferencing OFF on input line 4187. | |
Package hyperref Info: Implicit mode ON; LaTeX internals redefined. | 709 | 709 | Package hyperref Info: Implicit mode ON; LaTeX internals redefined. | |
Package hyperref Info: Bookmarks ON on input line 4434. | 710 | 710 | Package hyperref Info: Bookmarks ON on input line 4434. | |
LaTeX Info: Redefining \href on input line 4683. | 711 | 711 | LaTeX Info: Redefining \href on input line 4683. | |
\c@Hy@tempcnt=\count323 | 712 | 712 | \c@Hy@tempcnt=\count323 | |
LaTeX Info: Redefining \url on input line 4772. | 713 | 713 | LaTeX Info: Redefining \url on input line 4772. | |
\XeTeXLinkMargin=\dimen259 | 714 | 714 | \XeTeXLinkMargin=\dimen259 | |
715 | 715 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/bitset/bitset.sty | 716 | 716 | (/usr/local/texlive/2023/texmf-dist/tex/generic/bitset/bitset.sty | |
Package: bitset 2019/12/09 v1.3 Handle bit-vector datatype (HO) | 717 | 717 | Package: bitset 2019/12/09 v1.3 Handle bit-vector datatype (HO) | |
718 | 718 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/bigintcalc/bigintcalc.sty | 719 | 719 | (/usr/local/texlive/2023/texmf-dist/tex/generic/bigintcalc/bigintcalc.sty | |
Package: bigintcalc 2019/12/15 v1.5 Expandable calculations on big integers (HO | 720 | 720 | Package: bigintcalc 2019/12/15 v1.5 Expandable calculations on big integers (HO | |
) | 721 | 721 | ) | |
)) | 722 | 722 | )) | |
\Fld@menulength=\count324 | 723 | 723 | \Fld@menulength=\count324 | |
\Field@Width=\dimen260 | 724 | 724 | \Field@Width=\dimen260 | |
\Fld@charsize=\dimen261 | 725 | 725 | \Fld@charsize=\dimen261 | |
Package hyperref Info: Hyper figures ON on input line 6049. | 726 | 726 | Package hyperref Info: Hyper figures ON on input line 6049. | |
Package hyperref Info: Link nesting OFF on input line 6056. | 727 | 727 | Package hyperref Info: Link nesting OFF on input line 6056. | |
Package hyperref Info: Hyper index ON on input line 6059. | 728 | 728 | Package hyperref Info: Hyper index ON on input line 6059. | |
Package hyperref Info: backreferencing OFF on input line 6066. | 729 | 729 | Package hyperref Info: backreferencing OFF on input line 6066. | |
Package hyperref Info: Link coloring OFF on input line 6071. | 730 | 730 | Package hyperref Info: Link coloring OFF on input line 6071. | |
Package hyperref Info: Link coloring with OCG OFF on input line 6076. | 731 | 731 | Package hyperref Info: Link coloring with OCG OFF on input line 6076. | |
Package hyperref Info: PDF/A mode OFF on input line 6081. | 732 | 732 | Package hyperref Info: PDF/A mode OFF on input line 6081. | |
733 | 733 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/atbegshi-ltx.sty | 734 | 734 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/atbegshi-ltx.sty | |
Package: atbegshi-ltx 2021/01/10 v1.0c Emulation of the original atbegshi | 735 | 735 | Package: atbegshi-ltx 2021/01/10 v1.0c Emulation of the original atbegshi | |
package with kernel methods | 736 | 736 | package with kernel methods | |
) | 737 | 737 | ) | |
\Hy@abspage=\count325 | 738 | 738 | \Hy@abspage=\count325 | |
\c@Item=\count326 | 739 | 739 | \c@Item=\count326 | |
\c@Hfootnote=\count327 | 740 | 740 | \c@Hfootnote=\count327 | |
) | 741 | 741 | ) | |
Package hyperref Info: Driver: hpdftex. | 742 | 742 | Package hyperref Info: Driver: hpdftex. | |
743 | 743 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hpdftex.def | 744 | 744 | (/usr/local/texlive/2023/texmf-dist/tex/latex/hyperref/hpdftex.def | |
File: hpdftex.def 2023-05-16 v7.00y Hyperref driver for pdfTeX | 745 | 745 | File: hpdftex.def 2023-05-16 v7.00y Hyperref driver for pdfTeX | |
746 | 746 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/atveryend-ltx.sty | 747 | 747 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/atveryend-ltx.sty | |
Package: atveryend-ltx 2020/08/19 v1.0a Emulation of the original atveryend pac | 748 | 748 | Package: atveryend-ltx 2020/08/19 v1.0a Emulation of the original atveryend pac | |
kage | 749 | 749 | kage | |
with kernel methods | 750 | 750 | with kernel methods | |
) | 751 | 751 | ) | |
\Fld@listcount=\count328 | 752 | 752 | \Fld@listcount=\count328 | |
\c@bookmark@seq@number=\count329 | 753 | 753 | \c@bookmark@seq@number=\count329 | |
754 | 754 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/rerunfilecheck/rerunfilecheck.sty | 755 | 755 | (/usr/local/texlive/2023/texmf-dist/tex/latex/rerunfilecheck/rerunfilecheck.sty | |
Package: rerunfilecheck 2022-07-10 v1.10 Rerun checks for auxiliary files (HO) | 756 | 756 | Package: rerunfilecheck 2022-07-10 v1.10 Rerun checks for auxiliary files (HO) | |
757 | 757 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/uniquecounter/uniquecounter.sty | 758 | 758 | (/usr/local/texlive/2023/texmf-dist/tex/generic/uniquecounter/uniquecounter.sty | |
Package: uniquecounter 2019/12/15 v1.4 Provide unlimited unique counter (HO) | 759 | 759 | Package: uniquecounter 2019/12/15 v1.4 Provide unlimited unique counter (HO) | |
) | 760 | 760 | ) | |
Package uniquecounter Info: New unique counter `rerunfilecheck' on input line 2 | 761 | 761 | Package uniquecounter Info: New unique counter `rerunfilecheck' on input line 2 | |
85. | 762 | 762 | 85. | |
) | 763 | 763 | ) | |
\Hy@SectionHShift=\skip63 | 764 | 764 | \Hy@SectionHShift=\skip63 | |
) | 765 | 765 | ) | |
\upm@smalllogo@height=\dimen262 | 766 | 766 | \upm@smalllogo@height=\dimen262 | |
) (./spimbasephdthesis.sty | 767 | 767 | ) (./spimbasephdthesis.sty | |
Package: spimbasephdthesis 2015/09/01 | 768 | 768 | Package: spimbasephdthesis 2015/09/01 | |
769 | 769 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.sty | 770 | 770 | (/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.sty | |
File: lettrine.sty 2023-04-18 v2.40 (Daniel Flipo) | 771 | 771 | File: lettrine.sty 2023-04-18 v2.40 (Daniel Flipo) | |
772 | 772 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3packages/xfp/xfp.sty | 773 | 773 | (/usr/local/texlive/2023/texmf-dist/tex/latex/l3packages/xfp/xfp.sty | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3kernel/expl3.sty | 774 | 774 | (/usr/local/texlive/2023/texmf-dist/tex/latex/l3kernel/expl3.sty | |
Package: expl3 2023-05-22 L3 programming layer (loader) | 775 | 775 | Package: expl3 2023-05-22 L3 programming layer (loader) | |
776 | 776 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/l3backend/l3backend-pdftex.def | 777 | 777 | (/usr/local/texlive/2023/texmf-dist/tex/latex/l3backend/l3backend-pdftex.def | |
File: l3backend-pdftex.def 2023-04-19 L3 backend support: PDF output (pdfTeX) | 778 | 778 | File: l3backend-pdftex.def 2023-04-19 L3 backend support: PDF output (pdfTeX) | |
\l__color_backend_stack_int=\count330 | 779 | 779 | \l__color_backend_stack_int=\count330 | |
\l__pdf_internal_box=\box115 | 780 | 780 | \l__pdf_internal_box=\box115 | |
)) | 781 | 781 | )) | |
Package: xfp 2023-02-02 L3 Floating point unit | 782 | 782 | Package: xfp 2023-02-02 L3 Floating point unit | |
) | 783 | 783 | ) | |
\c@DefaultLines=\count331 | 784 | 784 | \c@DefaultLines=\count331 | |
\c@DefaultDepth=\count332 | 785 | 785 | \c@DefaultDepth=\count332 | |
\DefaultFindent=\dimen263 | 786 | 786 | \DefaultFindent=\dimen263 | |
\DefaultNindent=\dimen264 | 787 | 787 | \DefaultNindent=\dimen264 | |
\DefaultSlope=\dimen265 | 788 | 788 | \DefaultSlope=\dimen265 | |
\DiscardVskip=\dimen266 | 789 | 789 | \DiscardVskip=\dimen266 | |
\L@lbox=\box116 | 790 | 790 | \L@lbox=\box116 | |
\L@tbox=\box117 | 791 | 791 | \L@tbox=\box117 | |
\c@L@lines=\count333 | 792 | 792 | \c@L@lines=\count333 | |
\c@L@depth=\count334 | 793 | 793 | \c@L@depth=\count334 | |
\L@Pindent=\dimen267 | 794 | 794 | \L@Pindent=\dimen267 | |
\L@Findent=\dimen268 | 795 | 795 | \L@Findent=\dimen268 | |
\L@Nindent=\dimen269 | 796 | 796 | \L@Nindent=\dimen269 | |
\L@lraise=\dimen270 | 797 | 797 | \L@lraise=\dimen270 | |
\L@first=\dimen271 | 798 | 798 | \L@first=\dimen271 | |
\L@next=\dimen272 | 799 | 799 | \L@next=\dimen272 | |
\L@slope=\dimen273 | 800 | 800 | \L@slope=\dimen273 | |
\L@height=\dimen274 | 801 | 801 | \L@height=\dimen274 | |
\L@novskip=\dimen275 | 802 | 802 | \L@novskip=\dimen275 | |
\L@target@ht=\dimen276 | 803 | 803 | \L@target@ht=\dimen276 | |
\L@target@dp=\dimen277 | 804 | 804 | \L@target@dp=\dimen277 | |
\L@target@tht=\dimen278 | 805 | 805 | \L@target@tht=\dimen278 | |
\LettrineWidth=\dimen279 | 806 | 806 | \LettrineWidth=\dimen279 | |
\LettrineHeight=\dimen280 | 807 | 807 | \LettrineHeight=\dimen280 | |
\LettrineDepth=\dimen281 | 808 | 808 | \LettrineDepth=\dimen281 | |
Loading lettrine.cfg | 809 | 809 | Loading lettrine.cfg | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.cfg) | 810 | 810 | (/usr/local/texlive/2023/texmf-dist/tex/latex/lettrine/lettrine.cfg) | |
\Llist@everypar=\toks42 | 811 | 811 | \Llist@everypar=\toks42 | |
) | 812 | 812 | ) | |
*** define extension value backcovermessage ****) | 813 | 813 | *** define extension value backcovermessage ****) | |
**** including upm extension spimufcphdthesis (upmext-spimufcphdthesis.cfg) *** | 814 | 814 | **** including upm extension spimufcphdthesis (upmext-spimufcphdthesis.cfg) *** | |
* (./upmext-spimufcphdthesis.cfg *** define extension value copyright **** | 815 | 815 | * (./upmext-spimufcphdthesis.cfg *** define extension value copyright **** | |
*** style extension spimufcphdthesis, Copyright {(c)} 2012--14 Dr. St\unhbox \v | 816 | 816 | *** style extension spimufcphdthesis, Copyright {(c)} 2012--14 Dr. St\unhbox \v | |
oidb@x \bgroup \let \unhbox \voidb@x \setbox \@tempboxa \hbox {e\global \mathch | 817 | 817 | oidb@x \bgroup \let \unhbox \voidb@x \setbox \@tempboxa \hbox {e\global \mathch | |
ardef \accent@spacefactor \spacefactor }\let \begingroup \let \typeout \protect | 818 | 818 | ardef \accent@spacefactor \spacefactor }\let \begingroup \let \typeout \protect | |
\begingroup \def \MessageBreak { | 819 | 819 | \begingroup \def \MessageBreak { | |
(Font) }\let \protect \immediate\write \m@ne {LaTeX Font Info: | 820 | 820 | (Font) }\let \protect \immediate\write \m@ne {LaTeX Font Info: | |
on input line 5.}\endgroup \endgroup \relax \let \ignorespaces \relax \accent | 821 | 821 | on input line 5.}\endgroup \endgroup \relax \let \ignorespaces \relax \accent | |
19 e\egroup \spacefactor \accent@spacefactor phane GALLAND. **** | 822 | 822 | 19 e\egroup \spacefactor \accent@spacefactor phane GALLAND. **** | |
*** define extension value trademarks **** | 823 | 823 | *** define extension value trademarks **** | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/helvet.sty | 824 | 824 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/helvet.sty | |
Package: helvet 2020/03/25 PSNFSS-v9.3 (WaS) | 825 | 825 | Package: helvet 2020/03/25 PSNFSS-v9.3 (WaS) | |
) | 826 | 826 | ) | |
*** define extension value frontillustration **** | 827 | 827 | *** define extension value frontillustration **** | |
*** define extension value p3illustration **** | 828 | 828 | *** define extension value p3illustration **** | |
*** define extension value backillustration **** | 829 | 829 | *** define extension value backillustration **** | |
*** define extension value watermarksize **** | 830 | 830 | *** define extension value watermarksize **** | |
*** define extension value universityname **** | 831 | 831 | *** define extension value universityname **** | |
*** define extension value speciality **** | 832 | 832 | *** define extension value speciality **** | |
*** define extension value defensedate **** | 833 | 833 | *** define extension value defensedate **** | |
*** define extension value jurytabwidth **** | 834 | 834 | *** define extension value jurytabwidth **** | |
*** define extension value jurystyle **** | 835 | 835 | *** define extension value jurystyle **** | |
*** define extension value defensemessage ****)) | 836 | 836 | *** define extension value defensemessage ****)) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/inputenc.sty | 837 | 837 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/inputenc.sty | |
Package: inputenc 2021/02/14 v1.3d Input encoding file | 838 | 838 | Package: inputenc 2021/02/14 v1.3d Input encoding file | |
\inpenc@prehook=\toks43 | 839 | 839 | \inpenc@prehook=\toks43 | |
\inpenc@posthook=\toks44 | 840 | 840 | \inpenc@posthook=\toks44 | |
) | 841 | 841 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/base/fontenc.sty | 842 | 842 | (/usr/local/texlive/2023/texmf-dist/tex/latex/base/fontenc.sty | |
Package: fontenc 2021/04/29 v2.0v Standard LaTeX package | 843 | 843 | Package: fontenc 2021/04/29 v2.0v Standard LaTeX package | |
LaTeX Font Info: Trying to load font information for T1+phv on input line 11 | 844 | 844 | LaTeX Font Info: Trying to load font information for T1+phv on input line 11 | |
2. | 845 | 845 | 2. | |
846 | 846 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1phv.fd | 847 | 847 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/t1phv.fd | |
File: t1phv.fd 2020/03/25 scalable font definitions for T1/phv. | 848 | 848 | File: t1phv.fd 2020/03/25 scalable font definitions for T1/phv. | |
)) | 849 | 849 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/times.sty | 850 | 850 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/times.sty | |
Package: times 2020/03/25 PSNFSS-v9.3 (SPQR) | 851 | 851 | Package: times 2020/03/25 PSNFSS-v9.3 (SPQR) | |
) | 852 | 852 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjustbox.sty | 853 | 853 | (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjustbox.sty | |
Package: adjustbox 2022/10/17 v1.3a Adjusting TeX boxes (trim, clip, ...) | 854 | 854 | Package: adjustbox 2022/10/17 v1.3a Adjusting TeX boxes (trim, clip, ...) | |
855 | 855 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjcalc.sty | 856 | 856 | (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/adjcalc.sty | |
Package: adjcalc 2012/05/16 v1.1 Provides advanced setlength with multiple back | 857 | 857 | Package: adjcalc 2012/05/16 v1.1 Provides advanced setlength with multiple back | |
-ends (calc, etex, pgfmath) | 858 | 858 | -ends (calc, etex, pgfmath) | |
) | 859 | 859 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/trimclip.sty | 860 | 860 | (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/trimclip.sty | |
Package: trimclip 2020/08/19 v1.2 Trim and clip general TeX material | 861 | 861 | Package: trimclip 2020/08/19 v1.2 Trim and clip general TeX material | |
862 | 862 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/collectbox/collectbox.sty | 863 | 863 | (/usr/local/texlive/2023/texmf-dist/tex/latex/collectbox/collectbox.sty | |
Package: collectbox 2022/10/17 v0.4c Collect macro arguments as boxes | 864 | 864 | Package: collectbox 2022/10/17 v0.4c Collect macro arguments as boxes | |
\collectedbox=\box118 | 865 | 865 | \collectedbox=\box118 | |
) | 866 | 866 | ) | |
\tc@llx=\dimen282 | 867 | 867 | \tc@llx=\dimen282 | |
\tc@lly=\dimen283 | 868 | 868 | \tc@lly=\dimen283 | |
\tc@urx=\dimen284 | 869 | 869 | \tc@urx=\dimen284 | |
\tc@ury=\dimen285 | 870 | 870 | \tc@ury=\dimen285 | |
Package trimclip Info: Using driver 'tc-pdftex.def'. | 871 | 871 | Package trimclip Info: Using driver 'tc-pdftex.def'. | |
872 | 872 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/tc-pdftex.def | 873 | 873 | (/usr/local/texlive/2023/texmf-dist/tex/latex/adjustbox/tc-pdftex.def | |
File: tc-pdftex.def 2019/01/04 v2.2 Clipping driver for pdftex | 874 | 874 | File: tc-pdftex.def 2019/01/04 v2.2 Clipping driver for pdftex | |
)) | 875 | 875 | )) | |
\adjbox@Width=\dimen286 | 876 | 876 | \adjbox@Width=\dimen286 | |
\adjbox@Height=\dimen287 | 877 | 877 | \adjbox@Height=\dimen287 | |
\adjbox@Depth=\dimen288 | 878 | 878 | \adjbox@Depth=\dimen288 | |
\adjbox@Totalheight=\dimen289 | 879 | 879 | \adjbox@Totalheight=\dimen289 | |
\adjbox@pwidth=\dimen290 | 880 | 880 | \adjbox@pwidth=\dimen290 | |
\adjbox@pheight=\dimen291 | 881 | 881 | \adjbox@pheight=\dimen291 | |
\adjbox@pdepth=\dimen292 | 882 | 882 | \adjbox@pdepth=\dimen292 | |
\adjbox@ptotalheight=\dimen293 | 883 | 883 | \adjbox@ptotalheight=\dimen293 | |
884 | 884 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/ifoddpage/ifoddpage.sty | 885 | 885 | (/usr/local/texlive/2023/texmf-dist/tex/latex/ifoddpage/ifoddpage.sty | |
Package: ifoddpage 2022/10/18 v1.2 Conditionals for odd/even page detection | 886 | 886 | Package: ifoddpage 2022/10/18 v1.2 Conditionals for odd/even page detection | |
\c@checkoddpage=\count335 | 887 | 887 | \c@checkoddpage=\count335 | |
) | 888 | 888 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/varwidth/varwidth.sty | 889 | 889 | (/usr/local/texlive/2023/texmf-dist/tex/latex/varwidth/varwidth.sty | |
Package: varwidth 2009/03/30 ver 0.92; Variable-width minipages | 890 | 890 | Package: varwidth 2009/03/30 ver 0.92; Variable-width minipages | |
\@vwid@box=\box119 | 891 | 891 | \@vwid@box=\box119 | |
\sift@deathcycles=\count336 | 892 | 892 | \sift@deathcycles=\count336 | |
\@vwid@loff=\dimen294 | 893 | 893 | \@vwid@loff=\dimen294 | |
\@vwid@roff=\dimen295 | 894 | 894 | \@vwid@roff=\dimen295 | |
)) | 895 | 895 | )) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithms/algorithm.sty | 896 | 896 | (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithms/algorithm.sty | |
Package: algorithm 2009/08/24 v0.1 Document Style `algorithm' - floating enviro | 897 | 897 | Package: algorithm 2009/08/24 v0.1 Document Style `algorithm' - floating enviro | |
nment | 898 | 898 | nment | |
899 | 899 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/float/float.sty | 900 | 900 | (/usr/local/texlive/2023/texmf-dist/tex/latex/float/float.sty | |
Package: float 2001/11/08 v1.3d Float enhancements (AL) | 901 | 901 | Package: float 2001/11/08 v1.3d Float enhancements (AL) | |
\c@float@type=\count337 | 902 | 902 | \c@float@type=\count337 | |
\float@exts=\toks45 | 903 | 903 | \float@exts=\toks45 | |
\float@box=\box120 | 904 | 904 | \float@box=\box120 | |
\@float@everytoks=\toks46 | 905 | 905 | \@float@everytoks=\toks46 | |
\@floatcapt=\box121 | 906 | 906 | \@floatcapt=\box121 | |
) | 907 | 907 | ) | |
\@float@every@algorithm=\toks47 | 908 | 908 | \@float@every@algorithm=\toks47 | |
\c@algorithm=\count338 | 909 | 909 | \c@algorithm=\count338 | |
) | 910 | 910 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algpseudocode.sty | 911 | 911 | (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algpseudocode.sty | |
Package: algpseudocode | 912 | 912 | Package: algpseudocode | |
913 | 913 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algorithmicx.sty | 914 | 914 | (/usr/local/texlive/2023/texmf-dist/tex/latex/algorithmicx/algorithmicx.sty | |
Package: algorithmicx 2005/04/27 v1.2 Algorithmicx | 915 | 915 | Package: algorithmicx 2005/04/27 v1.2 Algorithmicx | |
916 | 916 | |||
Document Style algorithmicx 1.2 - a greatly improved `algorithmic' style | 917 | 917 | Document Style algorithmicx 1.2 - a greatly improved `algorithmic' style | |
\c@ALG@line=\count339 | 918 | 918 | \c@ALG@line=\count339 | |
\c@ALG@rem=\count340 | 919 | 919 | \c@ALG@rem=\count340 | |
\c@ALG@nested=\count341 | 920 | 920 | \c@ALG@nested=\count341 | |
\ALG@tlm=\skip64 | 921 | 921 | \ALG@tlm=\skip64 | |
\ALG@thistlm=\skip65 | 922 | 922 | \ALG@thistlm=\skip65 | |
\c@ALG@Lnr=\count342 | 923 | 923 | \c@ALG@Lnr=\count342 | |
\c@ALG@blocknr=\count343 | 924 | 924 | \c@ALG@blocknr=\count343 | |
\c@ALG@storecount=\count344 | 925 | 925 | \c@ALG@storecount=\count344 | |
\c@ALG@tmpcounter=\count345 | 926 | 926 | \c@ALG@tmpcounter=\count345 | |
\ALG@tmplength=\skip66 | 927 | 927 | \ALG@tmplength=\skip66 | |
) | 928 | 928 | ) | |
Document Style - pseudocode environments for use with the `algorithmicx' style | 929 | 929 | Document Style - pseudocode environments for use with the `algorithmicx' style | |
) *** define extension value defensedate **** | 930 | 930 | ) *** define extension value defensedate **** | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/tools/layout.sty | 931 | 931 | (/usr/local/texlive/2023/texmf-dist/tex/latex/tools/layout.sty | |
Package: layout 2021-03-10 v1.2e Show layout parameters | 932 | 932 | Package: layout 2021-03-10 v1.2e Show layout parameters | |
\oneinch=\count346 | 933 | 933 | \oneinch=\count346 | |
\cnt@paperwidth=\count347 | 934 | 934 | \cnt@paperwidth=\count347 | |
\cnt@paperheight=\count348 | 935 | 935 | \cnt@paperheight=\count348 | |
\cnt@hoffset=\count349 | 936 | 936 | \cnt@hoffset=\count349 | |
\cnt@voffset=\count350 | 937 | 937 | \cnt@voffset=\count350 | |
\cnt@textheight=\count351 | 938 | 938 | \cnt@textheight=\count351 | |
\cnt@textwidth=\count352 | 939 | 939 | \cnt@textwidth=\count352 | |
\cnt@topmargin=\count353 | 940 | 940 | \cnt@topmargin=\count353 | |
\cnt@oddsidemargin=\count354 | 941 | 941 | \cnt@oddsidemargin=\count354 | |
\cnt@evensidemargin=\count355 | 942 | 942 | \cnt@evensidemargin=\count355 | |
\cnt@headheight=\count356 | 943 | 943 | \cnt@headheight=\count356 | |
\cnt@headsep=\count357 | 944 | 944 | \cnt@headsep=\count357 | |
\cnt@marginparsep=\count358 | 945 | 945 | \cnt@marginparsep=\count358 | |
\cnt@marginparwidth=\count359 | 946 | 946 | \cnt@marginparwidth=\count359 | |
\cnt@marginparpush=\count360 | 947 | 947 | \cnt@marginparpush=\count360 | |
\cnt@footskip=\count361 | 948 | 948 | \cnt@footskip=\count361 | |
\fheight=\count362 | 949 | 949 | \fheight=\count362 | |
\ref@top=\count363 | 950 | 950 | \ref@top=\count363 | |
\ref@hoffset=\count364 | 951 | 951 | \ref@hoffset=\count364 | |
\ref@voffset=\count365 | 952 | 952 | \ref@voffset=\count365 | |
\ref@head=\count366 | 953 | 953 | \ref@head=\count366 | |
\ref@body=\count367 | 954 | 954 | \ref@body=\count367 | |
\ref@foot=\count368 | 955 | 955 | \ref@foot=\count368 | |
\ref@margin=\count369 | 956 | 956 | \ref@margin=\count369 | |
\ref@marginwidth=\count370 | 957 | 957 | \ref@marginwidth=\count370 | |
\ref@marginpar=\count371 | 958 | 958 | \ref@marginpar=\count371 | |
\Interval=\count372 | 959 | 959 | \Interval=\count372 | |
\ExtraYPos=\count373 | 960 | 960 | \ExtraYPos=\count373 | |
\PositionX=\count374 | 961 | 961 | \PositionX=\count374 | |
\PositionY=\count375 | 962 | 962 | \PositionY=\count375 | |
\ArrowLength=\count376 | 963 | 963 | \ArrowLength=\count376 | |
) | 964 | 964 | ) | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/geometry/geometry.sty | 965 | 965 | (/usr/local/texlive/2023/texmf-dist/tex/latex/geometry/geometry.sty | |
Package: geometry 2020/01/02 v5.9 Page Geometry | 966 | 966 | Package: geometry 2020/01/02 v5.9 Page Geometry | |
967 | 967 | |||
(/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifvtex.sty | 968 | 968 | (/usr/local/texlive/2023/texmf-dist/tex/generic/iftex/ifvtex.sty | |
Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead. | 969 | 969 | Package: ifvtex 2019/10/25 v1.7 ifvtex legacy package. Use iftex instead. | |
) | 970 | 970 | ) | |
\Gm@cnth=\count377 | 971 | 971 | \Gm@cnth=\count377 | |
\Gm@cntv=\count378 | 972 | 972 | \Gm@cntv=\count378 | |
\c@Gm@tempcnt=\count379 | 973 | 973 | \c@Gm@tempcnt=\count379 | |
\Gm@bindingoffset=\dimen296 | 974 | 974 | \Gm@bindingoffset=\dimen296 | |
\Gm@wd@mp=\dimen297 | 975 | 975 | \Gm@wd@mp=\dimen297 | |
\Gm@odd@mp=\dimen298 | 976 | 976 | \Gm@odd@mp=\dimen298 | |
\Gm@even@mp=\dimen299 | 977 | 977 | \Gm@even@mp=\dimen299 | |
\Gm@layoutwidth=\dimen300 | 978 | 978 | \Gm@layoutwidth=\dimen300 | |
\Gm@layoutheight=\dimen301 | 979 | 979 | \Gm@layoutheight=\dimen301 | |
\Gm@layouthoffset=\dimen302 | 980 | 980 | \Gm@layouthoffset=\dimen302 | |
\Gm@layoutvoffset=\dimen303 | 981 | 981 | \Gm@layoutvoffset=\dimen303 | |
\Gm@dimlist=\toks48 | 982 | 982 | \Gm@dimlist=\toks48 | |
) (./main.aux | 983 | 983 | ) (./main.aux | |
(./chapters/contexte2.aux) (./chapters/EIAH.aux) (./chapters/CBR.aux) | 984 | 984 | (./chapters/contexte2.aux) (./chapters/EIAH.aux) (./chapters/CBR.aux) | |
(./chapters/Architecture.aux) (./chapters/ESCBR.aux) (./chapters/TS.aux | 985 | 985 | (./chapters/Architecture.aux) (./chapters/ESCBR.aux) (./chapters/TS.aux | |
986 | 986 | |||
LaTeX Warning: Label `eqBeta' multiply defined. | 987 | 987 | LaTeX Warning: Label `eqBeta' multiply defined. | |
988 | 988 | |||
989 | ||||
LaTeX Warning: Label `fig:Amodel' multiply defined. | 990 | |||
991 | ||||
992 | ||||
LaTeX Warning: Label `fig:stabilityBP' multiply defined. | 993 | |||
994 | ||||
) (./chapters/Conclusions.aux) (./chapters/Publications.aux)) | 995 | 989 | ) (./chapters/Conclusions.aux) (./chapters/Publications.aux)) | |
\openout1 = `main.aux'. | 996 | 990 | \openout1 = `main.aux'. | |
997 | 991 | |||
LaTeX Font Info: Checking defaults for OML/txmi/m/it on input line 231. | 998 | 992 | LaTeX Font Info: Checking defaults for OML/txmi/m/it on input line 231. | |
LaTeX Font Info: Trying to load font information for OML+txmi on input line | 999 | 993 | LaTeX Font Info: Trying to load font information for OML+txmi on input line | |
231. | 1000 | 994 | 231. | |
1001 | 995 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omltxmi.fd | 1002 | 996 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omltxmi.fd | |
File: omltxmi.fd 2000/12/15 v3.1 | 1003 | 997 | File: omltxmi.fd 2000/12/15 v3.1 | |
) | 1004 | 998 | ) | |
LaTeX Font Info: ... okay on input line 231. | 1005 | 999 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for OMS/txsy/m/n on input line 231. | 1006 | 1000 | LaTeX Font Info: Checking defaults for OMS/txsy/m/n on input line 231. | |
LaTeX Font Info: Trying to load font information for OMS+txsy on input line | 1007 | 1001 | LaTeX Font Info: Trying to load font information for OMS+txsy on input line | |
231. | 1008 | 1002 | 231. | |
1009 | 1003 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omstxsy.fd | 1010 | 1004 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omstxsy.fd | |
File: omstxsy.fd 2000/12/15 v3.1 | 1011 | 1005 | File: omstxsy.fd 2000/12/15 v3.1 | |
) | 1012 | 1006 | ) | |
LaTeX Font Info: ... okay on input line 231. | 1013 | 1007 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for OT1/cmr/m/n on input line 231. | 1014 | 1008 | LaTeX Font Info: Checking defaults for OT1/cmr/m/n on input line 231. | |
LaTeX Font Info: ... okay on input line 231. | 1015 | 1009 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for T1/cmr/m/n on input line 231. | 1016 | 1010 | LaTeX Font Info: Checking defaults for T1/cmr/m/n on input line 231. | |
LaTeX Font Info: ... okay on input line 231. | 1017 | 1011 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for TS1/cmr/m/n on input line 231. | 1018 | 1012 | LaTeX Font Info: Checking defaults for TS1/cmr/m/n on input line 231. | |
LaTeX Font Info: ... okay on input line 231. | 1019 | 1013 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for OMX/txex/m/n on input line 231. | 1020 | 1014 | LaTeX Font Info: Checking defaults for OMX/txex/m/n on input line 231. | |
LaTeX Font Info: Trying to load font information for OMX+txex on input line | 1021 | 1015 | LaTeX Font Info: Trying to load font information for OMX+txex on input line | |
231. | 1022 | 1016 | 231. | |
1023 | 1017 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omxtxex.fd | 1024 | 1018 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/omxtxex.fd | |
File: omxtxex.fd 2000/12/15 v3.1 | 1025 | 1019 | File: omxtxex.fd 2000/12/15 v3.1 | |
) | 1026 | 1020 | ) | |
LaTeX Font Info: ... okay on input line 231. | 1027 | 1021 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for U/txexa/m/n on input line 231. | 1028 | 1022 | LaTeX Font Info: Checking defaults for U/txexa/m/n on input line 231. | |
LaTeX Font Info: Trying to load font information for U+txexa on input line 2 | 1029 | 1023 | LaTeX Font Info: Trying to load font information for U+txexa on input line 2 | |
31. | 1030 | 1024 | 31. | |
1031 | 1025 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxexa.fd | 1032 | 1026 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxexa.fd | |
File: utxexa.fd 2000/12/15 v3.1 | 1033 | 1027 | File: utxexa.fd 2000/12/15 v3.1 | |
) | 1034 | 1028 | ) | |
LaTeX Font Info: ... okay on input line 231. | 1035 | 1029 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for PD1/pdf/m/n on input line 231. | 1036 | 1030 | LaTeX Font Info: Checking defaults for PD1/pdf/m/n on input line 231. | |
LaTeX Font Info: ... okay on input line 231. | 1037 | 1031 | LaTeX Font Info: ... okay on input line 231. | |
LaTeX Font Info: Checking defaults for PU/pdf/m/n on input line 231. | 1038 | 1032 | LaTeX Font Info: Checking defaults for PU/pdf/m/n on input line 231. | |
LaTeX Font Info: ... okay on input line 231. | 1039 | 1033 | LaTeX Font Info: ... okay on input line 231. | |
1040 | 1034 | |||
(/usr/local/texlive/2023/texmf-dist/tex/context/base/mkii/supp-pdf.mkii | 1041 | 1035 | (/usr/local/texlive/2023/texmf-dist/tex/context/base/mkii/supp-pdf.mkii | |
[Loading MPS to PDF converter (version 2006.09.02).] | 1042 | 1036 | [Loading MPS to PDF converter (version 2006.09.02).] | |
\scratchcounter=\count380 | 1043 | 1037 | \scratchcounter=\count380 | |
\scratchdimen=\dimen304 | 1044 | 1038 | \scratchdimen=\dimen304 | |
\scratchbox=\box122 | 1045 | 1039 | \scratchbox=\box122 | |
\nofMPsegments=\count381 | 1046 | 1040 | \nofMPsegments=\count381 | |
\nofMParguments=\count382 | 1047 | 1041 | \nofMParguments=\count382 | |
\everyMPshowfont=\toks49 | 1048 | 1042 | \everyMPshowfont=\toks49 | |
\MPscratchCnt=\count383 | 1049 | 1043 | \MPscratchCnt=\count383 | |
\MPscratchDim=\dimen305 | 1050 | 1044 | \MPscratchDim=\dimen305 | |
\MPnumerator=\count384 | 1051 | 1045 | \MPnumerator=\count384 | |
\makeMPintoPDFobject=\count385 | 1052 | 1046 | \makeMPintoPDFobject=\count385 | |
\everyMPtoPDFconversion=\toks50 | 1053 | 1047 | \everyMPtoPDFconversion=\toks50 | |
) (/usr/local/texlive/2023/texmf-dist/tex/latex/epstopdf-pkg/epstopdf-base.sty | 1054 | 1048 | ) (/usr/local/texlive/2023/texmf-dist/tex/latex/epstopdf-pkg/epstopdf-base.sty | |
Package: epstopdf-base 2020-01-24 v2.11 Base part for package epstopdf | 1055 | 1049 | Package: epstopdf-base 2020-01-24 v2.11 Base part for package epstopdf | |
Package epstopdf-base Info: Redefining graphics rule for `.eps' on input line 4 | 1056 | 1050 | Package epstopdf-base Info: Redefining graphics rule for `.eps' on input line 4 | |
85. | 1057 | 1051 | 85. | |
1058 | 1052 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/latexconfig/epstopdf-sys.cfg | 1059 | 1053 | (/usr/local/texlive/2023/texmf-dist/tex/latex/latexconfig/epstopdf-sys.cfg | |
File: epstopdf-sys.cfg 2010/07/13 v1.3 Configuration of (r)epstopdf for TeX Liv | 1060 | 1054 | File: epstopdf-sys.cfg 2010/07/13 v1.3 Configuration of (r)epstopdf for TeX Liv | |
e | 1061 | 1055 | e | |
)) | 1062 | 1056 | )) | |
LaTeX Info: Redefining \degres on input line 231. | 1063 | 1057 | LaTeX Info: Redefining \degres on input line 231. | |
LaTeX Info: Redefining \up on input line 231. | 1064 | 1058 | LaTeX Info: Redefining \up on input line 231. | |
Package caption Info: Begin \AtBeginDocument code. | 1065 | 1059 | Package caption Info: Begin \AtBeginDocument code. | |
Package caption Info: float package is loaded. | 1066 | 1060 | Package caption Info: float package is loaded. | |
Package caption Info: hyperref package is loaded. | 1067 | 1061 | Package caption Info: hyperref package is loaded. | |
Package caption Info: picinpar package is loaded. | 1068 | 1062 | Package caption Info: picinpar package is loaded. | |
Package caption Info: End \AtBeginDocument code. | 1069 | 1063 | Package caption Info: End \AtBeginDocument code. | |
1070 | 1064 | |||
*** Overriding the 'enumerate' environment. Pass option 'standardlists' for avo | 1071 | 1065 | *** Overriding the 'enumerate' environment. Pass option 'standardlists' for avo | |
iding this override. | 1072 | 1066 | iding this override. | |
*** Overriding the 'description' environment. Pass option 'standardlists' for a | 1073 | 1067 | *** Overriding the 'description' environment. Pass option 'standardlists' for a | |
voiding this override. ************ USE CUSTOM FRONT COVER | 1074 | 1068 | voiding this override. ************ USE CUSTOM FRONT COVER | |
Package hyperref Info: Link coloring OFF on input line 231. | 1075 | 1069 | Package hyperref Info: Link coloring OFF on input line 231. | |
(./main.out) | 1076 | 1070 | (./main.out) | |
(./main.out) | 1077 | 1071 | (./main.out) | |
\@outlinefile=\write3 | 1078 | 1072 | \@outlinefile=\write3 | |
\openout3 = `main.out'. | 1079 | 1073 | \openout3 = `main.out'. | |
1080 | 1074 | |||
1081 | 1075 | |||
*geometry* driver: auto-detecting | 1082 | 1076 | *geometry* driver: auto-detecting | |
*geometry* detected driver: pdftex | 1083 | 1077 | *geometry* detected driver: pdftex | |
*geometry* verbose mode - [ preamble ] result: | 1084 | 1078 | *geometry* verbose mode - [ preamble ] result: | |
* pass: disregarded the geometry package! | 1085 | 1079 | * pass: disregarded the geometry package! | |
* \paperwidth=598.14806pt | 1086 | 1080 | * \paperwidth=598.14806pt | |
* \paperheight=845.90042pt | 1087 | 1081 | * \paperheight=845.90042pt | |
* \textwidth=427.43153pt | 1088 | 1082 | * \textwidth=427.43153pt | |
* \textheight=671.71976pt | 1089 | 1083 | * \textheight=671.71976pt | |
* \oddsidemargin=99.58464pt | 1090 | 1084 | * \oddsidemargin=99.58464pt | |
* \evensidemargin=71.13188pt | 1091 | 1085 | * \evensidemargin=71.13188pt | |
* \topmargin=56.9055pt | 1092 | 1086 | * \topmargin=56.9055pt | |
* \headheight=12.0pt | 1093 | 1087 | * \headheight=12.0pt | |
* \headsep=31.29802pt | 1094 | 1088 | * \headsep=31.29802pt | |
* \topskip=11.0pt | 1095 | 1089 | * \topskip=11.0pt | |
* \footskip=31.29802pt | 1096 | 1090 | * \footskip=31.29802pt | |
* \marginparwidth=54.2025pt | 1097 | 1091 | * \marginparwidth=54.2025pt | |
* \marginparsep=7.0pt | 1098 | 1092 | * \marginparsep=7.0pt | |
* \columnsep=10.0pt | 1099 | 1093 | * \columnsep=10.0pt | |
* \skip\footins=10.0pt plus 4.0pt minus 2.0pt | 1100 | 1094 | * \skip\footins=10.0pt plus 4.0pt minus 2.0pt | |
* \hoffset=-72.26999pt | 1101 | 1095 | * \hoffset=-72.26999pt | |
* \voffset=-72.26999pt | 1102 | 1096 | * \voffset=-72.26999pt | |
* \mag=1000 | 1103 | 1097 | * \mag=1000 | |
* \@twocolumnfalse | 1104 | 1098 | * \@twocolumnfalse | |
* \@twosidetrue | 1105 | 1099 | * \@twosidetrue | |
* \@mparswitchtrue | 1106 | 1100 | * \@mparswitchtrue | |
* \@reversemarginfalse | 1107 | 1101 | * \@reversemarginfalse | |
* (1in=72.27pt=25.4mm, 1cm=28.453pt) | 1108 | 1102 | * (1in=72.27pt=25.4mm, 1cm=28.453pt) | |
1109 | 1103 | |||
*geometry* verbose mode - [ newgeometry ] result: | 1110 | 1104 | *geometry* verbose mode - [ newgeometry ] result: | |
* driver: pdftex | 1111 | 1105 | * driver: pdftex | |
* paper: a4paper | 1112 | 1106 | * paper: a4paper | |
* layout: <same size as paper> | 1113 | 1107 | * layout: <same size as paper> | |
* layoutoffset:(h,v)=(0.0pt,0.0pt) | 1114 | 1108 | * layoutoffset:(h,v)=(0.0pt,0.0pt) | |
* modes: twoside | 1115 | 1109 | * modes: twoside | |
* h-part:(L,W,R)=(170.71652pt, 355.65306pt, 71.77847pt) | 1116 | 1110 | * h-part:(L,W,R)=(170.71652pt, 355.65306pt, 71.77847pt) | |
* v-part:(T,H,B)=(101.50906pt, 741.54591pt, 2.84544pt) | 1117 | 1111 | * v-part:(T,H,B)=(101.50906pt, 741.54591pt, 2.84544pt) | |
* \paperwidth=598.14806pt | 1118 | 1112 | * \paperwidth=598.14806pt | |
* \paperheight=845.90042pt | 1119 | 1113 | * \paperheight=845.90042pt | |
* \textwidth=355.65306pt | 1120 | 1114 | * \textwidth=355.65306pt | |
* \textheight=741.54591pt | 1121 | 1115 | * \textheight=741.54591pt | |
* \oddsidemargin=98.44653pt | 1122 | 1116 | * \oddsidemargin=98.44653pt | |
* \evensidemargin=-0.49152pt | 1123 | 1117 | * \evensidemargin=-0.49152pt | |
* \topmargin=-14.05894pt | 1124 | 1118 | * \topmargin=-14.05894pt | |
* \headheight=12.0pt | 1125 | 1119 | * \headheight=12.0pt | |
* \headsep=31.29802pt | 1126 | 1120 | * \headsep=31.29802pt | |
* \topskip=11.0pt | 1127 | 1121 | * \topskip=11.0pt | |
* \footskip=31.29802pt | 1128 | 1122 | * \footskip=31.29802pt | |
* \marginparwidth=54.2025pt | 1129 | 1123 | * \marginparwidth=54.2025pt | |
* \marginparsep=7.0pt | 1130 | 1124 | * \marginparsep=7.0pt | |
* \columnsep=10.0pt | 1131 | 1125 | * \columnsep=10.0pt | |
* \skip\footins=10.0pt plus 4.0pt minus 2.0pt | 1132 | 1126 | * \skip\footins=10.0pt plus 4.0pt minus 2.0pt | |
* \hoffset=-72.26999pt | 1133 | 1127 | * \hoffset=-72.26999pt | |
* \voffset=-72.26999pt | 1134 | 1128 | * \voffset=-72.26999pt | |
* \mag=1000 | 1135 | 1129 | * \mag=1000 | |
* \@twocolumnfalse | 1136 | 1130 | * \@twocolumnfalse | |
* \@twosidetrue | 1137 | 1131 | * \@twosidetrue | |
* \@mparswitchtrue | 1138 | 1132 | * \@mparswitchtrue | |
* \@reversemarginfalse | 1139 | 1133 | * \@reversemarginfalse | |
* (1in=72.27pt=25.4mm, 1cm=28.453pt) | 1140 | 1134 | * (1in=72.27pt=25.4mm, 1cm=28.453pt) | |
1141 | 1135 | |||
<images_logos/image1_logoUBFC_grand.png, id=385, 610.4406pt x 217.0509pt> | 1142 | 1136 | <images_logos/image1_logoUBFC_grand.png, id=377, 610.4406pt x 217.0509pt> | |
File: images_logos/image1_logoUBFC_grand.png Graphic file (type png) | 1143 | 1137 | File: images_logos/image1_logoUBFC_grand.png Graphic file (type png) | |
<use images_logos/image1_logoUBFC_grand.png> | 1144 | 1138 | <use images_logos/image1_logoUBFC_grand.png> | |
Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input | 1145 | 1139 | Package pdftex.def Info: images_logos/image1_logoUBFC_grand.png used on input | |
line 237. | 1146 | 1140 | line 237. | |
(pdftex.def) Requested size: 142.25905pt x 50.57973pt. | 1147 | 1141 | (pdftex.def) Requested size: 142.25905pt x 50.57973pt. | |
<images_logos/logo_UFC_2018_transparence.png, id=387, 104.5506pt x 34.6896pt> | 1148 | 1142 | <images_logos/logo_UFC_2018_transparence.png, id=379, 104.5506pt x 34.6896pt> | |
File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png) | 1149 | 1143 | File: images_logos/logo_UFC_2018_transparence.png Graphic file (type png) | |
<use images_logos/logo_UFC_2018_transparence.png> | 1150 | 1144 | <use images_logos/logo_UFC_2018_transparence.png> | |
Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i | 1151 | 1145 | Package pdftex.def Info: images_logos/logo_UFC_2018_transparence.png used on i | |
nput line 237. | 1152 | 1146 | nput line 237. | |
(pdftex.def) Requested size: 142.25905pt x 47.20264pt. | 1153 | 1147 | (pdftex.def) Requested size: 142.25905pt x 47.20264pt. | |
LaTeX Font Info: Trying to load font information for OT1+txr on input line 2 | 1154 | 1148 | LaTeX Font Info: Trying to load font information for OT1+txr on input line 2 | |
48. | 1155 | 1149 | 48. | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/ot1txr.fd | 1156 | 1150 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/ot1txr.fd | |
File: ot1txr.fd 2000/12/15 v3.1 | 1157 | 1151 | File: ot1txr.fd 2000/12/15 v3.1 | |
) | 1158 | 1152 | ) | |
LaTeX Font Info: Trying to load font information for U+txmia on input line 2 | 1159 | 1153 | LaTeX Font Info: Trying to load font information for U+txmia on input line 2 | |
48. | 1160 | 1154 | 48. | |
1161 | 1155 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxmia.fd | 1162 | 1156 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxmia.fd | |
File: utxmia.fd 2000/12/15 v3.1 | 1163 | 1157 | File: utxmia.fd 2000/12/15 v3.1 | |
) | 1164 | 1158 | ) | |
LaTeX Font Info: Trying to load font information for U+txsya on input line 2 | 1165 | 1159 | LaTeX Font Info: Trying to load font information for U+txsya on input line 2 | |
48. | 1166 | 1160 | 48. | |
1167 | 1161 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsya.fd | 1168 | 1162 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsya.fd | |
File: utxsya.fd 2000/12/15 v3.1 | 1169 | 1163 | File: utxsya.fd 2000/12/15 v3.1 | |
) | 1170 | 1164 | ) | |
LaTeX Font Info: Trying to load font information for U+txsyb on input line 2 | 1171 | 1165 | LaTeX Font Info: Trying to load font information for U+txsyb on input line 2 | |
48. | 1172 | 1166 | 48. | |
1173 | 1167 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyb.fd | 1174 | 1168 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyb.fd | |
File: utxsyb.fd 2000/12/15 v3.1 | 1175 | 1169 | File: utxsyb.fd 2000/12/15 v3.1 | |
) | 1176 | 1170 | ) | |
LaTeX Font Info: Trying to load font information for U+txsyc on input line 2 | 1177 | 1171 | LaTeX Font Info: Trying to load font information for U+txsyc on input line 2 | |
48. | 1178 | 1172 | 48. | |
1179 | 1173 | |||
(/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyc.fd | 1180 | 1174 | (/usr/local/texlive/2023/texmf-dist/tex/latex/txfonts/utxsyc.fd | |
File: utxsyc.fd 2000/12/15 v3.1 | 1181 | 1175 | File: utxsyc.fd 2000/12/15 v3.1 | |
) [1 | 1182 | 1176 | ) [1 | |
1183 | 1177 | |||
1184 | 1178 | |||
1185 | 1179 | |||
1186 | 1180 | |||
{/usr/local/texlive/2023/texmf-var/fonts/map/pdftex/updmap/pdftex.map}{/usr/loc | 1187 | 1181 | {/usr/local/texlive/2023/texmf-var/fonts/map/pdftex/updmap/pdftex.map}{/usr/loc | |
al/texlive/2023/texmf-dist/fonts/enc/dvips/base/8r.enc} <./images_logos/image1_ | 1188 | 1182 | al/texlive/2023/texmf-dist/fonts/enc/dvips/base/8r.enc} <./images_logos/image1_ | |
logoUBFC_grand.png> <./images_logos/logo_UFC_2018_transparence.png>] [2 | 1189 | 1183 | logoUBFC_grand.png> <./images_logos/logo_UFC_2018_transparence.png>] [2 | |
1190 | 1184 | |||
1191 | 1185 | |||
] [3] [4] | 1192 | 1186 | ] [3] [4] | |
(./main.toc | 1193 | 1187 | (./main.toc | |
LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available | 1194 | 1188 | LaTeX Font Info: Font shape `T1/phv/m/it' in size <10.95> not available | |
(Font) Font shape `T1/phv/m/sl' tried instead on input line 24. | 1195 | 1189 | (Font) Font shape `T1/phv/m/sl' tried instead on input line 24. | |
1196 | 1190 | |||
Underfull \vbox (badness 1043) has occurred while \output is active [] | 1197 | 1191 | Underfull \vbox (badness 1043) has occurred while \output is active [] | |
1198 | 1192 | |||
[5 | 1199 | 1193 | [5 | |
1200 | 1194 | |||
] | 1201 | 1195 | ] | |
[6] [7] | 1202 | 1196 | [6] [7] | |
Overfull \hbox (1.29184pt too wide) detected at line 89 | 1203 | 1197 | Overfull \hbox (1.29184pt too wide) detected at line 88 | |
[][]\T1/phv/m/n/10.95 100[] | 1204 | 1198 | [][]\T1/phv/m/n/10.95 100[] | |
[] | 1205 | 1199 | [] | |
1206 | 1200 | |||
1207 | 1201 | |||
Overfull \hbox (1.29184pt too wide) detected at line 90 | 1208 | 1202 | Overfull \hbox (1.29184pt too wide) detected at line 90 | |
[][]\T1/phv/m/n/10.95 100[] | 1209 | |||
[] | 1210 | |||
1211 | ||||
1212 | ||||
Overfull \hbox (1.29184pt too wide) detected at line 92 | 1213 | |||
[][]\T1/phv/m/n/10.95 103[] | 1214 | 1203 | [][]\T1/phv/m/n/10.95 103[] | |
[] | 1215 | 1204 | [] | |
1216 | 1205 | |||
1217 | 1206 | |||
Overfull \hbox (1.29184pt too wide) detected at line 93 | 1218 | 1207 | Overfull \hbox (1.29184pt too wide) detected at line 91 | |
[][]\T1/phv/m/n/10.95 105[] | 1219 | 1208 | [][]\T1/phv/m/n/10.95 105[] | |
[] | 1220 | 1209 | [] | |
1221 | 1210 | |||
1222 | 1211 | |||
Overfull \hbox (1.29184pt too wide) detected at line 95 | 1223 | 1212 | Overfull \hbox (1.29184pt too wide) detected at line 93 | |
[][]\T1/phv/m/n/10.95 107[] | 1224 | 1213 | [][]\T1/phv/m/n/10.95 107[] | |
[] | 1225 | 1214 | [] | |
1226 | 1215 | |||
1227 | 1216 | |||
Overfull \hbox (1.29184pt too wide) detected at line 96 | 1228 | 1217 | Overfull \hbox (1.29184pt too wide) detected at line 94 | |
[][]\T1/phv/m/n/10.95 108[] | 1229 | 1218 | [][]\T1/phv/m/n/10.95 108[] | |
[] | 1230 | 1219 | [] | |
1231 | 1220 | |||
) | 1232 | 1221 | ) | |
\tf@toc=\write4 | 1233 | 1222 | \tf@toc=\write4 | |
\openout4 = `main.toc'. | 1234 | 1223 | \openout4 = `main.toc'. | |
1235 | 1224 | |||
[8] [1 | 1236 | 1225 | [8] [1 | |
1237 | 1226 | |||
1238 | 1227 | |||
] [2] | 1239 | 1228 | ] [2] | |
Chapitre 1. | 1240 | 1229 | Chapitre 1. | |
Package lettrine.sty Info: Targeted height = 19.96736pt | 1241 | 1230 | Package lettrine.sty Info: Targeted height = 19.96736pt | |
(lettrine.sty) (for loversize=0, accent excluded), | 1242 | 1231 | (lettrine.sty) (for loversize=0, accent excluded), | |
(lettrine.sty) Lettrine height = 20.612pt (\uppercase {C}); | 1243 | 1232 | (lettrine.sty) Lettrine height = 20.612pt (\uppercase {C}); | |
(lettrine.sty) reported on input line 340. | 1244 | 1233 | (lettrine.sty) reported on input line 342. | |
1245 | 1234 | |||
Overfull \hbox (6.79999pt too wide) in paragraph at lines 340--340 | 1246 | 1235 | Overfull \hbox (6.79999pt too wide) in paragraph at lines 342--342 | |
[][][][] | 1247 | 1236 | [][][][] | |
[] | 1248 | 1237 | [] | |
1249 | 1238 | |||
1250 | 1239 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1251 | 1240 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1252 | 1241 | |||
[3 | 1253 | 1242 | [3 | |
1254 | 1243 | |||
] | 1255 | 1244 | ] | |
[4] [5] [6 | 1256 | 1245 | [4] [5] [6 | |
1257 | 1246 | |||
] [7] [8] | 1258 | 1247 | ] [7] [8] | |
\openout2 = `./chapters/contexte2.aux'. | 1259 | 1248 | \openout2 = `./chapters/contexte2.aux'. | |
1260 | 1249 | |||
(./chapters/contexte2.tex | 1261 | 1250 | (./chapters/contexte2.tex | |
Chapitre 2. | 1262 | 1251 | Chapitre 2. | |
<./Figures/TLearning.png, id=566, 603.25375pt x 331.2375pt> | 1263 | 1252 | <./Figures/TLearning.png, id=556, 603.25375pt x 331.2375pt> | |
File: ./Figures/TLearning.png Graphic file (type png) | 1264 | 1253 | File: ./Figures/TLearning.png Graphic file (type png) | |
<use ./Figures/TLearning.png> | 1265 | 1254 | <use ./Figures/TLearning.png> | |
Package pdftex.def Info: ./Figures/TLearning.png used on input line 15. | 1266 | 1255 | Package pdftex.def Info: ./Figures/TLearning.png used on input line 15. | |
(pdftex.def) Requested size: 427.43153pt x 234.69505pt. | 1267 | 1256 | (pdftex.def) Requested size: 427.43153pt x 234.69505pt. | |
[9 | 1268 | 1257 | [9 | |
1269 | 1258 | |||
1270 | 1259 | |||
] | 1271 | 1260 | ] | |
<./Figures/EIAH.png, id=575, 643.40375pt x 362.35374pt> | 1272 | 1261 | <./Figures/EIAH.png, id=565, 643.40375pt x 362.35374pt> | |
File: ./Figures/EIAH.png Graphic file (type png) | 1273 | 1262 | File: ./Figures/EIAH.png Graphic file (type png) | |
<use ./Figures/EIAH.png> | 1274 | 1263 | <use ./Figures/EIAH.png> | |
Package pdftex.def Info: ./Figures/EIAH.png used on input line 32. | 1275 | 1264 | Package pdftex.def Info: ./Figures/EIAH.png used on input line 32. | |
(pdftex.def) Requested size: 427.43153pt x 240.73pt. | 1276 | 1265 | (pdftex.def) Requested size: 427.43153pt x 240.73pt. | |
1277 | 1266 | |||
1278 | 1267 | |||
LaTeX Warning: `!h' float specifier changed to `!ht'. | 1279 | 1268 | LaTeX Warning: `!h' float specifier changed to `!ht'. | |
1280 | 1269 | |||
[10 <./Figures/TLearning.png>] [11 <./Figures/EIAH.png>] [12] | 1281 | 1270 | [10 <./Figures/TLearning.png>] [11 <./Figures/EIAH.png>] [12] | |
<./Figures/cycle.png, id=603, 668.4975pt x 665.48625pt> | 1282 | 1271 | <./Figures/cycle.png, id=593, 668.4975pt x 665.48625pt> | |
File: ./Figures/cycle.png Graphic file (type png) | 1283 | 1272 | File: ./Figures/cycle.png Graphic file (type png) | |
<use ./Figures/cycle.png> | 1284 | 1273 | <use ./Figures/cycle.png> | |
Package pdftex.def Info: ./Figures/cycle.png used on input line 83. | 1285 | 1274 | Package pdftex.def Info: ./Figures/cycle.png used on input line 83. | |
(pdftex.def) Requested size: 427.43153pt x 425.51372pt. | 1286 | 1275 | (pdftex.def) Requested size: 427.43153pt x 425.51372pt. | |
[13 <./Figures/cycle.png>] | 1287 | 1276 | [13 <./Figures/cycle.png>] | |
<./Figures/Reuse.png, id=625, 383.4325pt x 182.6825pt> | 1288 | 1277 | <./Figures/Reuse.png, id=615, 383.4325pt x 182.6825pt> | |
File: ./Figures/Reuse.png Graphic file (type png) | 1289 | 1278 | File: ./Figures/Reuse.png Graphic file (type png) | |
<use ./Figures/Reuse.png> | 1290 | 1279 | <use ./Figures/Reuse.png> | |
Package pdftex.def Info: ./Figures/Reuse.png used on input line 112. | 1291 | 1280 | Package pdftex.def Info: ./Figures/Reuse.png used on input line 112. | |
(pdftex.def) Requested size: 299.20076pt x 142.55865pt. | 1292 | 1281 | (pdftex.def) Requested size: 299.20076pt x 142.55865pt. | |
1293 | 1282 | |||
Underfull \hbox (badness 10000) in paragraph at lines 112--112 | 1294 | 1283 | Underfull \hbox (badness 10000) in paragraph at lines 112--112 | |
[]\T1/phv/m/sc/10.95 Figure 2.4 \T1/phv/m/n/10.95 ^^U |Prin-cipe de réuti-li-sa | 1295 | 1284 | []\T1/phv/m/sc/10.95 Figure 2.4 \T1/phv/m/n/10.95 ^^U |Prin-cipe de réuti-li-sa | |
-tion dans le RàPC (Tra-duit de | 1296 | 1285 | -tion dans le RàPC (Tra-duit de | |
[] | 1297 | 1286 | [] | |
1298 | 1287 | |||
[14] | 1299 | 1288 | [14] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1300 | 1289 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1301 | 1290 | |||
[15 <./Figures/Reuse.png>] | 1302 | 1291 | [15 <./Figures/Reuse.png>] | |
<./Figures/CycleCBR.png, id=646, 147.1899pt x 83.8332pt> | 1303 | 1292 | <./Figures/CycleCBR.png, id=635, 147.1899pt x 83.8332pt> | |
File: ./Figures/CycleCBR.png Graphic file (type png) | 1304 | 1293 | File: ./Figures/CycleCBR.png Graphic file (type png) | |
<use ./Figures/CycleCBR.png> | 1305 | 1294 | <use ./Figures/CycleCBR.png> | |
Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156. | 1306 | 1295 | Package pdftex.def Info: ./Figures/CycleCBR.png used on input line 156. | |
(pdftex.def) Requested size: 427.43153pt x 243.45026pt. | 1307 | 1296 | (pdftex.def) Requested size: 427.43153pt x 243.45026pt. | |
1308 | 1297 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1309 | 1298 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1310 | 1299 | |||
[16 <./Figures/CycleCBR.png>] | 1311 | 1300 | [16 <./Figures/CycleCBR.png>] | |
Underfull \vbox (badness 3189) has occurred while \output is active [] | 1312 | 1301 | Underfull \vbox (badness 3189) has occurred while \output is active [] | |
1313 | 1302 | |||
[17] | 1314 | 1303 | [17] | |
[18] | 1315 | 1304 | [18] | |
1316 | 1305 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1317 | 1306 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1318 | 1307 | 65. | |
1319 | 1308 | |||
LaTeX Font Info: Trying to load font information for TS1+phv on input line 2 | 1320 | 1309 | LaTeX Font Info: Trying to load font information for TS1+phv on input line 2 | |
65. | 1321 | 1310 | 65. | |
(/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/ts1phv.fd | 1322 | 1311 | (/usr/local/texlive/2023/texmf-dist/tex/latex/psnfss/ts1phv.fd | |
File: ts1phv.fd 2020/03/25 scalable font definitions for TS1/phv. | 1323 | 1312 | File: ts1phv.fd 2020/03/25 scalable font definitions for TS1/phv. | |
) | 1324 | 1313 | ) | |
1325 | 1314 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1326 | 1315 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1327 | 1316 | 65. | |
1328 | 1317 | |||
1329 | 1318 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1330 | 1319 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1331 | 1320 | 65. | |
1332 | 1321 | |||
1333 | 1322 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1334 | 1323 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1335 | 1324 | 65. | |
1336 | 1325 | |||
1337 | 1326 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1338 | 1327 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1339 | 1328 | 65. | |
1340 | 1329 | |||
1341 | 1330 | |||
LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | 1342 | 1331 | LaTeX Warning: Command \textperiodcentered invalid in math mode on input line 2 | |
65. | 1343 | 1332 | 65. | |
1344 | 1333 | |||
Missing character: There is no · in font txr! | 1345 | 1334 | Missing character: There is no · in font txr! | |
Missing character: There is no · in font txr! | 1346 | 1335 | Missing character: There is no · in font txr! | |
Missing character: There is no · in font txr! | 1347 | 1336 | Missing character: There is no · in font txr! | |
1348 | 1337 | |||
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | 1349 | 1338 | LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | |
(Font) using `T1/phv/m/it' instead on input line 284. | 1350 | 1339 | (Font) using `T1/phv/m/it' instead on input line 284. | |
1351 | 1340 | |||
[19] [20] | 1352 | 1341 | [19] [20] | |
1353 | 1342 | |||
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | 1354 | 1343 | LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | |
(Font) using `T1/phv/m/it' instead on input line 333. | 1355 | 1344 | (Font) using `T1/phv/m/it' instead on input line 333. | |
1356 | 1345 | |||
1357 | 1346 | |||
LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | 1358 | 1347 | LaTeX Font Warning: Font shape `T1/phv/m/scit' undefined | |
(Font) using `T1/phv/m/it' instead on input line 337. | 1359 | 1348 | (Font) using `T1/phv/m/it' instead on input line 337. | |
1360 | 1349 | |||
<./Figures/beta-distribution.png, id=722, 621.11293pt x 480.07928pt> | 1361 | 1350 | <./Figures/beta-distribution.png, id=712, 621.11293pt x 480.07928pt> | |
File: ./Figures/beta-distribution.png Graphic file (type png) | 1362 | 1351 | File: ./Figures/beta-distribution.png Graphic file (type png) | |
<use ./Figures/beta-distribution.png> | 1363 | 1352 | <use ./Figures/beta-distribution.png> | |
Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34 | 1364 | 1353 | Package pdftex.def Info: ./Figures/beta-distribution.png used on input line 34 | |
5. | 1365 | 1354 | 5. | |
(pdftex.def) Requested size: 427.43153pt x 330.38333pt. | 1366 | 1355 | (pdftex.def) Requested size: 427.43153pt x 330.38333pt. | |
[21]) [22 <./Figures/beta-distribution.png>] | 1367 | 1356 | [21]) [22 <./Figures/beta-distribution.png>] | |
\openout2 = `./chapters/EIAH.aux'. | 1368 | 1357 | \openout2 = `./chapters/EIAH.aux'. | |
1369 | 1358 | |||
(./chapters/EIAH.tex | 1370 | 1359 | (./chapters/EIAH.tex | |
Chapitre 3. | 1371 | 1360 | Chapitre 3. | |
[23 | 1372 | 1361 | [23 | |
1373 | 1362 | |||
1374 | 1363 | |||
1375 | 1364 | |||
1376 | 1365 | |||
] | 1377 | 1366 | ] | |
Underfull \hbox (badness 10000) in paragraph at lines 24--25 | 1378 | 1367 | Underfull \hbox (badness 10000) in paragraph at lines 24--25 | |
[]\T1/phv/m/n/10.95 Les tech-niques d'IA peuvent aussi ai-der à prendre des dé- | 1379 | 1368 | []\T1/phv/m/n/10.95 Les tech-niques d'IA peuvent aussi ai-der à prendre des dé- | |
ci-sions stra-té- | 1380 | 1369 | ci-sions stra-té- | |
[] | 1381 | 1370 | [] | |
1382 | 1371 | |||
1383 | 1372 | |||
Underfull \hbox (badness 1874) in paragraph at lines 24--25 | 1384 | 1373 | Underfull \hbox (badness 1874) in paragraph at lines 24--25 | |
\T1/phv/m/n/10.95 giques vi-sant des ob-jec-tifs à longue échéance comme le mon | 1385 | 1374 | \T1/phv/m/n/10.95 giques vi-sant des ob-jec-tifs à longue échéance comme le mon | |
tre le tra-vail de | 1386 | 1375 | tre le tra-vail de | |
[] | 1387 | 1376 | [] | |
1388 | 1377 | |||
<./Figures/architecture.png, id=752, 776.9025pt x 454.69875pt> | 1389 | 1378 | <./Figures/architecture.png, id=742, 776.9025pt x 454.69875pt> | |
File: ./Figures/architecture.png Graphic file (type png) | 1390 | 1379 | File: ./Figures/architecture.png Graphic file (type png) | |
<use ./Figures/architecture.png> | 1391 | 1380 | <use ./Figures/architecture.png> | |
Package pdftex.def Info: ./Figures/architecture.png used on input line 38. | 1392 | 1381 | Package pdftex.def Info: ./Figures/architecture.png used on input line 38. | |
(pdftex.def) Requested size: 427.43153pt x 250.16833pt. | 1393 | 1382 | (pdftex.def) Requested size: 427.43153pt x 250.16833pt. | |
[24] | 1394 | 1383 | [24] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1395 | 1384 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1396 | 1385 | |||
[25 <./Figures/architecture.png>] | 1397 | 1386 | [25 <./Figures/architecture.png>] | |
<./Figures/ELearningLevels.png, id=781, 602.25pt x 612.78937pt> | 1398 | 1387 | <./Figures/ELearningLevels.png, id=772, 602.25pt x 612.78937pt> | |
File: ./Figures/ELearningLevels.png Graphic file (type png) | 1399 | 1388 | File: ./Figures/ELearningLevels.png Graphic file (type png) | |
<use ./Figures/ELearningLevels.png> | 1400 | 1389 | <use ./Figures/ELearningLevels.png> | |
Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 62. | 1401 | 1390 | Package pdftex.def Info: ./Figures/ELearningLevels.png used on input line 62. | |
(pdftex.def) Requested size: 427.43153pt x 434.92455pt. | 1402 | 1391 | (pdftex.def) Requested size: 427.43153pt x 434.92455pt. | |
1403 | 1392 | |||
Underfull \hbox (badness 3690) in paragraph at lines 62--62 | 1404 | 1393 | Underfull \hbox (badness 3690) in paragraph at lines 62--62 | |
[]\T1/phv/m/sc/10.95 Figure 3.2 \T1/phv/m/n/10.95 ^^U |Tra-duc-tion des ni-veau | 1405 | 1394 | []\T1/phv/m/sc/10.95 Figure 3.2 \T1/phv/m/n/10.95 ^^U |Tra-duc-tion des ni-veau | |
x du sys-tème de re-com-man-da-tion dans | 1406 | 1395 | x du sys-tème de re-com-man-da-tion dans | |
[] | 1407 | 1396 | [] | |
1408 | 1397 | |||
1409 | 1398 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1410 | 1399 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1411 | 1400 | |||
[26] | 1412 | 1401 | [26] | |
Overfull \hbox (2.56369pt too wide) in paragraph at lines 82--82 | 1413 | 1402 | Overfull \hbox (2.56369pt too wide) in paragraph at lines 82--82 | |
[]|\T1/phv/m/n/9 [[]]| | 1414 | 1403 | []|\T1/phv/m/n/9 [[]]| | |
[] | 1415 | 1404 | [] | |
1416 | 1405 | |||
1406 | LaTeX Font Info: Font shape `T1/phv/m/it' in size <9> not available | |||
1407 | (Font) Font shape `T1/phv/m/sl' tried instead on input line 86. | |||
1417 | 1408 | |||
Overfull \hbox (0.5975pt too wide) in paragraph at lines 77--93 | 1418 | 1409 | Overfull \hbox (0.5975pt too wide) in paragraph at lines 77--93 | |
[][] | 1419 | 1410 | [][] | |
[] | 1420 | 1411 | [] | |
1421 | 1412 | |||
) [27 <./Figures/ELearningLevels.png>] [28] | 1422 | 1413 | ) [27 <./Figures/ELearningLevels.png>] [28] | |
\openout2 = `./chapters/CBR.aux'. | 1423 | 1414 | \openout2 = `./chapters/CBR.aux'. | |
1424 | 1415 | |||
(./chapters/CBR.tex | 1425 | 1416 | (./chapters/CBR.tex | |
Chapitre 4. | 1426 | 1417 | Chapitre 4. | |
[29 | 1427 | 1418 | [29 | |
1428 | 1419 | |||
1429 | 1420 | |||
1430 | 1421 | |||
1431 | 1422 | |||
] [30] | 1432 | 1423 | ] [30] | |
Underfull \hbox (badness 1048) in paragraph at lines 26--27 | 1433 | 1424 | Underfull \hbox (badness 1048) in paragraph at lines 25--26 | |
[]\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la | 1434 | 1425 | []\T1/phv/m/n/10.95 [[]] uti-lisent éga-le-ment le RàPC pour sé-lec-tion-ner la | |
1435 | 1426 | |||
[] | 1436 | 1427 | [] | |
1437 | 1428 | |||
1429 | <./Figures/ModCBR2.png, id=838, 1145.27875pt x 545.03625pt> | |||
1430 | File: ./Figures/ModCBR2.png Graphic file (type png) | |||
1431 | <use ./Figures/ModCBR2.png> | |||
1432 | Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 39. | |||
1433 | (pdftex.def) Requested size: 427.43153pt x 203.41505pt. | |||
1438 | 1434 | |||
Overfull \hbox (24.44536pt too wide) has occurred while \output is active | 1439 | 1435 | Overfull \hbox (24.44536pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY | 1440 | 1436 | \T1/phv/m/sl/10.95 4.3. TRAVAUX RÉCENTS SUR LA REPRÉSENTATION DES CAS ET LE CY | |
CLE DU RÀPC \T1/phv/m/n/10.95 31 | 1441 | 1437 | CLE DU RÀPC \T1/phv/m/n/10.95 31 | |
[] | 1442 | 1438 | [] | |
1443 | 1439 | |||
[31] | 1444 | 1440 | [31] | |
<./Figures/ModCBR2.png, id=854, 1145.27875pt x 545.03625pt> | 1445 | 1441 | <./Figures/ModCBR1.png, id=852, 942.52126pt x 624.83438pt> | |
File: ./Figures/ModCBR2.png Graphic file (type png) | 1446 | |||
<use ./Figures/ModCBR2.png> | 1447 | |||
Package pdftex.def Info: ./Figures/ModCBR2.png used on input line 40. | 1448 | |||
(pdftex.def) Requested size: 427.43153pt x 203.41505pt. | 1449 | |||
<./Figures/ModCBR1.png, id=859, 942.52126pt x 624.83438pt> | 1450 | |||
File: ./Figures/ModCBR1.png Graphic file (type png) | 1451 | 1442 | File: ./Figures/ModCBR1.png Graphic file (type png) | |
<use ./Figures/ModCBR1.png> | 1452 | 1443 | <use ./Figures/ModCBR1.png> | |
Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 46. | 1453 | 1444 | Package pdftex.def Info: ./Figures/ModCBR1.png used on input line 45. | |
(pdftex.def) Requested size: 427.43153pt x 283.36574pt. | 1454 | 1445 | (pdftex.def) Requested size: 427.43153pt x 283.36574pt. | |
[32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34] | 1455 | 1446 | [32 <./Figures/ModCBR2.png>] [33 <./Figures/ModCBR1.png>] [34] | |
<./Figures/taxonomieEIAH.png, id=899, 984.67876pt x 614.295pt> | 1456 | 1447 | <./Figures/taxonomieEIAH.png, id=893, 984.67876pt x 614.295pt> | |
File: ./Figures/taxonomieEIAH.png Graphic file (type png) | 1457 | 1448 | File: ./Figures/taxonomieEIAH.png Graphic file (type png) | |
<use ./Figures/taxonomieEIAH.png> | 1458 | 1449 | <use ./Figures/taxonomieEIAH.png> | |
Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 82. | 1459 | 1450 | Package pdftex.def Info: ./Figures/taxonomieEIAH.png used on input line 81. | |
(pdftex.def) Requested size: 427.43153pt x 266.65376pt. | 1460 | 1451 | (pdftex.def) Requested size: 427.43153pt x 266.65376pt. | |
1461 | 1452 | |||
Underfull \hbox (badness 1895) in paragraph at lines 91--91 | 1462 | 1453 | Underfull \hbox (badness 1895) in paragraph at lines 90--90 | |
[][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés | 1463 | 1454 | [][]\T1/phv/m/sc/14.4 Récapitulatif des li-mites des tra-vaux pré-sen-tés | |
[] | 1464 | 1455 | [] | |
1465 | 1456 | |||
1466 | 1457 | [35] | ||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1467 | 1458 | Overfull \hbox (2.19226pt too wide) in paragraph at lines 108--108 | |
1468 | ||||
[35] | 1469 | |||
Overfull \hbox (2.19226pt too wide) in paragraph at lines 109--109 | 1470 | |||
[]|\T1/phv/m/n/9 [[]]| | 1471 | 1459 | []|\T1/phv/m/n/9 [[]]| | |
[] | 1472 | 1460 | [] | |
1473 | 1461 | |||
1474 | 1462 | |||
Overfull \hbox (8.65419pt too wide) in paragraph at lines 115--115 | 1475 | 1463 | Overfull \hbox (8.65419pt too wide) in paragraph at lines 114--114 | |
[]|\T1/phv/m/n/9 [[]]| | 1476 | 1464 | []|\T1/phv/m/n/9 [[]]| | |
[] | 1477 | 1465 | [] | |
1478 | 1466 | |||
1479 | 1467 | |||
Overfull \hbox (1.23834pt too wide) in paragraph at lines 135--135 | 1480 | 1468 | Overfull \hbox (1.23834pt too wide) in paragraph at lines 134--134 | |
[]|\T1/phv/m/n/9 [[]]| | 1481 | 1469 | []|\T1/phv/m/n/9 [[]]| | |
[] | 1482 | 1470 | [] | |
1483 | 1471 | |||
1484 | 1472 | |||
Overfull \hbox (7.38495pt too wide) in paragraph at lines 143--143 | 1485 | 1473 | Overfull \hbox (7.38495pt too wide) in paragraph at lines 142--142 | |
[]|\T1/phv/m/n/9 [[]]| | 1486 | 1474 | []|\T1/phv/m/n/9 [[]]| | |
[] | 1487 | 1475 | [] | |
1488 | 1476 | |||
) [36 <./Figures/taxonomieEIAH.png>] | 1489 | 1477 | ) [36 <./Figures/taxonomieEIAH.png>] | |
Overfull \hbox (14.11055pt too wide) has occurred while \output is active | 1490 | 1478 | Overfull \hbox (14.11055pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 4.7. RÉCAPITULATIF DES LIMITES DES TRAVAUX PRÉSENTÉS DANS C | 1491 | 1479 | \T1/phv/m/sl/10.95 4.7. RÉCAPITULATIF DES LIMITES DES TRAVAUX PRÉSENTÉS DANS C | |
E CHAPITRE \T1/phv/m/n/10.95 37 | 1492 | 1480 | E CHAPITRE \T1/phv/m/n/10.95 37 | |
[] | 1493 | 1481 | [] | |
1494 | 1482 | |||
[37] [38 | 1495 | 1483 | [37] [38 | |
1496 | 1484 | |||
1497 | 1485 | |||
1498 | 1486 | |||
] [39] [40] | 1499 | 1487 | ] [39] [40] | |
\openout2 = `./chapters/Architecture.aux'. | 1500 | 1488 | \openout2 = `./chapters/Architecture.aux'. | |
1501 | 1489 | |||
(./chapters/Architecture.tex | 1502 | 1490 | (./chapters/Architecture.tex | |
Chapitre 5. | 1503 | 1491 | Chapitre 5. | |
1504 | 1492 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1505 | 1493 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1506 | 1494 | |||
[41 | 1507 | 1495 | [41 | |
1508 | 1496 | |||
1509 | 1497 | |||
] | 1510 | 1498 | ] | |
<./Figures/AIVT.png, id=977, 1116.17pt x 512.91624pt> | 1511 | 1499 | <./Figures/AIVT.png, id=969, 1116.17pt x 512.91624pt> | |
File: ./Figures/AIVT.png Graphic file (type png) | 1512 | 1500 | File: ./Figures/AIVT.png Graphic file (type png) | |
<use ./Figures/AIVT.png> | 1513 | 1501 | <use ./Figures/AIVT.png> | |
Package pdftex.def Info: ./Figures/AIVT.png used on input line 23. | 1514 | 1502 | Package pdftex.def Info: ./Figures/AIVT.png used on input line 23. | |
(pdftex.def) Requested size: 427.43153pt x 196.41287pt. | 1515 | 1503 | (pdftex.def) Requested size: 427.43153pt x 196.41287pt. | |
1516 | 1504 | |||
[42 <./Figures/AIVT.png>] | 1517 | 1505 | [42 <./Figures/AIVT.png>] | |
Underfull \hbox (badness 3049) in paragraph at lines 44--45 | 1518 | 1506 | Underfull \hbox (badness 3049) in paragraph at lines 44--45 | |
[]|\T1/phv/m/n/10.95 Discipline des in-for-ma-tions conte- | 1519 | 1507 | []|\T1/phv/m/n/10.95 Discipline des in-for-ma-tions conte- | |
[] | 1520 | 1508 | [] | |
1521 | 1509 | |||
1522 | 1510 | |||
Underfull \hbox (badness 2435) in paragraph at lines 46--46 | 1523 | 1511 | Underfull \hbox (badness 2435) in paragraph at lines 46--46 | |
[]|\T1/phv/m/n/10.95 Le ni-veau sco-laire de la ma-tière | 1524 | 1512 | []|\T1/phv/m/n/10.95 Le ni-veau sco-laire de la ma-tière | |
[] | 1525 | 1513 | [] | |
1526 | 1514 | |||
1527 | 1515 | |||
Underfull \hbox (badness 7468) in paragraph at lines 47--48 | 1528 | 1516 | Underfull \hbox (badness 7468) in paragraph at lines 47--48 | |
[]|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- | 1529 | 1517 | []|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- | |
[] | 1530 | 1518 | [] | |
1531 | 1519 | |||
1532 | 1520 | |||
Underfull \hbox (badness 7468) in paragraph at lines 48--49 | 1533 | 1521 | Underfull \hbox (badness 7468) in paragraph at lines 48--49 | |
[]|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- | 1534 | 1522 | []|\T1/phv/m/n/10.95 Professeur, Ad-mi-nis- | |
[] | 1535 | 1523 | [] | |
1536 | 1524 | |||
1537 | 1525 | |||
Underfull \hbox (badness 5050) in paragraph at lines 52--52 | 1538 | 1526 | Underfull \hbox (badness 5050) in paragraph at lines 52--52 | |
[]|\T1/phv/m/n/10.95 Le type d'in-for-ma-tions conte-nues | 1539 | 1527 | []|\T1/phv/m/n/10.95 Le type d'in-for-ma-tions conte-nues | |
[] | 1540 | 1528 | [] | |
1541 | 1529 | |||
1542 | 1530 | |||
Underfull \hbox (badness 10000) in paragraph at lines 54--55 | 1543 | 1531 | Underfull \hbox (badness 10000) in paragraph at lines 54--55 | |
[]|\T1/phv/m/n/10.95 Connaissances et | 1544 | 1532 | []|\T1/phv/m/n/10.95 Connaissances et | |
[] | 1545 | 1533 | [] | |
1546 | 1534 | |||
1547 | 1535 | |||
Overfull \hbox (1.98096pt too wide) in paragraph at lines 57--57 | 1548 | 1536 | Overfull \hbox (1.98096pt too wide) in paragraph at lines 57--57 | |
[]|\T1/phv/m/n/10.95 Représentation | 1549 | 1537 | []|\T1/phv/m/n/10.95 Représentation | |
[] | 1550 | 1538 | [] | |
1551 | 1539 | |||
1552 | 1540 | |||
Overfull \hbox (1.98096pt too wide) in paragraph at lines 58--58 | 1553 | 1541 | Overfull \hbox (1.98096pt too wide) in paragraph at lines 58--58 | |
[]|\T1/phv/m/n/10.95 Représentation | 1554 | 1542 | []|\T1/phv/m/n/10.95 Représentation | |
[] | 1555 | 1543 | [] | |
1556 | 1544 | |||
1557 | 1545 | |||
Underfull \hbox (badness 10000) in paragraph at lines 59--60 | 1558 | 1546 | Underfull \hbox (badness 10000) in paragraph at lines 59--60 | |
[]|\T1/phv/m/n/10.95 Représentation tex- | 1559 | 1547 | []|\T1/phv/m/n/10.95 Représentation tex- | |
[] | 1560 | 1548 | [] | |
1561 | 1549 | |||
1562 | 1550 | |||
Underfull \hbox (badness 10000) in paragraph at lines 59--60 | 1563 | 1551 | Underfull \hbox (badness 10000) in paragraph at lines 59--60 | |
\T1/phv/m/n/10.95 tuel et gra-phique | 1564 | 1552 | \T1/phv/m/n/10.95 tuel et gra-phique | |
[] | 1565 | 1553 | [] | |
1566 | 1554 | |||
1567 | 1555 | |||
Underfull \hbox (badness 2343) in paragraph at lines 63--64 | 1568 | 1556 | Underfull \hbox (badness 2343) in paragraph at lines 63--64 | |
[]|\T1/phv/m/n/10.95 Ordinateur ou ap-pa- | 1569 | 1557 | []|\T1/phv/m/n/10.95 Ordinateur ou ap-pa- | |
[] | 1570 | 1558 | [] | |
1571 | 1559 | |||
1572 | 1560 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1573 | 1561 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1574 | 1562 | |||
[43] | 1575 | 1563 | [43] | |
<./Figures/Architecture AI-VT2.png, id=993, 1029.8475pt x 948.54375pt> | 1576 | 1564 | <./Figures/Architecture AI-VT2.png, id=986, 1029.8475pt x 948.54375pt> | |
File: ./Figures/Architecture AI-VT2.png Graphic file (type png) | 1577 | 1565 | File: ./Figures/Architecture AI-VT2.png Graphic file (type png) | |
<use ./Figures/Architecture AI-VT2.png> | 1578 | 1566 | <use ./Figures/Architecture AI-VT2.png> | |
Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line | 1579 | 1567 | Package pdftex.def Info: ./Figures/Architecture AI-VT2.png used on input line | |
80. | 1580 | 1568 | 80. | |
(pdftex.def) Requested size: 427.43153pt x 393.68173pt. | 1581 | 1569 | (pdftex.def) Requested size: 427.43153pt x 393.68173pt. | |
1582 | 1570 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1583 | 1571 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1584 | 1572 | |||
[44] | 1585 | 1573 | [44] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1586 | 1574 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1587 | 1575 | |||
[45 <./Figures/Architecture AI-VT2.png>] | 1588 | 1576 | [45 <./Figures/Architecture AI-VT2.png>] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1589 | 1577 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1590 | 1578 | |||
[46] | 1591 | 1579 | [46] | |
[47] [48] | 1592 | 1580 | [47] [48] | |
<./Figures/Layers.png, id=1020, 392.46625pt x 216.81pt> | 1593 | 1581 | <./Figures/Layers.png, id=1016, 392.46625pt x 216.81pt> | |
File: ./Figures/Layers.png Graphic file (type png) | 1594 | 1582 | File: ./Figures/Layers.png Graphic file (type png) | |
<use ./Figures/Layers.png> | 1595 | 1583 | <use ./Figures/Layers.png> | |
Package pdftex.def Info: ./Figures/Layers.png used on input line 153. | 1596 | 1584 | Package pdftex.def Info: ./Figures/Layers.png used on input line 153. | |
(pdftex.def) Requested size: 313.9734pt x 173.44823pt. | 1597 | 1585 | (pdftex.def) Requested size: 313.9734pt x 173.44823pt. | |
<./Figures/flow.png, id=1022, 721.69624pt x 593.21625pt> | 1598 | 1586 | <./Figures/flow.png, id=1018, 721.69624pt x 593.21625pt> | |
File: ./Figures/flow.png Graphic file (type png) | 1599 | 1587 | File: ./Figures/flow.png Graphic file (type png) | |
<use ./Figures/flow.png> | 1600 | 1588 | <use ./Figures/flow.png> | |
Package pdftex.def Info: ./Figures/flow.png used on input line 164. | 1601 | 1589 | Package pdftex.def Info: ./Figures/flow.png used on input line 164. | |
(pdftex.def) Requested size: 427.43153pt x 351.33421pt. | 1602 | 1590 | (pdftex.def) Requested size: 427.43153pt x 351.33421pt. | |
) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>] | 1603 | 1591 | ) [49 <./Figures/Layers.png>] [50 <./Figures/flow.png>] | |
\openout2 = `./chapters/ESCBR.aux'. | 1604 | 1592 | \openout2 = `./chapters/ESCBR.aux'. | |
1605 | 1593 | |||
1606 | 1594 | |||
(./chapters/ESCBR.tex | 1607 | 1595 | (./chapters/ESCBR.tex | |
Chapitre 6. | 1608 | 1596 | Chapitre 6. | |
1609 | 1597 | |||
Underfull \hbox (badness 1552) in paragraph at lines 7--9 | 1610 | 1598 | Underfull \hbox (badness 1552) in paragraph at lines 7--9 | |
\T1/phv/m/n/10.95 multi-agents cog-ni-tifs im-plé-men-tant un rai-son-ne-ment b | 1611 | 1599 | \T1/phv/m/n/10.95 multi-agents cog-ni-tifs im-plé-men-tant un rai-son-ne-ment b | |
ayé-sien. Cette as-so-cia-tion, | 1612 | 1600 | ayé-sien. Cette as-so-cia-tion, | |
[] | 1613 | 1601 | [] | |
1614 | 1602 | |||
1615 | 1603 | |||
Underfull \hbox (badness 10000) in paragraph at lines 7--9 | 1616 | 1604 | Underfull \hbox (badness 10000) in paragraph at lines 7--9 | |
1617 | 1605 | |||
[] | 1618 | 1606 | [] | |
1619 | 1607 | |||
[51 | 1620 | 1608 | [51 | |
1621 | 1609 | |||
1622 | 1610 | |||
1623 | 1611 | |||
1624 | 1612 | |||
] | 1625 | 1613 | ] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1626 | 1614 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1627 | 1615 | |||
[52] | 1628 | 1616 | [52] | |
<./Figures/NCBR0.png, id=1066, 623.32875pt x 459.7175pt> | 1629 | 1617 | <./Figures/NCBR0.png, id=1062, 623.32875pt x 459.7175pt> | |
File: ./Figures/NCBR0.png Graphic file (type png) | 1630 | 1618 | File: ./Figures/NCBR0.png Graphic file (type png) | |
<use ./Figures/NCBR0.png> | 1631 | 1619 | <use ./Figures/NCBR0.png> | |
Package pdftex.def Info: ./Figures/NCBR0.png used on input line 33. | 1632 | 1620 | Package pdftex.def Info: ./Figures/NCBR0.png used on input line 33. | |
(pdftex.def) Requested size: 427.43153pt x 315.24129pt. | 1633 | 1621 | (pdftex.def) Requested size: 427.43153pt x 315.24129pt. | |
1634 | 1622 | |||
[53 <./Figures/NCBR0.png>] | 1635 | 1623 | [53 <./Figures/NCBR0.png>] | |
<./Figures/FlowCBR0.png, id=1077, 370.38374pt x 661.47125pt> | 1636 | 1624 | <./Figures/FlowCBR0.png, id=1073, 370.38374pt x 661.47125pt> | |
File: ./Figures/FlowCBR0.png Graphic file (type png) | 1637 | 1625 | File: ./Figures/FlowCBR0.png Graphic file (type png) | |
<use ./Figures/FlowCBR0.png> | 1638 | 1626 | <use ./Figures/FlowCBR0.png> | |
Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 42. | 1639 | 1627 | Package pdftex.def Info: ./Figures/FlowCBR0.png used on input line 42. | |
(pdftex.def) Requested size: 222.23195pt x 396.8858pt. | 1640 | 1628 | (pdftex.def) Requested size: 222.23195pt x 396.8858pt. | |
[54 <./Figures/FlowCBR0.png>] | 1641 | 1629 | [54 <./Figures/FlowCBR0.png>] | |
<./Figures/Stacking1.png, id=1086, 743.77875pt x 414.54875pt> | 1642 | 1630 | <./Figures/Stacking1.png, id=1082, 743.77875pt x 414.54875pt> | |
File: ./Figures/Stacking1.png Graphic file (type png) | 1643 | 1631 | File: ./Figures/Stacking1.png Graphic file (type png) | |
<use ./Figures/Stacking1.png> | 1644 | 1632 | <use ./Figures/Stacking1.png> | |
Package pdftex.def Info: ./Figures/Stacking1.png used on input line 81. | 1645 | 1633 | Package pdftex.def Info: ./Figures/Stacking1.png used on input line 81. | |
(pdftex.def) Requested size: 427.43153pt x 238.23717pt. | 1646 | 1634 | (pdftex.def) Requested size: 427.43153pt x 238.23717pt. | |
[55] | 1647 | 1635 | [55] | |
<./Figures/SolRep.png, id=1097, 277.035pt x 84.315pt> | 1648 | 1636 | <./Figures/SolRep.png, id=1093, 277.035pt x 84.315pt> | |
File: ./Figures/SolRep.png Graphic file (type png) | 1649 | 1637 | File: ./Figures/SolRep.png Graphic file (type png) | |
<use ./Figures/SolRep.png> | 1650 | 1638 | <use ./Figures/SolRep.png> | |
Package pdftex.def Info: ./Figures/SolRep.png used on input line 95. | 1651 | 1639 | Package pdftex.def Info: ./Figures/SolRep.png used on input line 95. | |
(pdftex.def) Requested size: 277.03432pt x 84.31477pt. | 1652 | 1640 | (pdftex.def) Requested size: 277.03432pt x 84.31477pt. | |
<./Figures/AutomaticS.png, id=1098, 688.5725pt x 548.0475pt> | 1653 | 1641 | <./Figures/AutomaticS.png, id=1094, 688.5725pt x 548.0475pt> | |
File: ./Figures/AutomaticS.png Graphic file (type png) | 1654 | 1642 | File: ./Figures/AutomaticS.png Graphic file (type png) | |
<use ./Figures/AutomaticS.png> | 1655 | 1643 | <use ./Figures/AutomaticS.png> | |
Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 104. | 1656 | 1644 | Package pdftex.def Info: ./Figures/AutomaticS.png used on input line 104. | |
(pdftex.def) Requested size: 427.43153pt x 340.20406pt. | 1657 | 1645 | (pdftex.def) Requested size: 427.43153pt x 340.20406pt. | |
1658 | 1646 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1659 | 1647 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1660 | 1648 | |||
[56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic | 1661 | 1649 | [56 <./Figures/Stacking1.png> <./Figures/SolRep.png>] [57 <./Figures/Automatic | |
S.png>] | 1662 | 1650 | S.png>] | |
[58] | 1663 | 1651 | [58] | |
<./Figures/Stacking2.png, id=1135, 743.77875pt x 414.54875pt> | 1664 | 1652 | <./Figures/Stacking2.png, id=1131, 743.77875pt x 414.54875pt> | |
File: ./Figures/Stacking2.png Graphic file (type png) | 1665 | 1653 | File: ./Figures/Stacking2.png Graphic file (type png) | |
<use ./Figures/Stacking2.png> | 1666 | 1654 | <use ./Figures/Stacking2.png> | |
Package pdftex.def Info: ./Figures/Stacking2.png used on input line 191. | 1667 | 1655 | Package pdftex.def Info: ./Figures/Stacking2.png used on input line 191. | |
(pdftex.def) Requested size: 427.43153pt x 238.23717pt. | 1668 | 1656 | (pdftex.def) Requested size: 427.43153pt x 238.23717pt. | |
1669 | 1657 | |||
Underfull \hbox (badness 10000) in paragraph at lines 202--203 | 1670 | 1658 | Underfull \hbox (badness 10000) in paragraph at lines 202--203 | |
1671 | 1659 | |||
[] | 1672 | 1660 | [] | |
1673 | 1661 | |||
[59 <./Figures/Stacking2.png>] | 1674 | 1662 | [59 <./Figures/Stacking2.png>] | |
<Figures/FW.png, id=1151, 456.70625pt x 342.27875pt> | 1675 | 1663 | <Figures/FW.png, id=1147, 456.70625pt x 342.27875pt> | |
File: Figures/FW.png Graphic file (type png) | 1676 | 1664 | File: Figures/FW.png Graphic file (type png) | |
<use Figures/FW.png> | 1677 | 1665 | <use Figures/FW.png> | |
Package pdftex.def Info: Figures/FW.png used on input line 216. | 1678 | 1666 | Package pdftex.def Info: Figures/FW.png used on input line 216. | |
(pdftex.def) Requested size: 427.43153pt x 320.34758pt. | 1679 | 1667 | (pdftex.def) Requested size: 427.43153pt x 320.34758pt. | |
[60 <./Figures/FW.png>] [61] | 1680 | 1668 | [60 <./Figures/FW.png>] [61] | |
<./Figures/boxplot.png, id=1172, 1994.45125pt x 959.585pt> | 1681 | 1669 | <./Figures/boxplot.png, id=1168, 1994.45125pt x 959.585pt> | |
File: ./Figures/boxplot.png Graphic file (type png) | 1682 | 1670 | File: ./Figures/boxplot.png Graphic file (type png) | |
<use ./Figures/boxplot.png> | 1683 | 1671 | <use ./Figures/boxplot.png> | |
Package pdftex.def Info: ./Figures/boxplot.png used on input line 321. | 1684 | 1672 | Package pdftex.def Info: ./Figures/boxplot.png used on input line 321. | |
(pdftex.def) Requested size: 427.43153pt x 205.64786pt. | 1685 | 1673 | (pdftex.def) Requested size: 427.43153pt x 205.64786pt. | |
[62] | 1686 | 1674 | [62] | |
Underfull \hbox (badness 10000) in paragraph at lines 340--341 | 1687 | 1675 | Underfull \hbox (badness 10000) in paragraph at lines 340--341 | |
1688 | 1676 | |||
[] | 1689 | 1677 | [] | |
1690 | 1678 | |||
1691 | 1679 | |||
Underfull \hbox (badness 2564) in paragraph at lines 342--342 | 1692 | 1680 | Underfull \hbox (badness 2564) in paragraph at lines 342--342 | |
[][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tèmes multi- | 1693 | 1681 | [][]\T1/phv/m/sc/14.4 ESCBR-SMA : In-tro-duc-tion des sys-tèmes multi- | |
[] | 1694 | 1682 | [] | |
1695 | 1683 | |||
1696 | 1684 | |||
Overfull \hbox (5.60397pt too wide) has occurred while \output is active | 1697 | 1685 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | 1698 | 1686 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | |
S ESCBR \T1/phv/m/n/10.95 63 | 1699 | 1687 | S ESCBR \T1/phv/m/n/10.95 63 | |
[] | 1700 | 1688 | [] | |
1701 | 1689 | |||
[63 <./Figures/boxplot.png>] | 1702 | 1690 | [63 <./Figures/boxplot.png>] | |
<Figures/NCBR.png, id=1183, 653.44125pt x 445.665pt> | 1703 | 1691 | <Figures/NCBR.png, id=1179, 653.44125pt x 445.665pt> | |
File: Figures/NCBR.png Graphic file (type png) | 1704 | 1692 | File: Figures/NCBR.png Graphic file (type png) | |
<use Figures/NCBR.png> | 1705 | 1693 | <use Figures/NCBR.png> | |
Package pdftex.def Info: Figures/NCBR.png used on input line 352. | 1706 | 1694 | Package pdftex.def Info: Figures/NCBR.png used on input line 352. | |
(pdftex.def) Requested size: 427.43153pt x 291.5149pt. | 1707 | 1695 | (pdftex.def) Requested size: 427.43153pt x 291.5149pt. | |
[64 <./Figures/NCBR.png>] | 1708 | 1696 | [64 <./Figures/NCBR.png>] | |
<Figures/FlowCBR.png, id=1193, 450.68375pt x 822.07124pt> | 1709 | 1697 | <Figures/FlowCBR.png, id=1189, 450.68375pt x 822.07124pt> | |
File: Figures/FlowCBR.png Graphic file (type png) | 1710 | 1698 | File: Figures/FlowCBR.png Graphic file (type png) | |
<use Figures/FlowCBR.png> | 1711 | 1699 | <use Figures/FlowCBR.png> | |
Package pdftex.def Info: Figures/FlowCBR.png used on input line 381. | 1712 | 1700 | Package pdftex.def Info: Figures/FlowCBR.png used on input line 381. | |
(pdftex.def) Requested size: 270.41232pt x 493.24655pt. | 1713 | 1701 | (pdftex.def) Requested size: 270.41232pt x 493.24655pt. | |
1714 | 1702 | |||
Underfull \hbox (badness 1107) in paragraph at lines 414--415 | 1715 | 1703 | Underfull \hbox (badness 1107) in paragraph at lines 414--415 | |
[]\T1/phv/m/n/10.95 Cette sec-tion pré-sente de ma-nière plus dé-taillée les co | 1716 | 1704 | []\T1/phv/m/n/10.95 Cette sec-tion pré-sente de ma-nière plus dé-taillée les co | |
m-por-te-ments des agents | 1717 | 1705 | m-por-te-ments des agents | |
[] | 1718 | 1706 | [] | |
1719 | 1707 | |||
1720 | 1708 | |||
Overfull \hbox (5.60397pt too wide) has occurred while \output is active | 1721 | 1709 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | 1722 | 1710 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | |
S ESCBR \T1/phv/m/n/10.95 65 | 1723 | 1711 | S ESCBR \T1/phv/m/n/10.95 65 | |
[] | 1724 | 1712 | [] | |
1725 | 1713 | |||
[65] | 1726 | 1714 | [65] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1727 | 1715 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1728 | 1716 | |||
[66 <./Figures/FlowCBR.png>] | 1729 | 1717 | [66 <./Figures/FlowCBR.png>] | |
<Figures/agent.png, id=1209, 352.31625pt x 402.50375pt> | 1730 | 1718 | <Figures/agent.png, id=1206, 352.31625pt x 402.50375pt> | |
File: Figures/agent.png Graphic file (type png) | 1731 | 1719 | File: Figures/agent.png Graphic file (type png) | |
<use Figures/agent.png> | 1732 | 1720 | <use Figures/agent.png> | |
Package pdftex.def Info: Figures/agent.png used on input line 455. | 1733 | 1721 | Package pdftex.def Info: Figures/agent.png used on input line 455. | |
(pdftex.def) Requested size: 246.61969pt x 281.7507pt. | 1734 | 1722 | (pdftex.def) Requested size: 246.61969pt x 281.7507pt. | |
1735 | 1723 | |||
Overfull \hbox (5.60397pt too wide) has occurred while \output is active | 1736 | 1724 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | 1737 | 1725 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | |
S ESCBR \T1/phv/m/n/10.95 67 | 1738 | 1726 | S ESCBR \T1/phv/m/n/10.95 67 | |
[] | 1739 | 1727 | [] | |
1740 | 1728 | |||
[67] | 1741 | 1729 | [67] | |
<Figures/BayesianEvolution.png, id=1223, 626.34pt x 402.50375pt> | 1742 | 1730 | <Figures/BayesianEvolution.png, id=1220, 626.34pt x 402.50375pt> | |
File: Figures/BayesianEvolution.png Graphic file (type png) | 1743 | 1731 | File: Figures/BayesianEvolution.png Graphic file (type png) | |
<use Figures/BayesianEvolution.png> | 1744 | 1732 | <use Figures/BayesianEvolution.png> | |
Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 468. | 1745 | 1733 | Package pdftex.def Info: Figures/BayesianEvolution.png used on input line 468. | |
1746 | 1734 | |||
(pdftex.def) Requested size: 313.16922pt x 201.25137pt. | 1747 | 1735 | (pdftex.def) Requested size: 313.16922pt x 201.25137pt. | |
[68 <./Figures/agent.png>] | 1748 | 1736 | [68 <./Figures/agent.png>] | |
Underfull \hbox (badness 10000) in paragraph at lines 509--509 | 1749 | 1737 | Underfull \hbox (badness 10000) in paragraph at lines 509--509 | |
[]|\T1/phv/m/n/8 Input. | 1750 | 1738 | []|\T1/phv/m/n/8 Input. | |
[] | 1751 | 1739 | [] | |
1752 | 1740 | |||
1753 | 1741 | |||
Underfull \hbox (badness 10000) in paragraph at lines 509--510 | 1754 | 1742 | Underfull \hbox (badness 10000) in paragraph at lines 509--510 | |
[]|\T1/phv/m/n/8 Output | 1755 | 1743 | []|\T1/phv/m/n/8 Output | |
[] | 1756 | 1744 | [] | |
1757 | 1745 | |||
<Figures/boxplot2.png, id=1238, 1615.03375pt x 835.12pt> | 1758 | 1746 | <Figures/boxplot2.png, id=1235, 1615.03375pt x 835.12pt> | |
File: Figures/boxplot2.png Graphic file (type png) | 1759 | 1747 | File: Figures/boxplot2.png Graphic file (type png) | |
<use Figures/boxplot2.png> | 1760 | 1748 | <use Figures/boxplot2.png> | |
Package pdftex.def Info: Figures/boxplot2.png used on input line 619. | 1761 | 1749 | Package pdftex.def Info: Figures/boxplot2.png used on input line 619. | |
(pdftex.def) Requested size: 427.43153pt x 221.01265pt. | 1762 | 1750 | (pdftex.def) Requested size: 427.43153pt x 221.01265pt. | |
1763 | 1751 | |||
Overfull \hbox (5.60397pt too wide) has occurred while \output is active | 1764 | 1752 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | 1765 | 1753 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | |
S ESCBR \T1/phv/m/n/10.95 69 | 1766 | 1754 | S ESCBR \T1/phv/m/n/10.95 69 | |
[] | 1767 | 1755 | [] | |
1768 | 1756 | |||
[69 <./Figures/BayesianEvolution.png>] | 1769 | 1757 | [69 <./Figures/BayesianEvolution.png>] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1770 | 1758 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1771 | 1759 | |||
[70] | 1772 | 1760 | [70] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1773 | 1761 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1774 | 1762 | |||
1775 | 1763 | |||
Overfull \hbox (5.60397pt too wide) has occurred while \output is active | 1776 | 1764 | Overfull \hbox (5.60397pt too wide) has occurred while \output is active | |
\T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | 1777 | 1765 | \T1/phv/m/sl/10.95 6.3. ESCBR-SMA : INTRODUCTION DES SYSTÈMES MULTI-AGENTS DAN | |
S ESCBR \T1/phv/m/n/10.95 71 | 1778 | 1766 | S ESCBR \T1/phv/m/n/10.95 71 | |
[] | 1779 | 1767 | [] | |
1780 | 1768 | |||
[71 <./Figures/boxplot2.png>]) [72] | 1781 | 1769 | [71 <./Figures/boxplot2.png>]) [72] | |
\openout2 = `./chapters/TS.aux'. | 1782 | 1770 | \openout2 = `./chapters/TS.aux'. | |
1783 | 1771 | |||
(./chapters/TS.tex | 1784 | 1772 | (./chapters/TS.tex | |
Chapitre 7. | 1785 | 1773 | Chapitre 7. | |
1786 | 1774 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1787 | 1775 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1788 | 1776 | |||
[73 | 1789 | 1777 | [73 | |
1790 | 1778 | |||
1791 | 1779 | |||
1792 | 1780 | |||
1793 | 1781 | |||
] | 1794 | 1782 | ] | |
Underfull \hbox (badness 1132) in paragraph at lines 13--14 | 1795 | 1783 | Underfull \hbox (badness 1132) in paragraph at lines 13--14 | |
\T1/phv/m/n/10.95 sen-tés dans les cha-pitres pré-cé-dents à AI-VT, cette pro-p | 1796 | 1784 | \T1/phv/m/n/10.95 sen-tés dans les cha-pitres pré-cé-dents à AI-VT, cette pro-p | |
o-si-tion est pu-blié dans | 1797 | 1785 | o-si-tion est pu-blié dans | |
[] | 1798 | 1786 | [] | |
1799 | 1787 | |||
1800 | 1788 | |||
Overfull \hbox (19.02232pt too wide) in paragraph at lines 33--59 | 1801 | 1789 | Overfull \hbox (19.02232pt too wide) in paragraph at lines 33--59 | |
[][] | 1802 | 1790 | [][] | |
[] | 1803 | 1791 | [] | |
1804 | 1792 | |||
[74] | 1805 | 1793 | [74] | |
Package hyperref Info: bookmark level for unknown algorithm defaults to 0 on in | 1806 | 1794 | Package hyperref Info: bookmark level for unknown algorithm defaults to 0 on in | |
put line 97. | 1807 | 1795 | put line 97. | |
[75] | 1808 | 1796 | [75] | |
<./Figures/dataset.png, id=1302, 15.13687pt x 8.08058pt> | 1809 | 1797 | <./Figures/dataset.png, id=1299, 15.13687pt x 8.08058pt> | |
File: ./Figures/dataset.png Graphic file (type png) | 1810 | 1798 | File: ./Figures/dataset.png Graphic file (type png) | |
<use ./Figures/dataset.png> | 1811 | 1799 | <use ./Figures/dataset.png> | |
Package pdftex.def Info: ./Figures/dataset.png used on input line 118. | 1812 | 1800 | Package pdftex.def Info: ./Figures/dataset.png used on input line 118. | |
(pdftex.def) Requested size: 427.43153pt x 228.35583pt. | 1813 | 1801 | (pdftex.def) Requested size: 427.43153pt x 228.35583pt. | |
[76] | 1814 | 1802 | [76] | |
<./Figures/comp2.png, id=1314, 14.98512pt x 7.33133pt> | 1815 | 1803 | <./Figures/comp2.png, id=1311, 14.98512pt x 7.33133pt> | |
File: ./Figures/comp2.png Graphic file (type png) | 1816 | 1804 | File: ./Figures/comp2.png Graphic file (type png) | |
<use ./Figures/comp2.png> | 1817 | 1805 | <use ./Figures/comp2.png> | |
Package pdftex.def Info: ./Figures/comp2.png used on input line 154. | 1818 | 1806 | Package pdftex.def Info: ./Figures/comp2.png used on input line 154. | |
(pdftex.def) Requested size: 427.43153pt x 209.34462pt. | 1819 | 1807 | (pdftex.def) Requested size: 427.43153pt x 209.34462pt. | |
<./Figures/comp3.png, id=1316, 14.98512pt x 7.33133pt> | 1820 | 1808 | <./Figures/comp3.png, id=1313, 14.98512pt x 7.33133pt> | |
File: ./Figures/comp3.png Graphic file (type png) | 1821 | 1809 | File: ./Figures/comp3.png Graphic file (type png) | |
<use ./Figures/comp3.png> | 1822 | 1810 | <use ./Figures/comp3.png> | |
Package pdftex.def Info: ./Figures/comp3.png used on input line 164. | 1823 | 1811 | Package pdftex.def Info: ./Figures/comp3.png used on input line 164. | |
(pdftex.def) Requested size: 427.43153pt x 209.34462pt. | 1824 | 1812 | (pdftex.def) Requested size: 427.43153pt x 209.34462pt. | |
1825 | 1813 | |||
Underfull \vbox (badness 1132) has occurred while \output is active [] | 1826 | 1814 | Underfull \vbox (badness 1132) has occurred while \output is active [] | |
1827 | 1815 | |||
[77 <./Figures/dataset.png>] | 1828 | 1816 | [77 <./Figures/dataset.png>] | |
<./Figures/comp4.png, id=1326, 14.9377pt x 7.31236pt> | 1829 | 1817 | <./Figures/comp4.png, id=1323, 14.9377pt x 7.31236pt> | |
File: ./Figures/comp4.png Graphic file (type png) | 1830 | 1818 | File: ./Figures/comp4.png Graphic file (type png) | |
<use ./Figures/comp4.png> | 1831 | 1819 | <use ./Figures/comp4.png> | |
Package pdftex.def Info: ./Figures/comp4.png used on input line 172. | 1832 | 1820 | Package pdftex.def Info: ./Figures/comp4.png used on input line 172. | |
(pdftex.def) Requested size: 427.43153pt x 209.23985pt. | 1833 | 1821 | (pdftex.def) Requested size: 427.43153pt x 209.23985pt. | |
1834 | 1822 | |||
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1835 | 1823 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1836 | 1824 | |||
[78 <./Figures/comp2.png>] | 1837 | 1825 | [78 <./Figures/comp2.png>] | |
Underfull \hbox (badness 10000) in paragraph at lines 195--196 | 1838 | 1826 | Underfull \hbox (badness 10000) in paragraph at lines 195--196 | |
1839 | 1827 | |||
[] | 1840 | 1828 | [] | |
1841 | 1829 | |||
<./Figures/metric.png, id=1341, 16.95784pt x 7.68225pt> | 1842 | 1830 | <./Figures/metric.png, id=1338, 16.95784pt x 7.68225pt> | |
File: ./Figures/metric.png Graphic file (type png) | 1843 | 1831 | File: ./Figures/metric.png Graphic file (type png) | |
<use ./Figures/metric.png> | 1844 | 1832 | <use ./Figures/metric.png> | |
Package pdftex.def Info: ./Figures/metric.png used on input line 213. | 1845 | 1833 | Package pdftex.def Info: ./Figures/metric.png used on input line 213. | |
(pdftex.def) Requested size: 427.43153pt x 193.86665pt. | 1846 | 1834 | (pdftex.def) Requested size: 427.43153pt x 193.86665pt. | |
[79 <./Figures/comp3.png>] | 1847 | 1835 | [79 <./Figures/comp3.png>] | |
Underfull \vbox (badness 10000) has occurred while \output is active [] | 1848 | 1836 | Underfull \vbox (badness 10000) has occurred while \output is active [] | |
1849 | 1837 | |||
[80 <./Figures/comp4.png>] | 1850 | 1838 | [80 <./Figures/comp4.png>] | |
Underfull \hbox (badness 10000) in paragraph at lines 263--264 | 1851 | 1839 | Underfull \hbox (badness 10000) in paragraph at lines 263--264 | |
1852 | 1840 | |||
[] | 1853 | 1841 | [] | |
1854 | 1842 | |||
<./Figures/metric2.png, id=1363, 16.48363pt x 7.66327pt> | 1855 | 1843 | <./Figures/metric2.png, id=1360, 16.48363pt x 7.66327pt> | |
File: ./Figures/metric2.png Graphic file (type png) | 1856 | 1844 | File: ./Figures/metric2.png Graphic file (type png) | |
<use ./Figures/metric2.png> | 1857 | 1845 | <use ./Figures/metric2.png> | |
Package pdftex.def Info: ./Figures/metric2.png used on input line 272. | 1858 | 1846 | Package pdftex.def Info: ./Figures/metric2.png used on input line 272. | |
(pdftex.def) Requested size: 427.43153pt x 198.89235pt. | 1859 | 1847 | (pdftex.def) Requested size: 427.43153pt x 198.89235pt. | |
[81 <./Figures/metric.png>] [82 <./Figures/metric2.png>] [83] [84] [85] | 1860 | 1848 | [81 <./Figures/metric.png>] [82 <./Figures/metric2.png>] [83] [84] [85] | |
[86] | 1861 | 1849 | [86] | |
<Figures/Model.png, id=1452, 3.47124pt x 2.85477pt> | 1862 | 1850 | <Figures/Model.png, id=1449, 3.47124pt x 2.85477pt> | |
File: Figures/Model.png Graphic file (type png) | 1863 | 1851 | File: Figures/Model.png Graphic file (type png) | |
<use Figures/Model.png> | 1864 | 1852 | <use Figures/Model.png> | |
Package pdftex.def Info: Figures/Model.png used on input line 477. | 1865 | 1853 | Package pdftex.def Info: Figures/Model.png used on input line 477. | |
(pdftex.def) Requested size: 299.20076pt x 246.23834pt. | 1866 | 1854 | (pdftex.def) Requested size: 299.20076pt x 246.23834pt. | |
LaTeX Font Info: Font shape `T1/phv/m/it' in size <9> not available | 1867 | |||
(Font) Font shape `T1/phv/m/sl' tried instead on input line 490. | 1868 | |||
[87 <./Figures/Model.png>] [88] | 1869 | 1855 | [87 <./Figures/Model.png>] [88] | |
Overfull \hbox (14.1589pt too wide) in paragraph at lines 581--603 | 1870 | 1856 | Overfull \hbox (14.1589pt too wide) in paragraph at lines 581--603 | |
[][] | 1871 | 1857 | [][] | |
[] | 1872 | 1858 | [] | |
1873 | 1859 | |||
[89] | 1874 | 1860 | [89] | |
<Figures/kEvol_TS.jpg, id=1495, 742.775pt x 557.08125pt> | 1875 | 1861 | <Figures/kEvol_TS.jpg, id=1491, 742.775pt x 557.08125pt> | |
File: Figures/kEvol_TS.jpg Graphic file (type jpg) | 1876 | 1862 | File: Figures/kEvol_TS.jpg Graphic file (type jpg) | |
<use Figures/kEvol_TS.jpg> | 1877 | 1863 | <use Figures/kEvol_TS.jpg> | |
Package pdftex.def Info: Figures/kEvol_TS.jpg used on input line 650. | 1878 | 1864 | Package pdftex.def Info: Figures/kEvol_TS.jpg used on input line 650. | |
(pdftex.def) Requested size: 427.43153pt x 320.58275pt. | 1879 | 1865 | (pdftex.def) Requested size: 427.43153pt x 320.58275pt. | |
1880 | 1866 | |||
Underfull \hbox (badness 10000) in paragraph at lines 659--660 | 1881 | 1867 | Underfull \hbox (badness 10000) in paragraph at lines 659--660 | |
1882 | 1868 | |||
[] | 1883 | 1869 | [] | |
1884 | 1870 | |||
[90] | 1885 | 1871 | [90] | |
<Figures/stabilityBoxplot.png, id=1507, 742.775pt x 520.94624pt> | 1886 | 1872 | <Figures/stabilityBoxplot.png, id=1503, 742.775pt x 520.94624pt> | |
File: Figures/stabilityBoxplot.png Graphic file (type png) | 1887 | 1873 | File: Figures/stabilityBoxplot.png Graphic file (type png) | |
<use Figures/stabilityBoxplot.png> | 1888 | 1874 | <use Figures/stabilityBoxplot.png> | |
Package pdftex.def Info: Figures/stabilityBoxplot.png used on input line 663. | 1889 | 1875 | Package pdftex.def Info: Figures/stabilityBoxplot.png used on input line 663. | |
(pdftex.def) Requested size: 427.43153pt x 299.78818pt. | 1890 | 1876 | (pdftex.def) Requested size: 427.43153pt x 299.78818pt. |
main.out
View file @
4b1afa3
\BOOKMARK [-1][]{part.1}{\376\377\000I\000\040\000C\000o\000n\000t\000e\000x\000t\000e\000\040\000e\000t\000\040\000P\000r\000o\000b\000l\000\351\000m\000a\000t\000i\000q\000u\000e\000s}{}% 1 | 1 | 1 | \BOOKMARK [-1][]{part.1}{\376\377\000I\000\040\000C\000o\000n\000t\000e\000x\000t\000e\000\040\000e\000t\000\040\000P\000r\000o\000b\000l\000\351\000m\000a\000t\000i\000q\000u\000e\000s}{}% 1 | |
\BOOKMARK [0][]{chapter.1}{\376\377\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{part.1}% 2 | 2 | 2 | \BOOKMARK [0][]{chapter.1}{\376\377\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{part.1}% 2 | |
\BOOKMARK [1][]{section.1.1}{\376\377\0001\000.\0001\000\040\000C\000o\000n\000t\000r\000i\000b\000u\000t\000i\000o\000n\000s\000\040\000P\000r\000i\000n\000c\000i\000p\000a\000l\000e\000s}{chapter.1}% 3 | 3 | 3 | \BOOKMARK [1][]{section.1.1}{\376\377\0001\000.\0001\000\040\000C\000o\000n\000t\000r\000i\000b\000u\000t\000i\000o\000n\000s\000\040\000P\000r\000i\000n\000c\000i\000p\000a\000l\000e\000s}{chapter.1}% 3 | |
\BOOKMARK [1][]{section.1.2}{\376\377\0001\000.\0002\000\040\000P\000l\000a\000n\000\040\000d\000e\000\040\000l\000a\000\040\000t\000h\000\350\000s\000e}{chapter.1}% 4 | 4 | 4 | \BOOKMARK [1][]{section.1.2}{\376\377\0001\000.\0002\000\040\000P\000l\000a\000n\000\040\000d\000e\000\040\000l\000a\000\040\000t\000h\000\350\000s\000e}{chapter.1}% 4 | |
\BOOKMARK [-1][]{part.2}{\376\377\000I\000I\000\040\000\311\000t\000a\000t\000\040\000d\000e\000\040\000l\000'\000a\000r\000t}{}% 5 | 5 | 5 | \BOOKMARK [-1][]{part.2}{\376\377\000I\000I\000\040\000\311\000t\000a\000t\000\040\000d\000e\000\040\000l\000'\000a\000r\000t}{}% 5 | |
\BOOKMARK [0][]{chapter.2}{\376\377\0002\000\040\000C\000o\000n\000t\000e\000x\000t\000e}{part.2}% 6 | 6 | 6 | \BOOKMARK [0][]{chapter.2}{\376\377\0002\000\040\000C\000o\000n\000t\000e\000x\000t\000e}{part.2}% 6 | |
\BOOKMARK [1][]{section.2.1}{\376\377\0002\000.\0001\000\040\000L\000e\000s\000\040\000s\000t\000r\000a\000t\000\351\000g\000i\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n\000\040\000e\000t\000\040\000l\000e\000s\000\040\000e\000n\000v\000i\000r\000o\000n\000n\000e\000m\000e\000n\000t\000s\000\040\000i\000n\000f\000o\000r\000m\000a\000t\000i\000q\000u\000e\000s\000\040\000p\000o\000u\000r\000\040\000l\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n\000\040\000\050\000E\000I\000A\000H\000\051}{chapter.2}% 7 | 7 | 7 | \BOOKMARK [1][]{section.2.1}{\376\377\0002\000.\0001\000\040\000L\000e\000s\000\040\000s\000t\000r\000a\000t\000\351\000g\000i\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n\000\040\000e\000t\000\040\000l\000e\000s\000\040\000e\000n\000v\000i\000r\000o\000n\000n\000e\000m\000e\000n\000t\000s\000\040\000i\000n\000f\000o\000r\000m\000a\000t\000i\000q\000u\000e\000s\000\040\000p\000o\000u\000r\000\040\000l\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n\000\040\000\050\000E\000I\000A\000H\000\051}{chapter.2}% 7 | |
\BOOKMARK [2][]{subsection.2.1.1}{\376\377\0002\000.\0001\000.\0001\000\040\000L\000e\000s\000\040\000s\000t\000r\000a\000t\000\351\000g\000i\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e}{section.2.1}% 8 | 8 | 8 | \BOOKMARK [2][]{subsection.2.1.1}{\376\377\0002\000.\0001\000.\0001\000\040\000L\000e\000s\000\040\000s\000t\000r\000a\000t\000\351\000g\000i\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e}{section.2.1}% 8 | |
\BOOKMARK [2][]{subsection.2.1.2}{\376\377\0002\000.\0001\000.\0002\000\040\000L\000e\000s\000\040\000E\000I\000A\000H}{section.2.1}% 9 | 9 | 9 | \BOOKMARK [2][]{subsection.2.1.2}{\376\377\0002\000.\0001\000.\0002\000\040\000L\000e\000s\000\040\000E\000I\000A\000H}{section.2.1}% 9 | |
\BOOKMARK [2][]{subsection.2.1.3}{\376\377\0002\000.\0001\000.\0003\000\040\000L\000'\000e\000x\000e\000r\000c\000i\000s\000e\000u\000r\000\040\000i\000n\000i\000t\000i\000a\000l\000\040\000A\000I\000-\000V\000T}{section.2.1}% 10 | 10 | 10 | \BOOKMARK [2][]{subsection.2.1.3}{\376\377\0002\000.\0001\000.\0003\000\040\000L\000'\000e\000x\000e\000r\000c\000i\000s\000e\000u\000r\000\040\000i\000n\000i\000t\000i\000a\000l\000\040\000A\000I\000-\000V\000T}{section.2.1}% 10 | |
\BOOKMARK [1][]{section.2.2}{\376\377\0002\000.\0002\000\040\000L\000e\000\040\000c\000o\000n\000t\000e\000x\000t\000e\000\040\000t\000e\000c\000h\000n\000i\000q\000u\000e}{chapter.2}% 11 | 11 | 11 | \BOOKMARK [1][]{section.2.2}{\376\377\0002\000.\0002\000\040\000L\000e\000\040\000c\000o\000n\000t\000e\000x\000t\000e\000\040\000t\000e\000c\000h\000n\000i\000q\000u\000e}{chapter.2}% 11 | |
\BOOKMARK [2][]{subsection.2.2.1}{\376\377\0002\000.\0002\000.\0001\000\040\000L\000e\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s\000\040\000\050\000R\000\340\000P\000C\000\051}{section.2.2}% 12 | 12 | 12 | \BOOKMARK [2][]{subsection.2.2.1}{\376\377\0002\000.\0002\000.\0001\000\040\000L\000e\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s\000\040\000\050\000R\000\340\000P\000C\000\051}{section.2.2}% 12 | |
\BOOKMARK [3][]{subsubsection.2.2.1.1}{\376\377\0002\000.\0002\000.\0001\000.\0001\000\040\000R\000e\000t\000r\000o\000u\000v\000e\000r\000\040\000\050\000R\000e\000c\000h\000e\000r\000c\000h\000e\000r\000\051}{subsection.2.2.1}% 13 | 13 | 13 | \BOOKMARK [3][]{subsubsection.2.2.1.1}{\376\377\0002\000.\0002\000.\0001\000.\0001\000\040\000R\000e\000t\000r\000o\000u\000v\000e\000r\000\040\000\050\000R\000e\000c\000h\000e\000r\000c\000h\000e\000r\000\051}{subsection.2.2.1}% 13 | |
\BOOKMARK [3][]{subsubsection.2.2.1.2}{\376\377\0002\000.\0002\000.\0001\000.\0002\000\040\000R\000\351\000u\000t\000i\000l\000i\000s\000e\000r\000\040\000\050\000A\000d\000a\000p\000t\000e\000r\000\051}{subsection.2.2.1}% 14 | 14 | 14 | \BOOKMARK [3][]{subsubsection.2.2.1.2}{\376\377\0002\000.\0002\000.\0001\000.\0002\000\040\000R\000\351\000u\000t\000i\000l\000i\000s\000e\000r\000\040\000\050\000A\000d\000a\000p\000t\000e\000r\000\051}{subsection.2.2.1}% 14 | |
\BOOKMARK [3][]{subsubsection.2.2.1.3}{\376\377\0002\000.\0002\000.\0001\000.\0003\000\040\000R\000\351\000v\000i\000s\000e\000r\000\040\000e\000t\000\040\000R\000\351\000p\000a\000r\000e\000r}{subsection.2.2.1}% 15 | 15 | 15 | \BOOKMARK [3][]{subsubsection.2.2.1.3}{\376\377\0002\000.\0002\000.\0001\000.\0003\000\040\000R\000\351\000v\000i\000s\000e\000r\000\040\000e\000t\000\040\000R\000\351\000p\000a\000r\000e\000r}{subsection.2.2.1}% 15 | |
\BOOKMARK [3][]{subsubsection.2.2.1.4}{\376\377\0002\000.\0002\000.\0001\000.\0004\000\040\000R\000e\000t\000e\000n\000i\000r\000\040\000\050\000S\000t\000o\000c\000k\000e\000r\000\051}{subsection.2.2.1}% 16 | 16 | 16 | \BOOKMARK [3][]{subsubsection.2.2.1.4}{\376\377\0002\000.\0002\000.\0001\000.\0004\000\040\000R\000e\000t\000e\000n\000i\000r\000\040\000\050\000S\000t\000o\000c\000k\000e\000r\000\051}{subsection.2.2.1}% 16 | |
\BOOKMARK [3][]{subsubsection.2.2.1.5}{\376\377\0002\000.\0002\000.\0001\000.\0005\000\040\000C\000o\000n\000t\000e\000n\000e\000u\000r\000s\000\040\000d\000e\000\040\000C\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e}{subsection.2.2.1}% 17 | 17 | 17 | \BOOKMARK [3][]{subsubsection.2.2.1.5}{\376\377\0002\000.\0002\000.\0001\000.\0005\000\040\000C\000o\000n\000t\000e\000n\000e\000u\000r\000s\000\040\000d\000e\000\040\000C\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e}{subsection.2.2.1}% 17 | |
\BOOKMARK [2][]{subsection.2.2.2}{\376\377\0002\000.\0002\000.\0002\000\040\000L\000e\000s\000\040\000s\000y\000s\000t\000\350\000m\000e\000s\000\040\000m\000u\000l\000t\000i\000-\000a\000g\000e\000n\000t\000s}{section.2.2}% 18 | 18 | 18 | \BOOKMARK [2][]{subsection.2.2.2}{\376\377\0002\000.\0002\000.\0002\000\040\000L\000e\000s\000\040\000s\000y\000s\000t\000\350\000m\000e\000s\000\040\000m\000u\000l\000t\000i\000-\000a\000g\000e\000n\000t\000s}{section.2.2}% 18 | |
\BOOKMARK [2][]{subsection.2.2.3}{\376\377\0002\000.\0002\000.\0003\000\040\000D\000i\000f\000f\000\351\000r\000e\000n\000t\000s\000\040\000a\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000e\000t\000\040\000f\000o\000n\000c\000t\000i\000o\000n\000s\000\040\000i\000m\000p\000l\000\351\000m\000e\000n\000t\000\351\000s\000\040\000d\000a\000n\000s\000\040\000A\000I\000-\000V\000T\000\040\000p\000o\000u\000r\000\040\000l\000a\000\040\000p\000e\000r\000s\000o\000n\000n\000a\000l\000i\000s\000a\000t\000i\000o\000n\000\040\000e\000t\000\040\000l\000'\000a\000d\000a\000p\000t\000a\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000\351\000a\000n\000c\000e\000s\000\040\000d\000'\000e\000n\000t\000r\000a\000\356\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 19 | 19 | 19 | \BOOKMARK [2][]{subsection.2.2.3}{\376\377\0002\000.\0002\000.\0003\000\040\000D\000i\000f\000f\000\351\000r\000e\000n\000t\000s\000\040\000a\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000e\000t\000\040\000f\000o\000n\000c\000t\000i\000o\000n\000s\000\040\000i\000m\000p\000l\000\351\000m\000e\000n\000t\000\351\000s\000\040\000d\000a\000n\000s\000\040\000A\000I\000-\000V\000T\000\040\000p\000o\000u\000r\000\040\000l\000a\000\040\000p\000e\000r\000s\000o\000n\000n\000a\000l\000i\000s\000a\000t\000i\000o\000n\000\040\000e\000t\000\040\000l\000'\000a\000d\000a\000p\000t\000a\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000\351\000a\000n\000c\000e\000s\000\040\000d\000'\000e\000n\000t\000r\000a\000\356\000n\000e\000m\000e\000n\000t\000\040\000p\000r\000o\000p\000o\000s\000\351\000e\000s}{section.2.2}% 19 | |
\BOOKMARK [3][]{subsubsection.2.2.3.1}{\376\377\0002\000.\0002\000.\0003\000.\0001\000\040\000P\000e\000n\000s\000\351\000e\000\040\000B\000a\000y\000e\000s\000i\000e\000n\000n\000e}{subsection.2.2.3}% 20 | 20 | 20 | \BOOKMARK [3][]{subsubsection.2.2.3.1}{\376\377\0002\000.\0002\000.\0003\000.\0001\000\040\000P\000e\000n\000s\000\351\000e\000\040\000B\000a\000y\000e\000s\000i\000e\000n\000n\000e}{subsection.2.2.3}% 20 | |
\BOOKMARK [3][]{subsubsection.2.2.3.2}{\376\377\0002\000.\0002\000.\0003\000.\0002\000\040\000M\000\351\000t\000h\000o\000d\000e\000\040\000d\000e\000s\000\040\000k\000\040\000p\000l\000u\000s\000\040\000p\000r\000o\000c\000h\000e\000s\000\040\000v\000o\000i\000s\000i\000n\000s\000\040\000\050\000K\000-\000N\000e\000a\000r\000e\000s\000t\000\040\000N\000e\000i\000g\000h\000b\000o\000r\000h\000o\000o\000d\000\040\000-\000\040\000K\000N\000N\000\051}{subsection.2.2.3}% 21 | 21 | 21 | \BOOKMARK [3][]{subsubsection.2.2.3.2}{\376\377\0002\000.\0002\000.\0003\000.\0002\000\040\000M\000\351\000t\000h\000o\000d\000e\000\040\000d\000e\000s\000\040\000k\000\040\000p\000l\000u\000s\000\040\000p\000r\000o\000c\000h\000e\000s\000\040\000v\000o\000i\000s\000i\000n\000s\000\040\000\050\000K\000-\000N\000e\000a\000r\000e\000s\000t\000\040\000N\000e\000i\000g\000h\000b\000o\000r\000h\000o\000o\000d\000\040\000-\000\040\000K\000N\000N\000\051}{subsection.2.2.3}% 21 | |
\BOOKMARK [3][]{subsubsection.2.2.3.3}{\376\377\0002\000.\0002\000.\0003\000.\0003\000\040\000K\000-\000M\000o\000y\000e\000n\000n\000e\000s}{subsection.2.2.3}% 22 | 22 | 22 | \BOOKMARK [3][]{subsubsection.2.2.3.3}{\376\377\0002\000.\0002\000.\0003\000.\0003\000\040\000K\000-\000M\000o\000y\000e\000n\000n\000e\000s}{subsection.2.2.3}% 22 | |
\BOOKMARK [3][]{subsubsection.2.2.3.4}{\376\377\0002\000.\0002\000.\0003\000.\0004\000\040\000M\000o\000d\000\350\000l\000e\000\040\000d\000e\000\040\000M\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 23 | 23 | 23 | \BOOKMARK [3][]{subsubsection.2.2.3.4}{\376\377\0002\000.\0002\000.\0003\000.\0004\000\040\000M\000o\000d\000\350\000l\000e\000\040\000d\000e\000\040\000m\000\351\000l\000a\000n\000g\000e\000\040\000G\000a\000u\000s\000s\000i\000e\000n\000\040\000G\000M\000M\000\040\000\050\000G\000a\000u\000s\000s\000i\000a\000n\000\040\000M\000i\000x\000t\000u\000r\000e\000\040\000M\000o\000d\000e\000l\000\051}{subsection.2.2.3}% 23 | |
\BOOKMARK [3][]{subsubsection.2.2.3.5}{\376\377\0002\000.\0002\000.\0003\000.\0005\000\040\000F\000u\000z\000z\000y\000-\000C}{subsection.2.2.3}% 24 | 24 | 24 | \BOOKMARK [3][]{subsubsection.2.2.3.5}{\376\377\0002\000.\0002\000.\0003\000.\0005\000\040\000F\000u\000z\000z\000y\000-\000C}{subsection.2.2.3}% 24 | |
\BOOKMARK [3][]{subsubsection.2.2.3.6}{\376\377\0002\000.\0002\000.\0003\000.\0006\000\040\000B\000a\000n\000d\000i\000t\000\040\000M\000a\000n\000c\000h\000o\000t\000\040\000M\000A\000B\000\040\000\050\000M\000u\000l\000t\000i\000-\000A\000r\000m\000e\000d\000\040\000B\000a\000n\000d\000i\000t\000s\000\051}{subsection.2.2.3}% 25 | 25 | 25 | \BOOKMARK [3][]{subsubsection.2.2.3.6}{\376\377\0002\000.\0002\000.\0003\000.\0006\000\040\000B\000a\000n\000d\000i\000t\000\040\000M\000a\000n\000c\000h\000o\000t\000\040\000M\000A\000B\000\040\000\050\000M\000u\000l\000t\000i\000-\000A\000r\000m\000e\000d\000\040\000B\000a\000n\000d\000i\000t\000s\000\051}{subsection.2.2.3}% 25 | |
\BOOKMARK [3][]{subsubsection.2.2.3.7}{\376\377\0002\000.\0002\000.\0003\000.\0007\000\040\000\311\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000T\000S\000\040\000\050\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000S\000a\000m\000p\000l\000i\000n\000g\000\051}{subsection.2.2.3}% 26 | 26 | 26 | \BOOKMARK [3][]{subsubsection.2.2.3.7}{\376\377\0002\000.\0002\000.\0003\000.\0007\000\040\000\311\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000T\000S\000\040\000\050\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000S\000a\000m\000p\000l\000i\000n\000g\000\051}{subsection.2.2.3}% 26 | |
\BOOKMARK [0][]{chapter.3}{\376\377\0003\000\040\000E\000n\000v\000i\000r\000o\000n\000n\000e\000m\000e\000n\000t\000s\000\040\000I\000n\000f\000o\000r\000m\000a\000t\000i\000q\000u\000e\000s\000\040\000d\000'\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000H\000u\000m\000a\000i\000n}{part.2}% 27 | 27 | 27 | \BOOKMARK [0][]{chapter.3}{\376\377\0003\000\040\000E\000n\000v\000i\000r\000o\000n\000n\000e\000m\000e\000n\000t\000s\000\040\000I\000n\000f\000o\000r\000m\000a\000t\000i\000q\000u\000e\000s\000\040\000d\000'\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000H\000u\000m\000a\000i\000n}{part.2}% 27 | |
\BOOKMARK [1][]{section.3.1}{\376\377\0003\000.\0001\000\040\000L\000'\000I\000n\000t\000e\000l\000l\000i\000g\000e\000n\000c\000e\000\040\000A\000r\000t\000i\000f\000i\000c\000i\000e\000l\000l\000e}{chapter.3}% 28 | 28 | 28 | \BOOKMARK [1][]{section.3.1}{\376\377\0003\000.\0001\000\040\000L\000'\000I\000n\000t\000e\000l\000l\000i\000g\000e\000n\000c\000e\000\040\000A\000r\000t\000i\000f\000i\000c\000i\000e\000l\000l\000e}{chapter.3}% 28 | |
\BOOKMARK [1][]{section.3.2}{\376\377\0003\000.\0002\000\040\000S\000y\000s\000t\000\350\000m\000e\000s\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000d\000a\000n\000s\000\040\000l\000e\000s\000\040\000E\000I\000A\000H}{chapter.3}% 29 | 29 | 29 | \BOOKMARK [1][]{section.3.2}{\376\377\0003\000.\0002\000\040\000S\000y\000s\000t\000\350\000m\000e\000s\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000d\000a\000n\000s\000\040\000l\000e\000s\000\040\000E\000I\000A\000H}{chapter.3}% 29 | |
\BOOKMARK [0][]{chapter.4}{\376\377\0004\000\040\000\311\000t\000a\000t\000\040\000d\000e\000\040\000l\000'\000a\000r\000t\000\040\000\050\000R\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000P\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000C\000a\000s\000\051}{part.2}% 30 | 30 | 30 | \BOOKMARK [0][]{chapter.4}{\376\377\0004\000\040\000\311\000t\000a\000t\000\040\000d\000e\000\040\000l\000'\000a\000r\000t\000\040\000\050\000R\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000P\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000C\000a\000s\000\051}{part.2}% 30 | |
\BOOKMARK [1][]{section.4.1}{\376\377\0004\000.\0001\000\040\000I\000n\000t\000\351\000g\000r\000a\000t\000i\000o\000n\000\040\000d\000'\000u\000n\000\040\000r\000\351\000s\000e\000a\000u\000\040\000d\000e\000\040\000n\000e\000u\000r\000o\000n\000e\000s\000\040\000d\000a\000n\000s\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 31 | 31 | 31 | \BOOKMARK [1][]{section.4.1}{\376\377\0004\000.\0001\000\040\000I\000n\000t\000\351\000g\000r\000a\000t\000i\000o\000n\000\040\000d\000'\000u\000n\000\040\000r\000\351\000s\000e\000a\000u\000\040\000d\000e\000\040\000n\000e\000u\000r\000o\000n\000e\000s\000\040\000d\000a\000n\000s\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 31 | |
\BOOKMARK [1][]{section.4.2}{\376\377\0004\000.\0002\000\040\000L\000e\000\040\000R\000\340\000P\000C\000\040\000p\000o\000u\000r\000\040\000c\000o\000n\000s\000t\000r\000u\000i\000r\000e\000\040\000o\000u\000\040\000c\000o\000r\000r\000i\000g\000e\000r\000\040\000u\000n\000\040\000t\000e\000x\000t\000e\000,\000\040\000p\000o\000u\000r\000\040\000c\000o\000n\000s\000o\000l\000i\000d\000e\000r\000\040\000o\000u\000\040\000e\000x\000p\000l\000i\000q\000u\000e\000r\000\040\000l\000e\000s\000\040\000r\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000o\000b\000t\000e\000n\000u\000s}{chapter.4}% 32 | 32 | 32 | \BOOKMARK [1][]{section.4.2}{\376\377\0004\000.\0002\000\040\000L\000e\000\040\000R\000\340\000P\000C\000\040\000p\000o\000u\000r\000\040\000c\000o\000n\000s\000t\000r\000u\000i\000r\000e\000\040\000o\000u\000\040\000c\000o\000r\000r\000i\000g\000e\000r\000\040\000u\000n\000\040\000t\000e\000x\000t\000e\000,\000\040\000p\000o\000u\000r\000\040\000c\000o\000n\000s\000o\000l\000i\000d\000e\000r\000\040\000o\000u\000\040\000e\000x\000p\000l\000i\000q\000u\000e\000r\000\040\000l\000e\000s\000\040\000r\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000o\000b\000t\000e\000n\000u\000s}{chapter.4}% 32 | |
\BOOKMARK [1][]{section.4.3}{\376\377\0004\000.\0003\000\040\000T\000r\000a\000v\000a\000u\000x\000\040\000r\000\351\000c\000e\000n\000t\000s\000\040\000s\000u\000r\000\040\000l\000a\000\040\000r\000e\000p\000r\000\351\000s\000e\000n\000t\000a\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000a\000s\000\040\000e\000t\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 33 | 33 | 33 | \BOOKMARK [1][]{section.4.3}{\376\377\0004\000.\0003\000\040\000T\000r\000a\000v\000a\000u\000x\000\040\000r\000\351\000c\000e\000n\000t\000s\000\040\000s\000u\000r\000\040\000l\000a\000\040\000r\000e\000p\000r\000\351\000s\000e\000n\000t\000a\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000a\000s\000\040\000e\000t\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 33 | |
\BOOKMARK [1][]{section.4.4}{\376\377\0004\000.\0004\000\040\000I\000n\000t\000\351\000g\000r\000a\000t\000i\000o\000n\000\040\000d\000'\000a\000u\000t\000r\000e\000s\000\040\000a\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000d\000a\000n\000s\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 34 | 34 | 34 | \BOOKMARK [1][]{section.4.4}{\376\377\0004\000.\0004\000\040\000I\000n\000t\000\351\000g\000r\000a\000t\000i\000o\000n\000\040\000d\000'\000a\000u\000t\000r\000e\000s\000\040\000a\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000d\000a\000n\000s\000\040\000l\000e\000\040\000c\000y\000c\000l\000e\000\040\000d\000u\000\040\000R\000\340\000P\000C}{chapter.4}% 34 | |
\BOOKMARK [1][]{section.4.5}{\376\377\0004\000.\0005\000\040\000P\000r\000\351\000d\000i\000c\000t\000i\000o\000n\000\040\000e\000t\000\040\000i\000n\000t\000e\000r\000p\000o\000l\000a\000t\000i\000o\000n\000\040\000e\000n\000\040\000u\000t\000i\000l\000i\000s\000a\000n\000t\000\040\000l\000e\000\040\000R\000\340\000P\000C}{chapter.4}% 35 | 35 | 35 | \BOOKMARK [1][]{section.4.5}{\376\377\0004\000.\0005\000\040\000P\000r\000\351\000d\000i\000c\000t\000i\000o\000n\000\040\000e\000t\000\040\000i\000n\000t\000e\000r\000p\000o\000l\000a\000t\000i\000o\000n\000\040\000e\000n\000\040\000u\000t\000i\000l\000i\000s\000a\000n\000t\000\040\000l\000e\000\040\000R\000\340\000P\000C}{chapter.4}% 35 | |
\BOOKMARK [1][]{section.4.6}{\376\377\0004\000.\0006\000\040\000R\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000,\000\040\000E\000I\000A\000H\000\040\000e\000t\000\040\000R\000\340\000P\000C}{chapter.4}% 36 | 36 | 36 | \BOOKMARK [1][]{section.4.6}{\376\377\0004\000.\0006\000\040\000R\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000,\000\040\000E\000I\000A\000H\000\040\000e\000t\000\040\000R\000\340\000P\000C}{chapter.4}% 36 | |
\BOOKMARK [1][]{section.4.7}{\376\377\0004\000.\0007\000\040\000R\000\351\000c\000a\000p\000i\000t\000u\000l\000a\000t\000i\000f\000\040\000d\000e\000s\000\040\000l\000i\000m\000i\000t\000e\000s\000\040\000d\000e\000s\000\040\000t\000r\000a\000v\000a\000u\000x\000\040\000p\000r\000\351\000s\000e\000n\000t\000\351\000s\000\040\000d\000a\000n\000s\000\040\000c\000e\000\040\000c\000h\000a\000p\000i\000t\000r\000e}{chapter.4}% 37 | 37 | 37 | \BOOKMARK [1][]{section.4.7}{\376\377\0004\000.\0007\000\040\000R\000\351\000c\000a\000p\000i\000t\000u\000l\000a\000t\000i\000f\000\040\000d\000e\000s\000\040\000l\000i\000m\000i\000t\000e\000s\000\040\000d\000e\000s\000\040\000t\000r\000a\000v\000a\000u\000x\000\040\000p\000r\000\351\000s\000e\000n\000t\000\351\000s\000\040\000d\000a\000n\000s\000\040\000c\000e\000\040\000c\000h\000a\000p\000i\000t\000r\000e}{chapter.4}% 37 | |
\BOOKMARK [-1][]{part.3}{\376\377\000I\000I\000I\000\040\000C\000o\000n\000t\000r\000i\000b\000u\000t\000i\000o\000n\000s}{}% 38 | 38 | 38 | \BOOKMARK [-1][]{part.3}{\376\377\000I\000I\000I\000\040\000C\000o\000n\000t\000r\000i\000b\000u\000t\000i\000o\000n\000s}{}% 38 | |
\BOOKMARK [0][]{chapter.5}{\376\377\0005\000\040\000A\000r\000c\000h\000i\000t\000e\000c\000t\000u\000r\000e\000\040\000G\000l\000o\000b\000a\000l\000e\000\040\000d\000u\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000A\000I\000-\000V\000T}{part.3}% 39 | 39 | 39 | \BOOKMARK [0][]{chapter.5}{\376\377\0005\000\040\000A\000r\000c\000h\000i\000t\000e\000c\000t\000u\000r\000e\000\040\000G\000l\000o\000b\000a\000l\000e\000\040\000d\000u\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000A\000I\000-\000V\000T}{part.3}% 39 | |
\BOOKMARK [1][]{section.5.1}{\376\377\0005\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.5}% 40 | 40 | 40 | \BOOKMARK [1][]{section.5.1}{\376\377\0005\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.5}% 40 | |
\BOOKMARK [1][]{section.5.2}{\376\377\0005\000.\0002\000\040\000D\000e\000s\000c\000r\000i\000p\000t\000i\000o\000n\000\040\000d\000u\000\040\000s\000y\000s\000t\000\350\000m\000e\000\040\000A\000I\000-\000V\000T}{chapter.5}% 41 | 41 | 41 | \BOOKMARK [1][]{section.5.2}{\376\377\0005\000.\0002\000\040\000D\000e\000s\000c\000r\000i\000p\000t\000i\000o\000n\000\040\000d\000u\000\040\000s\000y\000s\000t\000\350\000m\000e\000\040\000A\000I\000-\000V\000T}{chapter.5}% 41 | |
\BOOKMARK [1][]{section.5.3}{\376\377\0005\000.\0003\000\040\000M\000o\000d\000\350\000l\000e\000\040\000d\000'\000a\000r\000c\000h\000i\000t\000e\000c\000t\000u\000r\000e\000\040\000p\000r\000o\000p\000o\000s\000\351}{chapter.5}% 42 | 42 | 42 | \BOOKMARK [1][]{section.5.3}{\376\377\0005\000.\0003\000\040\000M\000o\000d\000\350\000l\000e\000\040\000d\000'\000a\000r\000c\000h\000i\000t\000e\000c\000t\000u\000r\000e\000\040\000p\000r\000o\000p\000o\000s\000\351}{chapter.5}% 42 | |
\BOOKMARK [2][]{subsection.5.3.1}{\376\377\0005\000.\0003\000.\0001\000\040\000C\000o\000r\000r\000e\000c\000t\000i\000o\000n\000\040\000a\000u\000t\000o\000m\000a\000t\000i\000q\000u\000e}{section.5.3}% 43 | 43 | 43 | \BOOKMARK [2][]{subsection.5.3.1}{\376\377\0005\000.\0003\000.\0001\000\040\000C\000o\000r\000r\000e\000c\000t\000i\000o\000n\000\040\000a\000u\000t\000o\000m\000a\000t\000i\000q\000u\000e}{section.5.3}% 43 | |
\BOOKMARK [2][]{subsection.5.3.2}{\376\377\0005\000.\0003\000.\0002\000\040\000I\000d\000e\000n\000t\000i\000f\000i\000c\000a\000t\000i\000o\000n}{section.5.3}% 44 | 44 | 44 | \BOOKMARK [2][]{subsection.5.3.2}{\376\377\0005\000.\0003\000.\0002\000\040\000I\000d\000e\000n\000t\000i\000f\000i\000c\000a\000t\000i\000o\000n}{section.5.3}% 44 | |
\BOOKMARK [2][]{subsection.5.3.3}{\376\377\0005\000.\0003\000.\0003\000\040\000R\000\351\000v\000i\000s\000i\000o\000n}{section.5.3}% 45 | 45 | 45 | \BOOKMARK [2][]{subsection.5.3.3}{\376\377\0005\000.\0003\000.\0003\000\040\000R\000\351\000v\000i\000s\000i\000o\000n}{section.5.3}% 45 | |
\BOOKMARK [2][]{subsection.5.3.4}{\376\377\0005\000.\0003\000.\0004\000\040\000T\000e\000s\000t}{section.5.3}% 46 | 46 | 46 | \BOOKMARK [2][]{subsection.5.3.4}{\376\377\0005\000.\0003\000.\0004\000\040\000T\000e\000s\000t}{section.5.3}% 46 | |
\BOOKMARK [1][]{section.5.4}{\376\377\0005\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{chapter.5}% 47 | 47 | 47 | \BOOKMARK [1][]{section.5.4}{\376\377\0005\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{chapter.5}% 47 | |
\BOOKMARK [0][]{chapter.6}{\376\377\0006\000\040\000L\000e\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s\000\040\000\050\000R\000\340\000P\000C\000\051\000\040\000p\000o\000u\000r\000\040\000l\000a\000\040\000r\000\351\000g\000r\000e\000s\000s\000i\000o\000n}{part.3}% 48 | 48 | 48 | \BOOKMARK [0][]{chapter.6}{\376\377\0006\000\040\000L\000e\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s\000\040\000\050\000R\000\340\000P\000C\000\051\000\040\000p\000o\000u\000r\000\040\000l\000a\000\040\000r\000\351\000g\000r\000e\000s\000s\000i\000o\000n}{part.3}% 48 | |
\BOOKMARK [1][]{section.6.1}{\376\377\0006\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.6}% 49 | 49 | 49 | \BOOKMARK [1][]{section.6.1}{\376\377\0006\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.6}% 49 | |
\BOOKMARK [1][]{section.6.2}{\376\377\0006\000.\0002\000\040\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000p\000a\000r\000\040\000e\000m\000p\000i\000l\000e\000m\000e\000n\000t\000\040\000e\000t\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s}{chapter.6}% 50 | 50 | 50 | \BOOKMARK [1][]{section.6.2}{\376\377\0006\000.\0002\000\040\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000p\000a\000r\000\040\000e\000m\000p\000i\000l\000e\000m\000e\000n\000t\000\040\000e\000t\000\040\000r\000a\000i\000s\000o\000n\000n\000e\000m\000e\000n\000t\000\040\000\340\000\040\000p\000a\000r\000t\000i\000r\000\040\000d\000e\000\040\000c\000a\000s}{chapter.6}% 50 | |
\BOOKMARK [2][]{subsection.6.2.1}{\376\377\0006\000.\0002\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.6.2}% 51 | 51 | 51 | \BOOKMARK [2][]{subsection.6.2.1}{\376\377\0006\000.\0002\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.6.2}% 51 | |
\BOOKMARK [3][]{subsubsection.6.2.1.1}{\376\377\0006\000.\0002\000.\0001\000.\0001\000\040\000R\000e\000c\000h\000e\000r\000c\000h\000e\000r}{subsection.6.2.1}% 52 | 52 | 52 | \BOOKMARK [3][]{subsubsection.6.2.1.1}{\376\377\0006\000.\0002\000.\0001\000.\0001\000\040\000R\000e\000c\000h\000e\000r\000c\000h\000e\000r}{subsection.6.2.1}% 52 | |
\BOOKMARK [3][]{subsubsection.6.2.1.2}{\376\377\0006\000.\0002\000.\0001\000.\0002\000\040\000R\000\351\000u\000t\000i\000l\000i\000s\000e\000r}{subsection.6.2.1}% 53 | 53 | 53 | \BOOKMARK [3][]{subsubsection.6.2.1.2}{\376\377\0006\000.\0002\000.\0001\000.\0002\000\040\000R\000\351\000u\000t\000i\000l\000i\000s\000e\000r}{subsection.6.2.1}% 53 | |
\BOOKMARK [3][]{subsubsection.6.2.1.3}{\376\377\0006\000.\0002\000.\0001\000.\0003\000\040\000R\000\351\000v\000i\000s\000i\000o\000n}{subsection.6.2.1}% 54 | 54 | 54 | \BOOKMARK [3][]{subsubsection.6.2.1.3}{\376\377\0006\000.\0002\000.\0001\000.\0003\000\040\000R\000\351\000v\000i\000s\000i\000o\000n}{subsection.6.2.1}% 54 | |
\BOOKMARK [3][]{subsubsection.6.2.1.4}{\376\377\0006\000.\0002\000.\0001\000.\0004\000\040\000M\000\351\000m\000o\000r\000i\000s\000a\000t\000i\000o\000n}{subsection.6.2.1}% 55 | 55 | 55 | \BOOKMARK [3][]{subsubsection.6.2.1.4}{\376\377\0006\000.\0002\000.\0001\000.\0004\000\040\000M\000\351\000m\000o\000r\000i\000s\000a\000t\000i\000o\000n}{subsection.6.2.1}% 55 | |
\BOOKMARK [2][]{subsection.6.2.2}{\376\377\0006\000.\0002\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.6.2}% 56 | 56 | 56 | \BOOKMARK [2][]{subsection.6.2.2}{\376\377\0006\000.\0002\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.6.2}% 56 | |
\BOOKMARK [2][]{subsection.6.2.3}{\376\377\0006\000.\0002\000.\0003\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.6.2}% 57 | 57 | 57 | \BOOKMARK [2][]{subsection.6.2.3}{\376\377\0006\000.\0002\000.\0003\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.6.2}% 57 | |
\BOOKMARK [2][]{subsection.6.2.4}{\376\377\0006\000.\0002\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.6.2}% 58 | 58 | 58 | \BOOKMARK [2][]{subsection.6.2.4}{\376\377\0006\000.\0002\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.6.2}% 58 | |
\BOOKMARK [1][]{section.6.3}{\376\377\0006\000.\0003\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000:\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000y\000s\000t\000\350\000m\000e\000s\000\040\000m\000u\000l\000t\000i\000-\000a\000g\000e\000n\000t\000s\000\040\000d\000a\000n\000s\000\040\000E\000S\000C\000B\000R}{chapter.6}% 59 | 59 | 59 | \BOOKMARK [1][]{section.6.3}{\376\377\0006\000.\0003\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000:\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n\000\040\000d\000e\000s\000\040\000s\000y\000s\000t\000\350\000m\000e\000s\000\040\000m\000u\000l\000t\000i\000-\000a\000g\000e\000n\000t\000s\000\040\000d\000a\000n\000s\000\040\000E\000S\000C\000B\000R}{chapter.6}% 59 | |
\BOOKMARK [2][]{subsection.6.3.1}{\376\377\0006\000.\0003\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.6.3}% 60 | 60 | 60 | \BOOKMARK [2][]{subsection.6.3.1}{\376\377\0006\000.\0003\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.6.3}% 60 | |
\BOOKMARK [3][]{subsubsection.6.3.1.1}{\376\377\0006\000.\0003\000.\0001\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s}{subsection.6.3.1}% 61 | 61 | 61 | \BOOKMARK [3][]{subsubsection.6.3.1.1}{\376\377\0006\000.\0003\000.\0001\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000s\000\040\000s\000u\000i\000v\000i\000s\000\040\000p\000a\000r\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.6.3.1}% 61 | |
\BOOKMARK [3][]{subsubsection.6.3.1.2}{\376\377\0006\000.\0003\000.\0001\000.\0002\000\040\000S\000t\000r\000u\000c\000t\000u\000r\000e\000\040\000d\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 62 | 62 | 62 | \BOOKMARK [3][]{subsubsection.6.3.1.2}{\376\377\0006\000.\0003\000.\0001\000.\0002\000\040\000S\000t\000r\000u\000c\000t\000u\000r\000e\000\040\000d\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 62 | |
\BOOKMARK [3][]{subsubsection.6.3.1.3}{\376\377\0006\000.\0003\000.\0001\000.\0003\000\040\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000d\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 63 | 63 | 63 | \BOOKMARK [3][]{subsubsection.6.3.1.3}{\376\377\0006\000.\0003\000.\0001\000.\0003\000\040\000A\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000d\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 63 | |
\BOOKMARK [3][]{subsubsection.6.3.1.4}{\376\377\0006\000.\0003\000.\0001\000.\0004\000\040\000\311\000c\000h\000a\000n\000g\000e\000s\000\040\000e\000n\000t\000r\000e\000\040\000l\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 64 | 64 | 64 | \BOOKMARK [3][]{subsubsection.6.3.1.4}{\376\377\0006\000.\0003\000.\0001\000.\0004\000\040\000\311\000c\000h\000a\000n\000g\000e\000s\000\040\000e\000n\000t\000r\000e\000\040\000l\000e\000s\000\040\000a\000g\000e\000n\000t\000s}{subsection.6.3.1}% 64 | |
\BOOKMARK [2][]{subsection.6.3.2}{\376\377\0006\000.\0003\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.6.3}% 65 | 65 | 65 | \BOOKMARK [2][]{subsection.6.3.2}{\376\377\0006\000.\0003\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.6.3}% 65 | |
\BOOKMARK [2][]{subsection.6.3.3}{\376\377\0006\000.\0003\000.\0003\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.6.3}% 66 | 66 | 66 | \BOOKMARK [2][]{subsection.6.3.3}{\376\377\0006\000.\0003\000.\0003\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.6.3}% 66 | |
\BOOKMARK [0][]{chapter.7}{\376\377\0007\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000R\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000d\000a\000n\000s\000\040\000A\000I\000-\000V\000T}{part.3}% 67 | 67 | 67 | \BOOKMARK [0][]{chapter.7}{\376\377\0007\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000R\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000d\000a\000n\000s\000\040\000A\000I\000-\000V\000T}{part.3}% 67 | |
\BOOKMARK [1][]{section.7.1}{\376\377\0007\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.7}% 68 | 68 | 68 | \BOOKMARK [1][]{section.7.1}{\376\377\0007\000.\0001\000\040\000I\000n\000t\000r\000o\000d\000u\000c\000t\000i\000o\000n}{chapter.7}% 68 | |
\BOOKMARK [1][]{section.7.2}{\376\377\0007\000.\0002\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000s\000t\000o\000c\000h\000a\000s\000t\000i\000q\000u\000e\000\040\000f\000o\000n\000d\000\351\000\040\000s\000u\000r\000\040\000l\000'\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n}{chapter.7}% 69 | 69 | 69 | \BOOKMARK [1][]{section.7.2}{\376\377\0007\000.\0002\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000s\000t\000o\000c\000h\000a\000s\000t\000i\000q\000u\000e\000\040\000f\000o\000n\000d\000\351\000\040\000s\000u\000r\000\040\000l\000'\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n}{chapter.7}% 69 | |
\BOOKMARK [2][]{subsection.7.2.1}{\376\377\0007\000.\0002\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.2}% 70 | 70 | 70 | \BOOKMARK [2][]{subsection.7.2.1}{\376\377\0007\000.\0002\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.2}% 70 | |
\BOOKMARK [2][]{subsection.7.2.2}{\376\377\0007\000.\0002\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.7.2}% 71 | 71 | 71 | \BOOKMARK [2][]{subsection.7.2.2}{\376\377\0007\000.\0002\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s}{section.7.2}% 71 | |
\BOOKMARK [2][]{subsection.7.2.3}{\376\377\0007\000.\0002\000.\0003\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n\000\040\000e\000t\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.2}% 72 | 72 | 72 | \BOOKMARK [2][]{subsection.7.2.3}{\376\377\0007\000.\0002\000.\0003\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n\000\040\000e\000t\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.2}% 72 | |
\BOOKMARK [1][]{section.7.3}{\376\377\0007\000.\0003\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000e\000t\000\040\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n}{chapter.7}% 73 | 73 | 73 | \BOOKMARK [1][]{section.7.3}{\376\377\0007\000.\0003\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000e\000t\000\040\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n}{chapter.7}% 73 | |
\BOOKMARK [2][]{subsection.7.3.1}{\376\377\0007\000.\0003\000.\0001\000\040\000C\000o\000n\000c\000e\000p\000t\000s\000\040\000A\000s\000s\000o\000c\000i\000\351\000s}{section.7.3}% 74 | 74 | 74 | \BOOKMARK [2][]{subsection.7.3.1}{\376\377\0007\000.\0003\000.\0001\000\040\000C\000o\000n\000c\000e\000p\000t\000s\000\040\000A\000s\000s\000o\000c\000i\000\351\000s}{section.7.3}% 74 | |
\BOOKMARK [2][]{subsection.7.3.2}{\376\377\0007\000.\0003\000.\0002\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.3}% 75 | 75 | 75 | \BOOKMARK [2][]{subsection.7.3.2}{\376\377\0007\000.\0003\000.\0002\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.3}% 75 | |
\BOOKMARK [2][]{subsection.7.3.3}{\376\377\0007\000.\0003\000.\0003\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000e\000t\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.7.3}% 76 | 76 | 76 | \BOOKMARK [2][]{subsection.7.3.3}{\376\377\0007\000.\0003\000.\0003\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000e\000t\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.7.3}% 76 | |
\BOOKMARK [3][]{subsubsection.7.3.3.1}{\376\377\0007\000.\0003\000.\0003\000.\0001\000\040\000R\000\351\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000p\000o\000u\000r\000\040\000l\000'\000a\000i\000d\000e\000\040\000\340\000\040\000l\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n}{subsection.7.3.3}% 77 | 77 | 77 | \BOOKMARK [3][]{subsubsection.7.3.3.1}{\376\377\0007\000.\0003\000.\0003\000.\0001\000\040\000R\000\351\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000\040\000p\000o\000u\000r\000\040\000l\000'\000a\000i\000d\000e\000\040\000\340\000\040\000l\000'\000a\000p\000p\000r\000e\000n\000t\000i\000s\000s\000a\000g\000e\000\040\000h\000u\000m\000a\000i\000n}{subsection.7.3.3}% 77 | |
\BOOKMARK [3][]{subsubsection.7.3.3.2}{\376\377\0007\000.\0003\000.\0003\000.\0002\000\040\000P\000r\000o\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e\000s}{subsection.7.3.3}% 78 | 78 | 78 | \BOOKMARK [3][]{subsubsection.7.3.3.2}{\376\377\0007\000.\0003\000.\0003\000.\0002\000\040\000P\000r\000o\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e\000s}{subsection.7.3.3}% 78 | |
\BOOKMARK [3][]{subsubsection.7.3.3.3}{\376\377\0007\000.\0003\000.\0003\000.\0003\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000u\000n\000\040\000j\000e\000u\000\040\000d\000e\000\040\000d\000o\000n\000n\000\351\000e\000s\000\040\000d\000'\000\351\000t\000u\000d\000i\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 79 | 79 | 79 | \BOOKMARK [3][]{subsubsection.7.3.3.3}{\376\377\0007\000.\0003\000.\0003\000.\0003\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000u\000n\000\040\000j\000e\000u\000\040\000d\000e\000\040\000d\000o\000n\000n\000\351\000e\000s\000\040\000d\000'\000a\000p\000p\000r\000e\000n\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s}{subsection.7.3.3}% 79 | |
\BOOKMARK [3][]{subsubsection.7.3.3.4}{\376\377\0007\000.\0003\000.\0003\000.\0004\000\040\000C\000o\000m\000p\000a\000r\000a\000i\000s\000o\000n\000\040\000e\000n\000t\000r\000e\000\040\000T\000S\000\040\000e\000t\000\040\000B\000K\000T}{subsection.7.3.3}% 80 | 80 | 80 | \BOOKMARK [3][]{subsubsection.7.3.3.4}{\376\377\0007\000.\0003\000.\0003\000.\0004\000\040\000C\000o\000m\000p\000a\000r\000a\000i\000s\000o\000n\000\040\000e\000n\000t\000r\000e\000\040\000T\000S\000\040\000e\000t\000\040\000B\000K\000T}{subsection.7.3.3}% 80 | |
\BOOKMARK [3][]{subsubsection.7.3.3.5}{\376\377\0007\000.\0003\000.\0003\000.\0005\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.7.3.3}% 81 | 81 | 81 | \BOOKMARK [3][]{subsubsection.7.3.3.5}{\376\377\0007\000.\0003\000.\0003\000.\0005\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.7.3.3}% 81 | |
\BOOKMARK [3][]{subsubsection.7.3.3.6}{\376\377\0007\000.\0003\000.\0003\000.\0006\000\040\000P\000r\000o\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e\000s\000\040\000T\000S\000\040\000v\000s\000\040\000T\000S\000\040\000e\000t\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.7.3.3}% 82 | 82 | 82 | \BOOKMARK [3][]{subsubsection.7.3.3.6}{\376\377\0007\000.\0003\000.\0003\000.\0006\000\040\000P\000r\000o\000g\000r\000e\000s\000s\000i\000o\000n\000\040\000d\000e\000s\000\040\000c\000o\000n\000n\000a\000i\000s\000s\000a\000n\000c\000e\000s\000\040\000T\000S\000\040\000v\000s\000\040\000T\000S\000\040\000e\000t\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A}{subsection.7.3.3}% 82 | |
\BOOKMARK [2][]{subsection.7.3.4}{\376\377\0007\000.\0003\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.3}% 83 | 83 | 83 | \BOOKMARK [2][]{subsection.7.3.4}{\376\377\0007\000.\0003\000.\0004\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.3}% 83 | |
\BOOKMARK [1][]{section.7.4}{\376\377\0007\000.\0004\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000,\000\040\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000e\000t\000\040\000p\000r\000o\000c\000e\000s\000s\000u\000s\000\040\000d\000e\000\040\000H\000a\000w\000k\000e\000s}{chapter.7}% 84 | 84 | 84 | \BOOKMARK [1][]{section.7.4}{\376\377\0007\000.\0004\000\040\000E\000S\000C\000B\000R\000-\000S\000M\000A\000,\000\040\000\351\000c\000h\000a\000n\000t\000i\000l\000l\000o\000n\000n\000a\000g\000e\000\040\000d\000e\000\040\000T\000h\000o\000m\000p\000s\000o\000n\000\040\000e\000t\000\040\000p\000r\000o\000c\000e\000s\000s\000u\000s\000\040\000d\000e\000\040\000H\000a\000w\000k\000e\000s}{chapter.7}% 84 | |
\BOOKMARK [2][]{subsection.7.4.1}{\376\377\0007\000.\0004\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.4}% 85 | 85 | 85 | \BOOKMARK [2][]{subsection.7.4.1}{\376\377\0007\000.\0004\000.\0001\000\040\000A\000l\000g\000o\000r\000i\000t\000h\000m\000e\000\040\000P\000r\000o\000p\000o\000s\000\351}{section.7.4}% 85 | |
\BOOKMARK [2][]{subsection.7.4.2}{\376\377\0007\000.\0004\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000e\000t\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.7.4}% 86 | 86 | 86 | \BOOKMARK [2][]{subsection.7.4.2}{\376\377\0007\000.\0004\000.\0002\000\040\000R\000\351\000s\000u\000l\000t\000a\000t\000s\000\040\000e\000t\000\040\000D\000i\000s\000c\000u\000s\000s\000i\000o\000n}{section.7.4}% 86 | |
\BOOKMARK [3][]{subsubsection.7.4.2.1}{\376\377\0007\000.\0004\000.\0002\000.\0001\000\040\000S\000y\000s\000t\000\350\000m\000e\000\040\000d\000e\000\040\000r\000e\000c\000o\000m\000m\000a\000n\000d\000a\000t\000i\000o\000n\000\040\000a\000v\000e\000c\000\040\000u\000n\000\040\000j\000e\000u\000\040\000d\000e\000\040\000d\000o\000n\000n\000\351\000e\000s\000\040\000d\000'\000\351\000t\000u\000d\000i\000a\000n\000t\000s\000\040\000r\000\351\000e\000l\000s\000\040\000\050\000T\000S\000\040\000a\000v\000e\000c\000\040\000H\000a\000w\000k\000e\000s\000\051}{subsection.7.4.2}% 87 | 87 | 87 | \BOOKMARK [2][]{subsection.7.4.3}{\376\377\0007\000.\0004\000.\0003\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.4}% 87 | |
\BOOKMARK [3][]{subsubsection.7.4.2.2}{\376\377\0007\000.\0004\000.\0002\000.\0002\000\040\000M\000e\000s\000u\000r\000e\000s\000\040\000d\000e\000\040\000p\000e\000r\000f\000o\000r\000m\000a\000n\000c\000e\000s}{subsection.7.4.2}% 88 | 88 | 88 | \BOOKMARK [0][]{chapter.8}{\376\377\0008\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000s\000\040\000e\000t\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{part.3}% 88 | |
\BOOKMARK [2][]{subsection.7.4.3}{\376\377\0007\000.\0004\000.\0003\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n}{section.7.4}% 89 | 89 | 89 | \BOOKMARK [1][]{section.8.1}{\376\377\0008\000.\0001\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000\040\000g\000\351\000n\000\351\000r\000a\000l\000e}{chapter.8}% 89 | |
\BOOKMARK [0][]{chapter.8}{\376\377\0008\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000s\000\040\000e\000t\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{part.3}% 90 | 90 | 90 | \BOOKMARK [1][]{section.8.2}{\376\377\0008\000.\0002\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{chapter.8}% 90 | |
\BOOKMARK [1][]{section.8.1}{\376\377\0008\000.\0001\000\040\000C\000o\000n\000c\000l\000u\000s\000i\000o\000n\000\040\000g\000\351\000n\000\351\000r\000a\000l\000e}{chapter.8}% 91 | 91 | 91 | \BOOKMARK [0][]{chapter.9}{\376\377\0009\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{part.3}% 91 | |
\BOOKMARK [1][]{section.8.2}{\376\377\0008\000.\0002\000\040\000P\000e\000r\000s\000p\000e\000c\000t\000i\000v\000e\000s}{chapter.8}% 92 | 92 | 92 | \BOOKMARK [1][]{section.9.1}{\376\377\0009\000.\0001\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s\000\040\000l\000i\000\351\000e\000s\000\040\000a\000u\000\040\000s\000u\000j\000e\000t\000\040\000d\000e\000\040\000t\000h\000\350\000s\000e}{chapter.9}% 92 | |
\BOOKMARK [0][]{chapter.9}{\376\377\0009\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{part.3}% 93 | 93 | 93 | \BOOKMARK [1][]{section.9.2}{\376\377\0009\000.\0002\000\040\000A\000u\000t\000r\000e\000s\000\040\000p\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{chapter.9}% 93 | |
\BOOKMARK [1][]{section.9.1}{\376\377\0009\000.\0001\000\040\000P\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s\000\040\000l\000i\000\351\000e\000s\000\040\000a\000u\000\040\000s\000u\000j\000e\000t\000\040\000d\000e\000\040\000t\000h\000\350\000s\000e}{chapter.9}% 94 | 94 | |||
\BOOKMARK [1][]{section.9.2}{\376\377\0009\000.\0002\000\040\000A\000u\000t\000r\000e\000s\000\040\000p\000u\000b\000l\000i\000c\000a\000t\000i\000o\000n\000s}{chapter.9}% 95 | 95 | |||
96 | 94 | |||
main.pdf
View file @
4b1afa3
main.synctex.gz
View file @
4b1afa3
main.tex
View file @
4b1afa3
%% Use the standard UP-methodology class | 1 | 1 | %% Use the standard UP-methodology class | |
%% with French language. | 2 | 2 | %% with French language. | |
%% | 3 | 3 | %% | |
%% You may specify the option 'twoside' or 'oneside' for | 4 | 4 | %% You may specify the option 'twoside' or 'oneside' for | |
%% the document. | 5 | 5 | %% the document. | |
%% | 6 | 6 | %% | |
%% See the documentation tex-upmethodology on | 7 | 7 | %% See the documentation tex-upmethodology on | |
%% http://www.arakhne.org/tex-upmethodology/ | 8 | 8 | %% http://www.arakhne.org/tex-upmethodology/ | |
%% for details about the macros that are provided by the class and | 9 | 9 | %% for details about the macros that are provided by the class and | |
%% to obtain the list of the packages that are already included. | 10 | 10 | %% to obtain the list of the packages that are already included. | |
11 | 11 | |||
\documentclass[a4paper,french]{spimufcphdthesis} | 12 | 12 | \documentclass[a4paper,french]{spimufcphdthesis} | |
\renewcommand{\familydefault}{\sfdefault} % Met tout le texte en 'sans serif'. | 13 | 13 | \renewcommand{\familydefault}{\sfdefault} % Met tout le texte en 'sans serif'. | |
14 | 14 | |||
%%-------------------- | 15 | 15 | %%-------------------- | |
%% The TeX code is entering with UTF8 | 16 | 16 | %% The TeX code is entering with UTF8 | |
%% character encoding (Linux and MacOS standards) | 17 | 17 | %% character encoding (Linux and MacOS standards) | |
\usepackage[utf8]{inputenc} | 18 | 18 | \usepackage[utf8]{inputenc} | |
19 | 19 | |||
\usepackage[T1]{fontenc} | 20 | 20 | \usepackage[T1]{fontenc} | |
\usepackage{times} | 21 | 21 | \usepackage{times} | |
\usepackage{graphicx} | 22 | 22 | \usepackage{graphicx} | |
\usepackage{xcolor,graphicx} | 23 | 23 | \usepackage{xcolor,graphicx} | |
24 | 24 | |||
\usepackage[export]{adjustbox} % Pour aligner image à droite | 25 | 25 | \usepackage[export]{adjustbox} % Pour aligner image à droite | |
26 | 26 | |||
\usepackage{url} | 27 | 27 | \usepackage{url} | |
%\geometry{margin=1in} | 28 | 28 | %\geometry{margin=1in} | |
29 | 29 | |||
%%------------------- | 30 | 30 | %%------------------- | |
%% NATBIB is enabled by default. | 31 | 31 | %% NATBIB is enabled by default. | |
%% If you would like to disable it, put the 'nonatbib' option to the class' options. | 32 | 32 | %% If you would like to disable it, put the 'nonatbib' option to the class' options. | |
33 | 33 | |||
%%-------------------- | 34 | 34 | %%-------------------- | |
%% Include the 'multibib' package to enable to | 35 | 35 | %% Include the 'multibib' package to enable to | |
%% have different types of bibliographies in the | 36 | 36 | %% have different types of bibliographies in the | |
%% document (see at the end of this template for | 37 | 37 | %% document (see at the end of this template for | |
%% an example with a personnal bibliography and | 38 | 38 | %% an example with a personnal bibliography and | |
%% a general bibliography) | 39 | 39 | %% a general bibliography) | |
%% | 40 | 40 | %% | |
%% Each bibliography defined with 'multibib' | 41 | 41 | %% Each bibliography defined with 'multibib' | |
%% adds a chapter with the corresponding | 42 | 42 | %% adds a chapter with the corresponding | |
%% publications (in addition to the chapter for | 43 | 43 | %% publications (in addition to the chapter for | |
%% the standard/general bibliography). | 44 | 44 | %% the standard/general bibliography). | |
%% CAUTION: | 45 | 45 | %% CAUTION: | |
%% There is no standard way to do include this type of | 46 | 46 | %% There is no standard way to do include this type of | |
%% personnal bibliography. | 47 | 47 | %% personnal bibliography. | |
%% We propose to use 'multibib' package to help you, | 48 | 48 | %% We propose to use 'multibib' package to help you, | |
%% for example. | 49 | 49 | %% for example. | |
%\usepackage{multibib} | 50 | 50 | %\usepackage{multibib} | |
51 | 51 | |||
%% Define a "type" of bibliography, here the PERSONAL one, | 52 | 52 | %% Define a "type" of bibliography, here the PERSONAL one, | |
%% that is supported by 'multibib'. | 53 | 53 | %% that is supported by 'multibib'. | |
%\newcites{PERSO}{Liste de mes publications} | 54 | 54 | %\newcites{PERSO}{Liste de mes publications} | |
55 | 55 | |||
%% To cite one of your PERSONAL papers with the style | 56 | 56 | %% To cite one of your PERSONAL papers with the style | |
%% of the PERSONAL bibliography: \citePERSO{key} | 57 | 57 | %% of the PERSONAL bibliography: \citePERSO{key} | |
%% To force to show one of your PERSONAL papers into | 58 | 58 | %% To force to show one of your PERSONAL papers into | |
%% the PERSONAL bibliography, even if not cited in the | 59 | 59 | %% the PERSONAL bibliography, even if not cited in the | |
%% text: \nocitePERSO{key} | 60 | 60 | %% text: \nocitePERSO{key} | |
61 | 61 | |||
%% REMARK: When you are using 'multibib', you | 62 | 62 | %% REMARK: When you are using 'multibib', you | |
%% must compile the PERSONAL bibliography by hand. | 63 | 63 | %% must compile the PERSONAL bibliography by hand. | |
%% For example, the sequence of commands to run | 64 | 64 | %% For example, the sequence of commands to run | |
%% when you had defined the bibliography PERSO is: | 65 | 65 | %% when you had defined the bibliography PERSO is: | |
%% $ pdflatex my_document.tex | 66 | 66 | %% $ pdflatex my_document.tex | |
%% $ bibtex my_document.aux | 67 | 67 | %% $ bibtex my_document.aux | |
%% $ bibtex PERSO.aux | 68 | 68 | %% $ bibtex PERSO.aux | |
%% $ pdflatex my_document.tex | 69 | 69 | %% $ pdflatex my_document.tex | |
%% $ pdflatex my_document.tex | 70 | 70 | %% $ pdflatex my_document.tex | |
%% $ pdflatex my_document.tex | 71 | 71 | %% $ pdflatex my_document.tex | |
72 | 72 | |||
%%-------------------- | 73 | 73 | %%-------------------- | |
%% Add here any other packages that are needed for your document. | 74 | 74 | %% Add here any other packages that are needed for your document. | |
%\usepackage{eurosim} | 75 | 75 | %\usepackage{eurosim} | |
\usepackage{amsmath} | 76 | 76 | \usepackage{amsmath} | |
\usepackage{algorithm} | 77 | 77 | \usepackage{algorithm} | |
\usepackage{algpseudocode} | 78 | 78 | \usepackage{algpseudocode} | |
\usepackage{xcolor} | 79 | 79 | \usepackage{xcolor} | |
80 | 80 | |||
%%-------------------- | 81 | 81 | %%-------------------- | |
%% Set the title, subtitle, defense date, and | 82 | 82 | %% Set the title, subtitle, defense date, and | |
%% the registration number of the PhD thesis. | 83 | 83 | %% the registration number of the PhD thesis. | |
%% The optional parameter is the subtitle of the PhD thesis. | 84 | 84 | %% The optional parameter is the subtitle of the PhD thesis. | |
%% The first mandatory parameter is the title of the PhD thesis. | 85 | 85 | %% The first mandatory parameter is the title of the PhD thesis. | |
%% The second mandatory parameter is the date of the PhD defense. | 86 | 86 | %% The second mandatory parameter is the date of the PhD defense. | |
%% The third mandatory parameter is the location/city of the PhD defense. | 87 | 87 | %% The third mandatory parameter is the location/city of the PhD defense. | |
%% The forth mandatory parameter is the reference number given by | 88 | 88 | %% The forth mandatory parameter is the reference number given by | |
%% the University Library after the PhD defense. | 89 | 89 | %% the University Library after the PhD defense. | |
\declarethesis%[Sous-titre] | 90 | 90 | \declarethesis%[Sous-titre] | |
%{Adaptation en temps réel d'une séance d'entraînement par intelligence artificielle}{17 septembre 2025}{Besançon}{XXX} | 91 | 91 | %{Adaptation en temps réel d'une séance d'entraînement par intelligence artificielle}{17 septembre 2025}{Besançon}{XXX} | |
92 | 92 | |||
%%-------------------- | 93 | 93 | %%-------------------- | |
%% Set the title in the secondary language | 94 | 94 | %% Set the title in the secondary language | |
%% (it is in English if the PhD dissertation is written in French; it is French if the PhD dissertation is written in English) | 95 | 95 | %% (it is in English if the PhD dissertation is written in French; it is French if the PhD dissertation is written in English) | |
%\declareminorthesistitle{Titre dans la langue secondaire} | 96 | 96 | %\declareminorthesistitle{Titre dans la langue secondaire} | |
97 | 97 | |||
%%-------------------- | 98 | 98 | %%-------------------- | |
%% Add a member of the jury | 99 | 99 | %% Add a member of the jury | |
%% | 100 | 100 | %% | |
%% Two macros are provided: one without civility, one with civility. | 101 | 101 | %% Two macros are provided: one without civility, one with civility. | |
%% | 102 | 102 | %% | |
%% CAUTION 1: If a Jury member is not present during the defense, | 103 | 103 | %% CAUTION 1: If a Jury member is not present during the defense, | |
%% she/he must be in the list of the Jury members. | 104 | 104 | %% she/he must be in the list of the Jury members. | |
%% Only the reviewers and the members who are present during the defense must | 105 | 105 | %% Only the reviewers and the members who are present during the defense must | |
%% appear in the Jyry member list. | 106 | 106 | %% appear in the Jyry member list. | |
%% CAUTION 2: After your defense, you must assign the role "Pr\'esident" to | 107 | 107 | %% CAUTION 2: After your defense, you must assign the role "Pr\'esident" to | |
%% the Jury member who have been the President of the Jury. | 108 | 108 | %% the Jury member who have been the President of the Jury. | |
%% CAUTION 3: The recommended order for the Jury members is: | 109 | 109 | %% CAUTION 3: The recommended order for the Jury members is: | |
%% President, Reviewer(s), Examiner(s), Director(s), | 110 | 110 | %% President, Reviewer(s), Examiner(s), Director(s), | |
%% Other supervisor(s), Invited person(s). | 111 | 111 | %% Other supervisor(s), Invited person(s). | |
%% \addjury{Firstname}{Lastname}{Role in the jury}{Position} | 112 | 112 | %% \addjury{Firstname}{Lastname}{Role in the jury}{Position} | |
113 | 113 | |||
%%-------------------- | 114 | 114 | %%-------------------- | |
%% Change style of the table of the jury | 115 | 115 | %% Change style of the table of the jury | |
%% \Set{jurystyle}{put macros for the style} | 116 | 116 | %% \Set{jurystyle}{put macros for the style} | |
%\Set{jurystyle}{\small} | 117 | 117 | %\Set{jurystyle}{\small} | |
118 | 118 | |||
%%-------------------- | 119 | 119 | %%-------------------- | |
%% Set the English abstract | 120 | 120 | %% Set the English abstract | |
\thesisabstract[english]{The aim of this thesis work is to take into account in real time a learner's work for a better personalization of the intelligent tutoring system named AI-VT (Artificial Intelligence Virtual Trainer). | 121 | 121 | \thesisabstract[english]{The aim of this thesis work is to take into account in real time a learner's work for a better personalization of the intelligent tutoring system named AI-VT (Artificial Intelligence Virtual Trainer). | |
122 | 122 | |||
Some of the most common and typical problems in the field of intelligent tutoring systems (ITS) are (i) correctly identifying learners' difficulties in the learning process, (ii) adapting the content or presentation of the system according to the difficulties encountered, and (iii) the ability to adapt without initial data (cold start). In some cases, the system tolerates modifications after the skills have been acquired and assessed. Other systems require complicated real-time adaptation, as only a limited amount of data can be captured. In this case, they must be analyzed correctly and with a certain degree of precision in order to obtain the appropriate adaptations. The proposed architecture and the modules developed with artificial intelligence techniques work in tandem, exploiting the advantages of each to obtain effective adaptation proposals according to the evolution of learners' knowledge, thus enabling knowledge acquisition and progression in the learning process.} | 123 | 123 | Some of the most common and typical problems in the field of intelligent tutoring systems (ITS) are (i) correctly identifying learners' difficulties in the learning process, (ii) adapting the content or presentation of the system according to the difficulties encountered, and (iii) the ability to adapt without initial data (cold start). In some cases, the system tolerates modifications after the skills have been acquired and assessed. Other systems require complicated real-time adaptation, as only a limited amount of data can be captured. In this case, they must be analyzed correctly and with a certain degree of precision in order to obtain the appropriate adaptations. The proposed architecture and the modules developed with artificial intelligence techniques work in tandem, exploiting the advantages of each to obtain effective adaptation proposals according to the evolution of learners' knowledge, thus enabling knowledge acquisition and progression in the learning process.} | |
124 | 124 | |||
%%-------------------- | 125 | 125 | %%-------------------- | |
%% Set the English keywords. They only appear if | 126 | 126 | %% Set the English keywords. They only appear if | |
%% there is an English abstract | 127 | 127 | %% there is an English abstract | |
\thesiskeywords[english]{Intelligent tutoring systems, Artificial intelligence, Case-based reasoning, Multi-agent systems, Bayesian reasoning, Thompson sampling, Hawkes process} | 128 | 128 | \thesiskeywords[english]{Intelligent tutoring systems, Artificial intelligence, Case-based reasoning, Multi-agent systems, Bayesian reasoning, Thompson sampling, Hawkes process} | |
129 | 129 | |||
%%-------------------- | 130 | 130 | %%-------------------- | |
%% Set the French abstract | 131 | 131 | %% Set the French abstract | |
\thesisabstract[french]{L'objectif de ce travail de thèse est la prise en compte en temps réel du travail d'un apprenant pour une meilleure personnalisation de l'environnement informatique pour l'apprentissage humain AI-VT (Artificial Intelligence Virtual Trainer). | 132 | 132 | \thesisabstract[french]{L'objectif de ce travail de thèse est la prise en compte en temps réel du travail d'un apprenant pour une meilleure personnalisation de l'environnement informatique pour l'apprentissage humain AI-VT (Artificial Intelligence Virtual Trainer). | |
133 | 133 | |||
Certains des problèmes les plus courants et les plus typiques dans le domaine des environnements informatiques d'apprentissage humain (EIAH) sont (i) l'identification correcte des difficultés des apprenants dans le processus d'apprentissage, (ii) l'adaptation du contenu ou de la présentation du système en fonction des difficultés rencontrées, et (iii) la capacité à s'adapter sans données initiales (démarrage à froid). Dans certains cas, le système tolère des modifications après la réalisation et l'évaluation des compétences. D'autres systèmes nécessitent une adaptation compliquée en temps réel car seul un nombre limité de données peut être capturé. Dans ce cas, elles doivent être analysées correctement et avec une certaine précision afin d'obtenir les adaptations appropriées. L'architecture proposée et les modules développés avec techniques d'intelligence artificielle fonctionnent de manière associée en exploitant les avantages de chacun pour obtenir des propositions d'adaptation performantes selon l'évolution des connaissances des apprenants, permettant ainsi l'acquisition des connaissances et la progression dans le processus d'apprentissage. | 134 | 134 | Certains des problèmes les plus courants et les plus typiques dans le domaine des environnements informatiques d'apprentissage humain (EIAH) sont (i) l'identification correcte des difficultés des apprenants dans le processus d'apprentissage, (ii) l'adaptation du contenu ou de la présentation du système en fonction des difficultés rencontrées, et (iii) la capacité à s'adapter sans données initiales (démarrage à froid). Dans certains cas, le système tolère des modifications après la réalisation et l'évaluation des compétences. D'autres systèmes nécessitent une adaptation compliquée en temps réel car seul un nombre limité de données peut être capturé. Dans ce cas, elles doivent être analysées correctement et avec une certaine précision afin d'obtenir les adaptations appropriées. L'architecture proposée et les modules développés avec techniques d'intelligence artificielle fonctionnent de manière associée en exploitant les avantages de chacun pour obtenir des propositions d'adaptation performantes selon l'évolution des connaissances des apprenants, permettant ainsi l'acquisition des connaissances et la progression dans le processus d'apprentissage. | |
} | 135 | 135 | } | |
136 | 136 | |||
%%-------------------- | 137 | 137 | %%-------------------- | |
%% Set the French keywords. They only appear if | 138 | 138 | %% Set the French keywords. They only appear if | |
%% there is an French abstract | 139 | 139 | %% there is an French abstract | |
\thesiskeywords[french]{Environnements informatiques d'apprentissage humain, Intelligence artificielle, raisonnement à partir de cas, systèmes multi-agents, raisonnement bayésien, échantillonnage de Thompson, processus de Hawkes} | 140 | 140 | \thesiskeywords[french]{Environnements informatiques d'apprentissage humain, Intelligence artificielle, raisonnement à partir de cas, systèmes multi-agents, raisonnement bayésien, échantillonnage de Thompson, processus de Hawkes} | |
141 | 141 | |||
%%-------------------- | 142 | 142 | %%-------------------- | |
%% Change the layout and the style of the text of the "primary" abstract. | 143 | 143 | %% Change the layout and the style of the text of the "primary" abstract. | |
%% If your document is written in French, the primary abstract is in French, | 144 | 144 | %% If your document is written in French, the primary abstract is in French, | |
%% otherwise it is in English. | 145 | 145 | %% otherwise it is in English. | |
%\Set{primaryabstractstyle}{\tiny} | 146 | 146 | %\Set{primaryabstractstyle}{\tiny} | |
147 | 147 | |||
%%-------------------- | 148 | 148 | %%-------------------- | |
%% Change the layout and the style of the text of the "secondary" abstract. | 149 | 149 | %% Change the layout and the style of the text of the "secondary" abstract. | |
%% If your document is written in French, the secondary abstract is in English, | 150 | 150 | %% If your document is written in French, the secondary abstract is in English, | |
%% otherwise it is in French. | 151 | 151 | %% otherwise it is in French. | |
%\Set{secondaryabstractstyle}{\tiny} | 152 | 152 | %\Set{secondaryabstractstyle}{\tiny} | |
153 | 153 | |||
%%-------------------- | 154 | 154 | %%-------------------- | |
%% Change the layout and the style of the text of the "primary" keywords. | 155 | 155 | %% Change the layout and the style of the text of the "primary" keywords. | |
%% If your document is written in French, the primary keywords are in French, | 156 | 156 | %% If your document is written in French, the primary keywords are in French, | |
%% otherwise they are in English. | 157 | 157 | %% otherwise they are in English. | |
%\Set{primarykeywordstyle}{\tiny} | 158 | 158 | %\Set{primarykeywordstyle}{\tiny} | |
159 | 159 | |||
%%-------------------- | 160 | 160 | %%-------------------- | |
%% Change the layout and the style of the text of the "secondary" keywords. | 161 | 161 | %% Change the layout and the style of the text of the "secondary" keywords. | |
%% If your document is written in French, the secondary keywords are in English, | 162 | 162 | %% If your document is written in French, the secondary keywords are in English, | |
%% otherwise they are in French. | 163 | 163 | %% otherwise they are in French. | |
%\Set{secondarykeywordstyle}{\tiny} | 164 | 164 | %\Set{secondarykeywordstyle}{\tiny} | |
165 | 165 | |||
%%-------------------- | 166 | 166 | %%-------------------- | |
%% Change the speciality of the PhD thesis | 167 | 167 | %% Change the speciality of the PhD thesis | |
%\Set{speciality}{Informatique} | 168 | 168 | %\Set{speciality}{Informatique} | |
169 | 169 | |||
%%-------------------- | 170 | 170 | %%-------------------- | |
%% Change the institution | 171 | 171 | %% Change the institution | |
%\Set{universityname}{Universit\'e de Technologie de Belfort-Montb\'eliard} | 172 | 172 | %\Set{universityname}{Universit\'e de Technologie de Belfort-Montb\'eliard} | |
173 | 173 | |||
174 | 174 | |||
%%-------------------- | 175 | 175 | %%-------------------- | |
%% Clear the list of the laboratories | 176 | 176 | %% Clear the list of the laboratories | |
\resetlaboratories | 177 | 177 | \resetlaboratories | |
178 | 178 | |||
%%-------------------- | 179 | 179 | %%-------------------- | |
%% Add the laboratory where the thesis was made | 180 | 180 | %% Add the laboratory where the thesis was made | |
%\addlaboratory{Laboratoire Connaissance et Intelligence Artificielle Distribu\'ees} | 181 | 181 | %\addlaboratory{Laboratoire Connaissance et Intelligence Artificielle Distribu\'ees} | |
182 | 182 | |||
%%-------------------- | 183 | 183 | %%-------------------- | |
%% The name of the university that is jointly delivering the Doctoral degree with UBFC | 184 | 184 | %% The name of the university that is jointly delivering the Doctoral degree with UBFC | |
%\Set{jointuniversity}{Universit\'e de Ngaound\'er\'e au Cameroun} | 185 | 185 | %\Set{jointuniversity}{Universit\'e de Ngaound\'er\'e au Cameroun} | |
186 | 186 | |||
%%-------------------- | 187 | 187 | %%-------------------- | |
%% Clear the list of the partner/sponsor logos | 188 | 188 | %% Clear the list of the partner/sponsor logos | |
%\resetpartners | 189 | 189 | %\resetpartners | |
190 | 190 | |||
%%-------------------- | 191 | 191 | %%-------------------- | |
%% Add the logos of the partners or the sponsors on the front page | 192 | 192 | %% Add the logos of the partners or the sponsors on the front page | |
%% | 193 | 193 | %% | |
%% CAUTION 1: At least, the logo of the University should appear (UFC) | 194 | 194 | %% CAUTION 1: At least, the logo of the University should appear (UFC) | |
%% | 195 | 195 | %% | |
%\addpartner[image options]{image name} | 196 | 196 | %\addpartner[image options]{image name} | |
197 | 197 | |||
%\addpartner{ufc} | 198 | 198 | %\addpartner{ufc} | |
199 | 199 | |||
%%-------------------- | 200 | 200 | %%-------------------- | |
%% Change the header and the foot of the pages. | 201 | 201 | %% Change the header and the foot of the pages. | |
%% You must include the package "fancyhdr" to | 202 | 202 | %% You must include the package "fancyhdr" to | |
%% have access to these macros. | 203 | 203 | %% have access to these macros. | |
%% Left header | 204 | 204 | %% Left header | |
%\lhead{} | 205 | 205 | %\lhead{} | |
%% Center header | 206 | 206 | %% Center header | |
%\chead{} | 207 | 207 | %\chead{} | |
%% Right header | 208 | 208 | %% Right header | |
%\rhead{} | 209 | 209 | %\rhead{} | |
%% Left footer | 210 | 210 | %% Left footer | |
%\lfoot{} | 211 | 211 | %\lfoot{} | |
%% Center footer | 212 | 212 | %% Center footer | |
%\cfoot{} | 213 | 213 | %\cfoot{} | |
%% Right footer | 214 | 214 | %% Right footer | |
%\rfoot{} | 215 | 215 | %\rfoot{} | |
216 | 216 | |||
%%-------------------- | 217 | 217 | %%-------------------- | |
% Declare several theorems | 218 | 218 | % Declare several theorems | |
%\declareupmtheorem{mytheorem}{My Theorem}{List of my Theorems} | 219 | 219 | %\declareupmtheorem{mytheorem}{My Theorem}{List of my Theorems} | |
220 | 220 | |||
%%-------------------- | 221 | 221 | %%-------------------- | |
%% Change the message on the backcover. | 222 | 222 | %% Change the message on the backcover. | |
%\Set{backcovermessage}{% | 223 | 223 | %\Set{backcovermessage}{% | |
% Some text | 224 | 224 | % Some text | |
%} | 225 | 225 | %} | |
226 | 226 | |||
\usepackage{layout} % Add this to view current margins | 227 | 227 | \usepackage{layout} % Add this to view current margins | |
228 | 228 | |||
\usepackage[pass]{geometry} | 229 | 229 | \usepackage[pass]{geometry} | |
230 | 230 | |||
\begin{document} | 231 | 231 | \begin{document} | |
232 | 232 | |||
\newgeometry{left=6cm, bottom=0.1cm} | 233 | 233 | \newgeometry{left=6cm, bottom=0.1cm} | |
234 | 234 | |||
\begin{titlepage} % Supprime headers et footers de la page | 235 | 235 | \begin{titlepage} % Supprime headers et footers de la page | |
\begin{figure}[t] | 236 | 236 | \begin{figure}[t] | |
\includegraphics[width=0.4\textwidth]{images_logos/image1_logoUBFC_grand.png}\hfill\includegraphics[width=0.4\textwidth]{images_logos/logo_UFC_2018_transparence.png} | 237 | 237 | \includegraphics[width=0.4\textwidth]{images_logos/image1_logoUBFC_grand.png}\hfill\includegraphics[width=0.4\textwidth]{images_logos/logo_UFC_2018_transparence.png} | |
\end{figure} | 238 | 238 | \end{figure} | |
239 | 239 | |||
\begin{center} | 240 | 240 | \begin{center} | |
241 | 241 | |||
\vspace*{1.0cm} | 242 | 242 | \vspace*{1.0cm} | |
\footnotesize{\textsf{\textbf{THESE DE DOCTORAT DE L’UNIVERSITE MARIE ET LOUIS PASTEUR\\~\\ | 243 | 243 | \footnotesize{\textsf{\textbf{THESE DE DOCTORAT DE L’UNIVERSITE MARIE ET LOUIS PASTEUR\\~\\ | |
% PREPAREE A l'UNIVERSITE DE FRANCHE-COMTE | 244 | 244 | % PREPAREE A l'UNIVERSITE DE FRANCHE-COMTE | |
}}} | 245 | 245 | }}} | |
246 | 246 | |||
\vspace{1.0cm} | 247 | 247 | \vspace{1.0cm} | |
Ecole doctorale n\textsuperscript{o} 37\\~\\ | 248 | 248 | Ecole doctorale n\textsuperscript{o} 37\\~\\ | |
Sciences Physique pour l’Ingénieur et Microtechniques | 249 | 249 | Sciences Physique pour l’Ingénieur et Microtechniques | |
250 | 250 | |||
\vspace{1.0cm} | 251 | 251 | \vspace{1.0cm} | |
Doctorat d'Informatique | 252 | 252 | Doctorat d'Informatique | |
253 | 253 | |||
\vspace{1.5cm} | 254 | 254 | \vspace{1.5cm} | |
Par\\~\\M. SOTO FORERO Daniel | 255 | 255 | Par\\~\\M. SOTO FORERO Daniel | |
256 | 256 | |||
\vspace{1.5cm} | 257 | 257 | \vspace{1.5cm} | |
258 | \huge | |||
Adaptation en temps réel d'une séance d'entraînement par intelligence artificielle | 258 | 259 | Adaptation en temps réel d'une séance d'entraînement par intelligence artificielle | |
259 | 260 | |||
261 | \normalsize | |||
%\vspace{0.12cm} | 260 | 262 | %\vspace{0.12cm} | |
%<Sous-titre ou deuxième ligne du titre de la thèse> | 261 | 263 | %<Sous-titre ou deuxième ligne du titre de la thèse> | |
262 | 264 | |||
\begin{flushleft} | 263 | 265 | \begin{flushleft} | |
264 | 266 | |||
\vspace{1.0cm} | 265 | 267 | \vspace{1.0cm} | |
Thèse présentée et soutenue à Besançon, le <date> | 266 | 268 | Thèse présentée et soutenue à Besançon, le <date> | |
267 | 269 | |||
\vspace{1.0cm} | 268 | 270 | \vspace{1.0cm} | |
Composition du Jury~: | 269 | 271 | Composition du Jury~: | |
270 | 272 | |||
\begin{tabbing} %Tabulations avec'\>', positions indiquées par '\='. | 271 | 273 | \begin{tabbing} %Tabulations avec'\>', positions indiquées par '\='. | |
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~\=~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~\=\\ % Définit les positions des tabulations | 272 | 274 | ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~\=~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~\=\\ % Définit les positions des tabulations | |
M. GEORGES Sébastien \> Prof., Le Mans Université \> Rapporteur\\ | 273 | 275 | M. GEORGES Sébastien \> Prof., Le Mans Université \> Rapporteur\\ | |
M. LIEBER Jean \> MCF HDR, Université de Lorraine \> Rapporteur\\ | 274 | 276 | M. LIEBER Jean \> MCF HDR, Université de Lorraine \> Rapporteur\\ | |
M. PRIFTI Edi \> Dir. de recherche, IRD \> Examinateur\\ | 275 | 277 | M. PRIFTI Edi \> Dir. de recherche, IRD \> Examinateur\\ | |
M. LANG Christophe \> Prof., Université Marie et Louis Pasteur \> Examinateur\\ | 276 | 278 | M. LANG Christophe \> Prof., Université Marie et Louis Pasteur \> Examinateur\\ | |
M. HENRIET Julien \> MCF HDR, UMLP \> Directeur de thèse\\ | 277 | 279 | M. HENRIET Julien \> MCF HDR, UMLP \> Directeur de thèse\\ | |
Mme BETBEDER Marie-Laure \> MCF, Université Marie et Louis Pasteur \> Codirectrice de thèse\\ | 278 | 280 | Mme BETBEDER Marie-Laure \> MCF, Université Marie et Louis Pasteur \> Codirectrice de thèse\\ | |
\end{tabbing} | 279 | 281 | \end{tabbing} | |
\end{flushleft} | 280 | 282 | \end{flushleft} | |
\end{center} | 281 | 283 | \end{center} | |
\end{titlepage} % Fin de page de titre | 282 | 284 | \end{titlepage} % Fin de page de titre | |
283 | 285 | |||
\restoregeometry | 284 | 286 | \restoregeometry | |
285 | 287 | |||
%%-------------------- | 286 | 288 | %%-------------------- | |
%% The following line does nothing until | 287 | 289 | %% The following line does nothing until | |
%% the class option 'nofrontmatter' is given. | 288 | 290 | %% the class option 'nofrontmatter' is given. | |
%\frontmatter | 289 | 291 | %\frontmatter | |
290 | 292 | |||
%%-------------------- | 291 | 293 | %%-------------------- | |
%% The following line permits to add a chapter for "acknowledgements" | 292 | 294 | %% The following line permits to add a chapter for "acknowledgements" | |
%% at the beginning of the document. This chapter has not a chapter | 293 | 295 | %% at the beginning of the document. This chapter has not a chapter | |
%% number (using the "star-ed" version of \chapter) to prevent it to | 294 | 296 | %% number (using the "star-ed" version of \chapter) to prevent it to |
main.toc
View file @
4b1afa3
\babel@toc {french}{}\relax | 1 | 1 | \babel@toc {french}{}\relax | |
\contentsline {part}{I\hspace {1em}Contexte et Problématiques}{1}{part.1}% | 2 | 2 | \contentsline {part}{I\hspace {1em}Contexte et Problématiques}{1}{part.1}% | |
\contentsline {chapter}{\numberline {1}Introduction}{3}{chapter.1}% | 3 | 3 | \contentsline {chapter}{\numberline {1}Introduction}{3}{chapter.1}% | |
\contentsline {section}{\numberline {1.1}Contributions Principales}{4}{section.1.1}% | 4 | 4 | \contentsline {section}{\numberline {1.1}Contributions Principales}{4}{section.1.1}% | |
\contentsline {section}{\numberline {1.2}Plan de la thèse}{5}{section.1.2}% | 5 | 5 | \contentsline {section}{\numberline {1.2}Plan de la thèse}{5}{section.1.2}% | |
\contentsline {part}{II\hspace {1em}État de l'art}{7}{part.2}% | 6 | 6 | \contentsline {part}{II\hspace {1em}État de l'art}{7}{part.2}% | |
\contentsline {chapter}{\numberline {2}Contexte}{9}{chapter.2}% | 7 | 7 | \contentsline {chapter}{\numberline {2}Contexte}{9}{chapter.2}% | |
\contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{9}{section.2.1}% | 8 | 8 | \contentsline {section}{\numberline {2.1}Les stratégies d'apprentissage humain et les environnements informatiques pour l'apprentissage humain (EIAH)}{9}{section.2.1}% | |
\contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{9}{subsection.2.1.1}% | 9 | 9 | \contentsline {subsection}{\numberline {2.1.1}Les stratégies d'apprentissage}{9}{subsection.2.1.1}% | |
\contentsline {subsection}{\numberline {2.1.2}Les EIAH}{10}{subsection.2.1.2}% | 10 | 10 | \contentsline {subsection}{\numberline {2.1.2}Les EIAH}{10}{subsection.2.1.2}% | |
\contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{11}{subsection.2.1.3}% | 11 | 11 | \contentsline {subsection}{\numberline {2.1.3}L'exerciseur initial AI-VT}{11}{subsection.2.1.3}% | |
\contentsline {section}{\numberline {2.2}Le contexte technique}{12}{section.2.2}% | 12 | 12 | \contentsline {section}{\numberline {2.2}Le contexte technique}{12}{section.2.2}% | |
\contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{12}{subsection.2.2.1}% | 13 | 13 | \contentsline {subsection}{\numberline {2.2.1}Le raisonnement à partir de cas (RàPC)}{12}{subsection.2.2.1}% | |
\contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{14}{subsubsection.2.2.1.1}% | 14 | 14 | \contentsline {subsubsection}{\numberline {2.2.1.1}Retrouver (Rechercher)}{14}{subsubsection.2.2.1.1}% | |
\contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{14}{subsubsection.2.2.1.2}% | 15 | 15 | \contentsline {subsubsection}{\numberline {2.2.1.2}Réutiliser (Adapter)}{14}{subsubsection.2.2.1.2}% | |
\contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{14}{subsubsection.2.2.1.3}% | 16 | 16 | \contentsline {subsubsection}{\numberline {2.2.1.3}Réviser et Réparer}{14}{subsubsection.2.2.1.3}% | |
\contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{15}{subsubsection.2.2.1.4}% | 17 | 17 | \contentsline {subsubsection}{\numberline {2.2.1.4}Retenir (Stocker)}{15}{subsubsection.2.2.1.4}% | |
\contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{16}{subsubsection.2.2.1.5}% | 18 | 18 | \contentsline {subsubsection}{\numberline {2.2.1.5}Conteneurs de Connaissance}{16}{subsubsection.2.2.1.5}% | |
\contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{17}{subsection.2.2.2}% | 19 | 19 | \contentsline {subsection}{\numberline {2.2.2}Les systèmes multi-agents}{17}{subsection.2.2.2}% | |
\contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}{17}{subsection.2.2.3}% | 20 | 20 | \contentsline {subsection}{\numberline {2.2.3}Différents algorithmes et fonctions implémentés dans AI-VT pour la personnalisation et l'adaptation des séances d'entraînement proposées}{17}{subsection.2.2.3}% | |
\contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}% | 21 | 21 | \contentsline {subsubsection}{\numberline {2.2.3.1}Pensée Bayesienne}{17}{subsubsection.2.2.3.1}% | |
\contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{18}{subsubsection.2.2.3.2}% | 22 | 22 | \contentsline {subsubsection}{\numberline {2.2.3.2}Méthode des k plus proches voisins (K-Nearest Neighborhood - KNN)}{18}{subsubsection.2.2.3.2}% | |
\contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{19}{subsubsection.2.2.3.3}% | 23 | 23 | \contentsline {subsubsection}{\numberline {2.2.3.3}K-Moyennes}{19}{subsubsection.2.2.3.3}% | |
\contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de Mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}% | 24 | 24 | \contentsline {subsubsection}{\numberline {2.2.3.4}Modèle de mélange Gaussien GMM (\textit {Gaussian Mixture Model})}{20}{subsubsection.2.2.3.4}% | |
\contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{20}{subsubsection.2.2.3.5}% | 25 | 25 | \contentsline {subsubsection}{\numberline {2.2.3.5}Fuzzy-C}{20}{subsubsection.2.2.3.5}% | |
\contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{21}{subsubsection.2.2.3.6}% | 26 | 26 | \contentsline {subsubsection}{\numberline {2.2.3.6}Bandit Manchot MAB (\textit {Multi-Armed Bandits})}{21}{subsubsection.2.2.3.6}% | |
\contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{21}{subsubsection.2.2.3.7}% | 27 | 27 | \contentsline {subsubsection}{\numberline {2.2.3.7}Échantillonnage de Thompson TS (\textit {Thompson Sampling})}{21}{subsubsection.2.2.3.7}% | |
\contentsline {chapter}{\numberline {3}Environnements Informatiques d'Apprentissage Humain}{23}{chapter.3}% | 28 | 28 | \contentsline {chapter}{\numberline {3}Environnements Informatiques d'Apprentissage Humain}{23}{chapter.3}% | |
\contentsline {section}{\numberline {3.1}L'Intelligence Artificielle}{23}{section.3.1}% | 29 | 29 | \contentsline {section}{\numberline {3.1}L'Intelligence Artificielle}{23}{section.3.1}% | |
\contentsline {section}{\numberline {3.2}Systèmes de recommandation dans les EIAH}{24}{section.3.2}% | 30 | 30 | \contentsline {section}{\numberline {3.2}Systèmes de recommandation dans les EIAH}{24}{section.3.2}% | |
\contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}% | 31 | 31 | \contentsline {chapter}{\numberline {4}\'Etat de l'art (Raisonnement à Partir de Cas)}{29}{chapter.4}% | |
\contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}% | 32 | 32 | \contentsline {section}{\numberline {4.1}Intégration d'un réseau de neurones dans le cycle du RàPC}{29}{section.4.1}% | |
\contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}% | 33 | 33 | \contentsline {section}{\numberline {4.2}Le RàPC pour construire ou corriger un texte, pour consolider ou expliquer les résultats obtenus}{30}{section.4.2}% | |
\contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}% | 34 | 34 | \contentsline {section}{\numberline {4.3}Travaux récents sur la représentation des cas et le cycle du RàPC}{31}{section.4.3}% | |
\contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}% | 35 | 35 | \contentsline {section}{\numberline {4.4}Intégration d'autres algorithmes dans le cycle du RàPC}{33}{section.4.4}% | |
\contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}% | 36 | 36 | \contentsline {section}{\numberline {4.5}Prédiction et interpolation en utilisant le RàPC}{34}{section.4.5}% | |
\contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}% | 37 | 37 | \contentsline {section}{\numberline {4.6}Recommandation, EIAH et RàPC}{35}{section.4.6}% | |
\contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{36}{section.4.7}% | 38 | 38 | \contentsline {section}{\numberline {4.7}Récapitulatif des limites des travaux présentés dans ce chapitre}{35}{section.4.7}% | |
\contentsline {part}{III\hspace {1em}Contributions}{39}{part.3}% | 39 | 39 | \contentsline {part}{III\hspace {1em}Contributions}{39}{part.3}% | |
\contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}% | 40 | 40 | \contentsline {chapter}{\numberline {5}Architecture Globale du Système AI-VT}{41}{chapter.5}% | |
\contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}% | 41 | 41 | \contentsline {section}{\numberline {5.1}Introduction}{41}{section.5.1}% | |
\contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}% | 42 | 42 | \contentsline {section}{\numberline {5.2}Description du système AI-VT}{42}{section.5.2}% | |
\contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}% | 43 | 43 | \contentsline {section}{\numberline {5.3}Modèle d'architecture proposé}{44}{section.5.3}% | |
\contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}% | 44 | 44 | \contentsline {subsection}{\numberline {5.3.1}Correction automatique}{46}{subsection.5.3.1}% | |
\contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}% | 45 | 45 | \contentsline {subsection}{\numberline {5.3.2}Identification}{47}{subsection.5.3.2}% | |
\contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}% | 46 | 46 | \contentsline {subsection}{\numberline {5.3.3}Révision}{47}{subsection.5.3.3}% | |
\contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}% | 47 | 47 | \contentsline {subsection}{\numberline {5.3.4}Test}{48}{subsection.5.3.4}% | |
\contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}% | 48 | 48 | \contentsline {section}{\numberline {5.4}Conclusion}{49}{section.5.4}% | |
\contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}% | 49 | 49 | \contentsline {chapter}{\numberline {6}Le raisonnement à partir de cas (RàPC) pour la régression}{51}{chapter.6}% | |
\contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}% | 50 | 50 | \contentsline {section}{\numberline {6.1}Introduction}{51}{section.6.1}% | |
\contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}% | 51 | 51 | \contentsline {section}{\numberline {6.2}Apprentissage par empilement et raisonnement à partir de cas}{53}{section.6.2}% | |
\contentsline {subsection}{\numberline {6.2.1}Algorithme Proposé}{53}{subsection.6.2.1}% | 52 | 52 | \contentsline {subsection}{\numberline {6.2.1}Algorithme Proposé}{53}{subsection.6.2.1}% | |
\contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}% | 53 | 53 | \contentsline {subsubsection}{\numberline {6.2.1.1}Rechercher}{54}{subsubsection.6.2.1.1}% | |
\contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}% | 54 | 54 | \contentsline {subsubsection}{\numberline {6.2.1.2}Réutiliser}{55}{subsubsection.6.2.1.2}% | |
\contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}% | 55 | 55 | \contentsline {subsubsection}{\numberline {6.2.1.3}Révision}{59}{subsubsection.6.2.1.3}% | |
\contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}% | 56 | 56 | \contentsline {subsubsection}{\numberline {6.2.1.4}Mémorisation}{60}{subsubsection.6.2.1.4}% | |
\contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}% | 57 | 57 | \contentsline {subsection}{\numberline {6.2.2}Résultats}{61}{subsection.6.2.2}% | |
\contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}% | 58 | 58 | \contentsline {subsection}{\numberline {6.2.3}Discussion}{62}{subsection.6.2.3}% | |
\contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}% | 59 | 59 | \contentsline {subsection}{\numberline {6.2.4}Conclusion}{63}{subsection.6.2.4}% | |
\contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}% | 60 | 60 | \contentsline {section}{\numberline {6.3}ESCBR-SMA : Introduction des systèmes multi-agents dans ESCBR}{63}{section.6.3}% | |
\contentsline {subsection}{\numberline {6.3.1}Algorithme Proposé}{64}{subsection.6.3.1}% | 61 | 61 | \contentsline {subsection}{\numberline {6.3.1}Algorithme Proposé}{64}{subsection.6.3.1}% | |
\contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes}{65}{subsubsection.6.3.1.1}% | 62 | 62 | \contentsline {subsubsection}{\numberline {6.3.1.1}Algorithmes suivis par ESCBR-SMA}{65}{subsubsection.6.3.1.1}% | |
\contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}% | 63 | 63 | \contentsline {subsubsection}{\numberline {6.3.1.2}Structure des agents}{67}{subsubsection.6.3.1.2}% | |
\contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}% | 64 | 64 | \contentsline {subsubsection}{\numberline {6.3.1.3}Apprentissage des agents}{67}{subsubsection.6.3.1.3}% | |
\contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}% | 65 | 65 | \contentsline {subsubsection}{\numberline {6.3.1.4}Échanges entre les agents}{69}{subsubsection.6.3.1.4}% | |
\contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}% | 66 | 66 | \contentsline {subsection}{\numberline {6.3.2}Résultats}{69}{subsection.6.3.2}% | |
\contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}% | 67 | 67 | \contentsline {subsection}{\numberline {6.3.3}Conclusion}{72}{subsection.6.3.3}% | |
\contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}% | 68 | 68 | \contentsline {chapter}{\numberline {7}Système de Recommandation dans AI-VT}{73}{chapter.7}% | |
\contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}% | 69 | 69 | \contentsline {section}{\numberline {7.1}Introduction}{73}{section.7.1}% | |
\contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}% | 70 | 70 | \contentsline {section}{\numberline {7.2}Système de recommandation stochastique fondé sur l'échantillonnage de Thompson}{74}{section.7.2}% | |
\contentsline {subsection}{\numberline {7.2.1}Algorithme Proposé}{74}{subsection.7.2.1}% | 71 | 71 | \contentsline {subsection}{\numberline {7.2.1}Algorithme Proposé}{74}{subsection.7.2.1}% | |
\contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}% | 72 | 72 | \contentsline {subsection}{\numberline {7.2.2}Résultats}{76}{subsection.7.2.2}% | |
\contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusion}{81}{subsection.7.2.3}% | 73 | 73 | \contentsline {subsection}{\numberline {7.2.3}Discussion et Conclusion}{81}{subsection.7.2.3}% | |
\contentsline {section}{\numberline {7.3}ESCBR-SMA et échantillonnage de Thompson}{83}{section.7.3}% | 74 | 74 | \contentsline {section}{\numberline {7.3}ESCBR-SMA et échantillonnage de Thompson}{83}{section.7.3}% | |
\contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}% | 75 | 75 | \contentsline {subsection}{\numberline {7.3.1}Concepts Associés}{84}{subsection.7.3.1}% | |
\contentsline {subsection}{\numberline {7.3.2}Algorithme Proposé}{86}{subsection.7.3.2}% | 76 | 76 | \contentsline {subsection}{\numberline {7.3.2}Algorithme Proposé}{86}{subsection.7.3.2}% | |
\contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}% | 77 | 77 | \contentsline {subsection}{\numberline {7.3.3}Résultats et Discussion}{88}{subsection.7.3.3}% | |
\contentsline {subsubsection}{\numberline {7.3.3.1}Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}{88}{subsubsection.7.3.3.1}% | 78 | 78 | \contentsline {subsubsection}{\numberline {7.3.3.1}Régression avec ESCBR-SMA pour l'aide à l'apprentissage humain}{88}{subsubsection.7.3.3.1}% | |
\contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{89}{subsubsection.7.3.3.2}% | 79 | 79 | \contentsline {subsubsection}{\numberline {7.3.3.2}Progression des connaissances}{89}{subsubsection.7.3.3.2}% | |
\contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'étudiants réels}{91}{subsubsection.7.3.3.3}% | 80 | 80 | \contentsline {subsubsection}{\numberline {7.3.3.3}Système de recommandation avec un jeu de données d'apprenants réels}{91}{subsubsection.7.3.3.3}% | |
\contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}% | 81 | 81 | \contentsline {subsubsection}{\numberline {7.3.3.4}Comparaison entre TS et BKT}{92}{subsubsection.7.3.3.4}% | |
\contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}% | 82 | 82 | \contentsline {subsubsection}{\numberline {7.3.3.5}Système de recommandation avec ESCBR-SMA}{93}{subsubsection.7.3.3.5}% | |
\contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}% | 83 | 83 | \contentsline {subsubsection}{\numberline {7.3.3.6}Progression des connaissances TS vs TS et ESCBR-SMA}{93}{subsubsection.7.3.3.6}% | |
\contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}% | 84 | 84 | \contentsline {subsection}{\numberline {7.3.4}Conclusion}{95}{subsection.7.3.4}% | |
\contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}% | 85 | 85 | \contentsline {section}{\numberline {7.4}ESCBR-SMA, échantillonnage de Thompson et processus de Hawkes}{96}{section.7.4}% | |
\contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}% | 86 | 86 | \contentsline {subsection}{\numberline {7.4.1}Algorithme Proposé}{96}{subsection.7.4.1}% | |
\contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}% | 87 | 87 | \contentsline {subsection}{\numberline {7.4.2}Résultats et Discussion}{98}{subsection.7.4.2}% | |
\contentsline {subsubsection}{\numberline {7.4.2.1}Système de recommandation avec un jeu de données d'étudiants réels (TS avec Hawkes)}{98}{subsubsection.7.4.2.1}% | 88 | |||
\contentsline {subsubsection}{\numberline {7.4.2.2}Mesures de performances}{100}{subsubsection.7.4.2.2}% | 89 | |||
\contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}% | 90 | 88 | \contentsline {subsection}{\numberline {7.4.3}Conclusion}{100}{subsection.7.4.3}% | |
\contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{103}{chapter.8}% | 91 | 89 | \contentsline {chapter}{\numberline {8}Conclusions et Perspectives}{103}{chapter.8}% | |
\contentsline {section}{\numberline {8.1}Conclusion générale}{103}{section.8.1}% | 92 | 90 | \contentsline {section}{\numberline {8.1}Conclusion générale}{103}{section.8.1}% | |
\contentsline {section}{\numberline {8.2}Perspectives}{105}{section.8.2}% | 93 | 91 | \contentsline {section}{\numberline {8.2}Perspectives}{105}{section.8.2}% | |
\contentsline {chapter}{\numberline {9}Publications}{107}{chapter.9}% | 94 | 92 | \contentsline {chapter}{\numberline {9}Publications}{107}{chapter.9}% | |
\contentsline {section}{\numberline {9.1}Publications liées au sujet de thèse}{107}{section.9.1}% | 95 | 93 | \contentsline {section}{\numberline {9.1}Publications liées au sujet de thèse}{107}{section.9.1}% | |
\contentsline {section}{\numberline {9.2}Autres publications}{108}{section.9.2}% | 96 | 94 | \contentsline {section}{\numberline {9.2}Autres publications}{108}{section.9.2}% | |
97 | 95 | |||
manuscrit.pdf
View file @
4b1afa3